Entradas

Echando un vistazo al reverso

Imagen
Martin Heidegger, en su ensayo La pregunta por la técnica (1954), sostiene que la tecnología no es solo un conjunto de herramientas o máquinas que utilizamos para hacer la vida más fácil, sino una forma de ver y entender el mundo. Todo lo que nos rodea (desde la naturaleza hasta los propios seres humanos) se transforma en un simple recurso disponible, algo que existe solo en la medida en que pueda ser usado, almacenado o explotado. Perdemos, así, la capacidad de percibir las cosas en su riqueza propia, en su ser más allá de su utilidad inmediata.  La IA, los algoritmos o la vigilancia digital convierten a las personas en mercancía, en datos y en consumidores predecibles: la advertencia de Heidegger va cobrando con el tiempo aún más sentido.  ¿Cómo condicionan nuestros propios dispositivos, algoritmos y redes digitales la forma en que pensamos, sentimos y actuamos?  ¿Nos servimos de la tecnología o, por el contrario, nos hemos convertido en sus sirvientes? La tecnología s...

Innovar o proteger

Imagen
Sócrates advertía que la escritura debilitaría la memoria humana porque la gente ya no dependería del conocimiento oral. Fue tachado de alarmista, pero en cierto sentido tenía razón: con el tiempo, la oralidad perdió peso como método de transmisión de conocimiento y hoy dependemos de dispositivos para recordar información, incluidos los libros en papel. La imprenta llegó en el siglo XV y transformó radicalmente la sociedad al hacer accesible el conocimiento a un público mucho más amplio. Esta innovación no solo permitió la reproducción masiva de textos, sino que también rompió el monopolio del saber que antes ejercían instituciones eclesiásticas y aristocráticas. Al difundir ideas, cuestionar dogmas y facilitar el debate público, la imprenta se erigió como un motor de cambio social, sentando las bases para movimientos reformistas y democrático.  Aunque la escritura debilitó la memoria humana, la imprenta democratizó el acceso al conocimiento. La tecnología y sus productos no s...

Humano-LLM

Imagen
El trabajo  Li et al. (2024)  tiene como objetivo principal presentar una recopilación y análisis de la literatura científica centrada en la interacción entre humano y modelos de lenguaje grande (LLM). Seleccionaron aquellos artículos que examinaban cómo las personas interactúan con LLMs (como ChatGPT, Claude, Gemini, etc.), que además incluyeran al menos un estudio con usuarios reales, y que abordaran estas interacciones de manera general sin enfocarse en casos específicos. En este estudio los autores lograron, entre otras cosas, identificar, clasificar y organizar más de 100 artículos según la forma de interacción humano-LLM que analizaba cada uno de ellos. Para ello se apollaron en una clasificación de cuatro patrones de interacción básicos entre humanos y LLM:  Herramienta de procesamiento:  el LLM realiza tareas específicas y dirigidas, en ningún caso creativas, y el humano toma la mayoría de las decisiones. Por ejemplo, buscar en documentos información específi...

Más allá de la automatización

Imagen
Continuación de  Cocreación responsable El verdadero potencial de los LLM emerge cuando los conceptualizamos no como simples herramientas de automatización, sino como amplificadores de las capacidades humanas. Esta distinción es fundamental para comprender su papel en los procesos creativos y productivos. La tendencia generalizada a buscar en los LLM una solución rápida para incrementar la productividad, no sólo es una perspectiva completamente falsa sino que resulta contraproducente. El valor real de estas herramientas radica en su capacidad para mejorar la calidad de nuestro trabajo, no necesariamente su velocidad. La diferencia no es trivial: mientras la productividad se mide en cantidad de output, la mejora cualitativa implica un refinamiento del pensamiento, la creatividad y la precisión. Hay estrategias para trascender la visión puramente productivista y adoptar un enfoque más realista y enriquecedor de los LLM. Este cambio de perspectiva nos permite despojar a estas herrami...

Cocreación responsable

Imagen
Mientras celebramos los avances significativos que se están logrando mediante la colaboración entre humanos y LLM, existe un riesgo latente de que la delegación progresiva de la creatividad y la innovación a estos sistemas conduzca a una homogeneización del pensamiento creativo y a su paulatina atrofia en el ser humano ( Rebelión en el imperio de la IA ) . La verdadera innovación, aquella que produce saltos paradigmáticos y revoluciona campos enteros del conocimiento, surge de características inherentemente humanas: nuestra capacidad de experimentar emociones, de sufrir, de cuestionar lo establecido y de realizar conexiones aparentemente ilógicas que conducen a descubrimientos revolucionarios. El desafío actual no radica en elegir entre el desarrollo tecnológico y la creatividad humana, no hay elección posible ante lo inevitable, sino en desarrollar un marco de trabajo que permita aprovechar el potencial de los LLM mientras preservamos y potenciamos las capacidades únicas de la mente...

La crisis de los sesgos

Imagen
En mi anterior artículo  Domínguez, J. (2024)  examiné la creciente brecha que se está abriendo entre las expectativas iniciales (tanto positivas como negativas) depositadas en la IA y su desarrollo real. Por ejemplo, si bien las empresas están realizando fuertes inversiones para sacar partido a estas tecnologías, no están obteniendo los beneficios que esperaban. Esta disparidad se está viendo ampliada por diversos factores, pero es el de los sesgos el que resulta más destacable. En este sentido  Comín, D. (2024)  anticipa: "[...] los sesgos potenciales de los algoritmos que son la base de todas las aplicaciones de IA crearán resistencia al desarrollo de aplicaciones y frenarán la repercusión potencial de la IA en la economía". La presencia de sesgos en los resultados generados por esta tecnología no debería sorprendernos. Son una consecuencia lógica de la naturaleza de los datos de entrenamiento empleados en el desarrollo de estos sistemas. La calidad, diversidad y ...

El verdadero impacto del hype

Imagen
"La IA se está convirtiendo en una fuerza con gran impacto tanto en el mundo laboral como en el económico". Con esa entrada parece que hablamos de largas colas de desempleados en las oficinas de empleo, que han sido sustituidos exitosamente por herramientas movidas por esta tecnología, e importantes empresas que, aun reduciendo drásticamente su mano de obra, están obteniendo pingües beneficios gracias a dichas herramientas. Es lo que todos esperábamos que sucediera, y que lo hiciera de manera virulenta y cruel. Sin embargo, la adopción generalizada de la IA parece no estar produciendo los efectos que se esperaban. Si bien es posible que se estén perdiendo empleos y que se pierdan muchos más en el futuro, lo realmente significativo es que a fecha de hoy los trabajadores están teniendo que esforzarse más para utilizar la IA. Por otro lado, aunque las empresas están implementándola extensamente, no están obteniendo los beneficios previstos.  Según el informe FMI (2024) la IA es...

"Puerta a las estrellas": ¿a dónde lleva realmente esa puerta?

Imagen
En febrero de 2023, en plena viralidad del fenómeno ChatGPT, Stephen Wolfram presentó un extenso artículo sobre el funcionamiento de esta herramienta titulado What Is ChatGPT Doing … and Why Does It Work?  (¿Qué está haciendo ChatGPT... y por qué funciona?). Con este trabajo, además de introducirnos en multitud de conceptos clave para comprender los GPT (Generative Pre-trained Transformer), refrenda la tesis central del libro "A New Kind of Science" (ver  Gestionando riesgos de la IA generativa - Parte 1: Los sistemas complejos ): "un gran número de elementos computacionales simples pueden hacer cosas extraordinarias e inesperadas". ChatGPT parece un sistema poco prometedor. Se trata de una simple red neuronal alimentada con grandes cantidades de texto de internet, libros y otras fuentes. A partir de un texto dado sopesará cuál es la siguiente palabra con mayor probabilidad de aparecer según el sentido del conjunto: y esto lo hará recursivamente hasta que dé por com...

Gestionando riesgos de la IA generativa - Parte 1: Los sistemas complejos

Imagen
Muchas organizaciones están adoptando la IA generativa para asistir a algunos de sus procesos. En la mayoría de los casos, esta adopción se está llevando a cabo de la manera habitual, es decir, del mismo modo que se haría con cualquier otra tecnología. Aunque pueda parecer que la implementación exitosa de la IA generativa requiere lo mismo que cualquier otra transformación digital, esta tecnología tiene una serie de características muy particulares que la hacen especial: conocerlas no garantiza nada, pero sí puede darnos pistas a la hora de gestionar los riesgos. En su libro "A New Kind of Science" (Un Nuevo Tipo de Ciencia) publicado en 2002,  Stephen Wolfram  presentó una original teoría con el propósito de facilitar una comprensión más profunda de la complejidad de la naturaleza. Esta complejidad podría ser explicada mediante reglas y patrones computacionales muy simples que se combinan entre sí. Aunque el concepto de "emergencia" es muy anterior a Wolfram, éste ...

Oportunismo artificial

Imagen
Lo que vamos a tratar en este artículo recuerda lejanamente al escándalo de Volkswagen en 2015. La compañía alemana fue acusada de instalar un software en millones de vehículos diésel para engañar a los reguladores de emisiones. Este software detectaba cuándo el automóvil estaba siendo sometido a pruebas de emisiones en un laboratorio. Durante estas pruebas, el software activaba un modo de funcionamiento que reducía las emisiones de óxidos de nitrógeno para cumplir con los estándares regulatorios. El caso no nos ha venido a la cabeza sin más: la IA se ha convertido en una prioridad para numerosas industrias, y esto deja el terreno abonado para que aflore la picaresca. Esta tecnología atrae clientes, y quién nos libra de que en pos de la supuesta reducción de costes que conlleva no caigamos en el todo vale. Es fácil, por ejemplo, prometer una reducción de costes con el uso de IA generativa para crear ciertos productos o servicios; sin embargo, la realidad es que habitualmente, la obtenc...

La rentabilidad de la IA ética - Parte 2: La IA europea

Imagen
La relación entre ética y rentabilidad es un tema controvertido. La búsqueda de las empresas por maximizar sus ganancias suele entrar en conflicto con principios éticos y morales. Este dilema es más agudo en ciertas industrias, como por ejemplo la farmacéutica, donde la presión por la rentabilidad tiende a desatender áreas especialmente sensibles, como por ejemplo la salud de los consumidores, o invertir en negocios más lucrativos en detrimento de otros que podrían tener un mayor impacto social pero menor retorno financiero.  Sin embargo, después de visto  el caso de Amazon  nos inclinamos a pensar que lo ético y lo rentable pueden ir de la mano, y el  Grupo de expertos de alto nivel sobre inteligencia artificial de la Comisión Europea  (AI HLEG) está convencido de que es así. Este grupo fue constituido por la Comisión para que la asesoraran sobre estrategia en lo concerniente a la IA. El primer trabajo que realizaron fue la elaboración de unas  directrices...

La rentabilidad de la IA ética - Parte 1: El caso Amazon

Imagen
Un artículo de The Washington Post de mayo de 2023 advierte que cada vez se crean más contenidos en Internet gracias a los generadores de texto impulsados por IA. Noticias y libros, entre otros, generados con herramientas como ChatGPT o Gemini ya inundaban hace casi un año nuestro entorno digital, y no digital. A pesar de lo que pueda pensarse, todo esto está suponiendo cuantiosas pérdidas para grandes compañías: algunas de ellas han comenzado a tomar medidas. A partir de septiembre del año pasado Amazon comenzó a establecer requisitos para los creadores de Kindle Direct Publishing (KDP), y así intentar contener la inundación de libros generados con IA que estaba sufriendo su tienda, con el consiguiente aumento de la necesidad de espacio (dinero), la dificultad de los lectores para encontrar lo que desean (dinero) y la pérdida de confianza de estos ante la proliferación de obras carentes de originalidad, calidad y veracidad (dinero). El 6 de septiembre la compañía fundada por Jeff Bez...

Privacidad de datos personales y análisis de información

Imagen
No es buena práctica pasar a una IA los datos personales de clientes, alumnos o pacientes, y menos aún si son menores. Sin embargo, este tipo de herramientas pueden ser muy poderosas analizando información sin necesidad de que seamos científicos de datos. Y aquí es donde nos encontramos con una "encrucijada", como le gusta decir a ChatGPT. Las herramientas que podemos encontrar por la web tienen unas políticas de privacidad muy laxas en sus versiones gratuitas, a veces también incluso en las no gratuitas, y aquellas que están impulsadas con IA no son una excepción. Es nuestra responsabilid cuidar de que los datos que tenemos a nuestro cargo estén correctamente custodiados, y más aún cuando no esté muy claro qué hará con ellos el agente con el que los compartimos. Cualquiera pensaría que quizá podría compartirse dicha información con estas herramientas si se recaba el consentimiento de los interesados. Sin embargo, este consentimiento debería contener, entre otras cosas, cuále...