Entradas

Mostrando entradas de marzo, 2024

Gestionando riesgos de la IA generativa - Parte 1: Los sistemas complejos

Imagen
Muchas organizaciones están adoptando la IA generativa para asistir a algunos de sus procesos. En la mayoría de los casos, esta adopción se está llevando a cabo de la manera habitual, es decir, del mismo modo que se haría con cualquier otra tecnología. Aunque pueda parecer que la implementación exitosa de la IA generativa requiere lo mismo que cualquier otra transformación digital, esta tecnología tiene una serie de características muy particulares que la hacen especial: conocerlas no garantiza nada, pero sí puede darnos pistas a la hora de gestionar los riesgos. En su libro "A New Kind of Science" (Un Nuevo Tipo de Ciencia) publicado en 2002,  Stephen Wolfram  presentó una original teoría con el propósito de facilitar una comprensión más profunda de la complejidad de la naturaleza. Esta complejidad podría ser explicada mediante reglas y patrones computacionales muy simples que se combinan entre sí. Aunque el concepto de "emergencia" es muy anterior a Wolfram, éste ...

Oportunismo artificial

Imagen
Lo que vamos a tratar en este artículo recuerda lejanamente al escándalo de Volkswagen en 2015. La compañía alemana fue acusada de instalar un software en millones de vehículos diésel para engañar a los reguladores de emisiones. Este software detectaba cuándo el automóvil estaba siendo sometido a pruebas de emisiones en un laboratorio. Durante estas pruebas, el software activaba un modo de funcionamiento que reducía las emisiones de óxidos de nitrógeno para cumplir con los estándares regulatorios. El caso no nos ha venido a la cabeza sin más: la IA se ha convertido en una prioridad para numerosas industrias, y esto deja el terreno abonado para que aflore la picaresca. Esta tecnología atrae clientes, y quién nos libra de que en pos de la supuesta reducción de costes que conlleva no caigamos en el todo vale. Es fácil, por ejemplo, prometer una reducción de costes con el uso de IA generativa para crear ciertos productos o servicios; sin embargo, la realidad es que habitualmente, la obtenc...

La rentabilidad de la IA ética - Parte 2: La IA europea

Imagen
La relación entre ética y rentabilidad es un tema controvertido. La búsqueda de las empresas por maximizar sus ganancias suele entrar en conflicto con principios éticos y morales. Este dilema es más agudo en ciertas industrias, como por ejemplo la farmacéutica, donde la presión por la rentabilidad tiende a desatender áreas especialmente sensibles, como por ejemplo la salud de los consumidores, o invertir en negocios más lucrativos en detrimento de otros que podrían tener un mayor impacto social pero menor retorno financiero.  Sin embargo, después de visto  el caso de Amazon  nos inclinamos a pensar que lo ético y lo rentable pueden ir de la mano, y el  Grupo de expertos de alto nivel sobre inteligencia artificial de la Comisión Europea  (AI HLEG) está convencido de que es así. Este grupo fue constituido por la Comisión para que la asesoraran sobre estrategia en lo concerniente a la IA. El primer trabajo que realizaron fue la elaboración de unas  directrices...

La rentabilidad de la IA ética - Parte 1: El caso Amazon

Imagen
Un artículo de The Washington Post de mayo de 2023 advierte que cada vez se crean más contenidos en Internet gracias a los generadores de texto impulsados por IA. Noticias y libros, entre otros, generados con herramientas como ChatGPT o Gemini ya inundaban hace casi un año nuestro entorno digital, y no digital. A pesar de lo que pueda pensarse, todo esto está suponiendo cuantiosas pérdidas para grandes compañías: algunas de ellas han comenzado a tomar medidas. A partir de septiembre del año pasado Amazon comenzó a establecer requisitos para los creadores de Kindle Direct Publishing (KDP), y así intentar contener la inundación de libros generados con IA que estaba sufriendo su tienda, con el consiguiente aumento de la necesidad de espacio (dinero), la dificultad de los lectores para encontrar lo que desean (dinero) y la pérdida de confianza de estos ante la proliferación de obras carentes de originalidad, calidad y veracidad (dinero). El 6 de septiembre la compañía fundada por Jeff Bez...

Privacidad de datos personales y análisis de información

Imagen
No es buena práctica pasar a una IA los datos personales de clientes, alumnos o pacientes, y menos aún si son menores. Sin embargo, este tipo de herramientas pueden ser muy poderosas analizando información sin necesidad de que seamos científicos de datos. Y aquí es donde nos encontramos con una "encrucijada", como le gusta decir a ChatGPT. Las herramientas que podemos encontrar por la web tienen unas políticas de privacidad muy laxas en sus versiones gratuitas, a veces también incluso en las no gratuitas, y aquellas que están impulsadas con IA no son una excepción. Es nuestra responsabilid cuidar de que los datos que tenemos a nuestro cargo estén correctamente custodiados, y más aún cuando no esté muy claro qué hará con ellos el agente con el que los compartimos. Cualquiera pensaría que quizá podría compartirse dicha información con estas herramientas si se recaba el consentimiento de los interesados. Sin embargo, este consentimiento debería contener, entre otras cosas, cuále...