La rentabilidad de la IA ética - Parte 1: El caso Amazon

Un artículo de The Washington Post de mayo de 2023 advierte que cada vez se crean más contenidos en Internet gracias a los generadores de texto impulsados por IA. Noticias y libros, entre otros, generados con herramientas como ChatGPT o Gemini ya inundaban hace casi un año nuestro entorno digital, y no digital. A pesar de lo que pueda pensarse, todo esto está suponiendo cuantiosas pérdidas para grandes compañías: algunas de ellas han comenzado a tomar medidas.


A partir de septiembre del año pasado Amazon comenzó a establecer requisitos para los creadores de Kindle Direct Publishing (KDP), y así intentar contener la inundación de libros generados con IA que estaba sufriendo su tienda, con el consiguiente aumento de la necesidad de espacio (dinero), la dificultad de los lectores para encontrar lo que desean (dinero) y la pérdida de confianza de estos ante la proliferación de obras carentes de originalidad, calidad y veracidad (dinero).

El 6 de septiembre la compañía fundada por Jeff Bezos hacía público un comunicado  que decía: "... cuando publiques un nuevo título o hagas ediciones y vuelvas a publicar un título existente a través de KDP, se te preguntará si tu contenido es generado por IA."

Doce días después la compañía publica otro comunicado: "...con el fin de ayudar a proteger contra el abuso, estamos reduciendo los límites de volumen que tenemos en lugar para la creación de nuevos títulos."

El límite al que se refiere el comunicado es de tres libros diarios por autor. Desconocemos cual era el número máximo de libros que un autor podía subir a KDP antes de la limitación, pero no creo que Góngora y Quevedo juntos hubieran puesto objeciones a la misma.

En este punto tenemos que aclarar lo que Amazon entiende por "contenido generado por IA", al que se refiere en el primer comunicado que hemos citado:

"Es cuando se utiliza una herramienta basada en IA para crear el contenido (ya sea texto, imágenes o traducciones). En este caso se considera "generado por IA", aunque posteriormente realice modificaciones en él."

Frente a este tipo de contenido la compañía distingue el "contenido asistido por IA":

"Es cuando crea el contenido usted mismo, pero usa herramientas basadas en IA para editar, pulir, corregir errores o mejorar de otro modo ese contenido (ya sea texto o imágenes). En este caso no se considera contenido 'generado por IA', sino 'asistido por IA'. Del mismo modo, si ha utilizado una herramienta basada en IA para generar ideas, pero finalmente ha creado usted mismo el texto o las imágenes, esto también se consideraría 'contenido asistido por IA' en lugar de 'generado por IA'"

Amazon pide a los autores informar cuando un producto ha sido "generado por IA": a esto se le denomina transparencia. Este principio fue puesto de relieve por la UNESCO en su Recomendación sobre la ética de la inteligencia artificial. Joe Biden, presidente de Estados Unidos, firmó una orden ejecutiva en la que se puso de manifiesto que la transparencia en los sistemas de IA es esencial para la sociedad. La Unión Europea (UE) a través de diferentes iniciativas, como son La Lista de Evaluación para la Inteligencia Artificial Fiablela ley de IA , hace hincapié en ese fundamento al hablar de los requisitos para la IAG. Incluso las empresas que han creado los modelos generativos de IA con mayor uso, como Microsoft o Google, cumplen este requisito, a pesar de no haber leyes que les obliguen, cuando hacen que sus IAG respondan afirmativamente a la pregunta "¿eres una IA?".

No se trata de que Amazon, Microsoft o Google se hayan convertido en adalides de la eticidad y la legalidad de la IAG, la verdad es que estas compañías nunca se caracterizaron por ser muy éticas, se trata de que la falta de ética puede ir en detrimento de sus ganancias. Amazon está sufriendo esto en sus carnes, y ahora quiere poner medios para intentar controlarlo.

Comentarios

Entradas populares de este blog

Echando un vistazo al reverso

Innovar o proteger

Rebelión en el imperio de la IA