Privacidad de datos personales y análisis de información
No es buena práctica pasar a una IA los datos personales de clientes, alumnos o pacientes, y menos aún si son menores. Sin embargo, este tipo de herramientas pueden ser muy poderosas analizando información sin necesidad de que seamos científicos de datos. Y aquí es donde nos encontramos con una "encrucijada", como le gusta decir a ChatGPT.
Las herramientas que podemos encontrar por la web tienen unas políticas de privacidad muy laxas en sus versiones gratuitas, a veces también incluso en las no gratuitas, y aquellas que están impulsadas con IA no son una excepción. Es nuestra responsabilid cuidar de que los datos que tenemos a nuestro cargo estén correctamente custodiados, y más aún cuando no esté muy claro qué hará con ellos el agente con el que los compartimos.
Cualquiera pensaría que quizá podría compartirse dicha información con estas herramientas si se recaba el consentimiento de los interesados. Sin embargo, este consentimiento debería contener, entre otras cosas, cuáles son los tratamientos de que serían objeto los datos, y como ya hemos mencionado, los detalles de esos tratamientos son desconocidos.
La anonimización y la seudonimización son técnicas para tratar datos personales de forma que se garantice la privacidad de los interesados. La anonimización produce datos que no se relacionan con individuos identificables, por lo que quedan fuera del ámbito del RGPD. Por su parte, la seudonimización genera datos que no pueden atribuirse a una persona sin información adicional, esta información y el proceso por el que se seudonimizan sí quedan bajo el RGPD. Ambas técnicas buscan proteger la privacidad, pero mientras la anonimización elimina la aplicabilidad del RGPD, la seudonimización aún exige cumplir con sus principios y garantías.
Supongamos que tenemos una tienda de electrónica, y que contamos con una hoja de cálculo en la que mantenemos datos de nuestros clientes: sus datos personales, cada una de las compras que ha realizado, las fechas de dichas compras, etc. Damos por hecho que dichos clientes han dado su consentimiento expreso para recabar sus datos y para el tratamiento de los mismos. Supongamos también que queremos ver si existen patrones en las compras que realizan los clientes: si compran más en unos periodos que en otros, si hay clientes cuya tendencia es a hacer cada vez compras mayores, o lo contrario, etc. Para ello decidimos usar una herramienta web impulsada por IA que haga este análisis y pueda detectar estos posibles patrones.
Antes de pasar los datos que tenemos a la herramienta podemos eliminar en ellos toda la información personal (nombres, apellidos, dni, teléfono, email, dirección, edad, profesión, etc) y quedarnos tan sólo con aquellos que permitan a la aplicación web proporcionarnos la información que necesitamos. Esto sería la anonimización que anteriormente mencionamos, y como ya comentábamos queda fuera del ámbito de la RGPD.
Ahora bien, para poder saber qué clientes tienen tendencia a comprar más en nuestra tienda, y cuales tienen la tendencia contraria, necesitamos identificarlos. ¿Cómo podemos identificar a cada cliente sin dar a la herramienta web los datos personales de los mismos? Podemos, por ejemplo, dar a cada uno de estos clientes un número diferente: puede ser el número de orden por que el aparece en nuestra hoja de cálculo. Tendremos dos ficheros: uno con todos los datos personales y el identificador que acabamos de mencionar, y otro sin los datos personales, sólo con el identificador y el resto de datos. El primer fichero quedará bajo nuestra custodia, y el segundo fichero, el que está seudonimizado, es el que podremos compartir con la aplicación web. Ambos estarán en el ámbito de la RGPD.
Para más información se puede consultar el artículo de la AEPD sobre anonimización y seudonimización, así como su página sobre innovación y tecnología.
Tenemos que ser muy celosos de la privacidad de las personas que nos confían sus datos personales. Esto es así en cualquier caso, pero si vamos a compartirlos con herramientas que están impulsadas con IA, es especialmente necesario. La opacidad en el funcionamiento interno de los sistemas de IA ("caja negra"), donde incluso sus creadores no pueden explicar cómo llegan tener ciertas habilidades o respuestas ("funcionalidades emergentes"), es un logro tecnológico, pero también es una importante limitación para controlar y anticipar los resultados de estos sistemas (ver artículo de la BBC).

Comentarios
Publicar un comentario