Echando un vistazo al reverso

Martin Heidegger, en su ensayo La pregunta por la técnica (1954), sostiene que la tecnología no es solo un conjunto de herramientas o máquinas que utilizamos para hacer la vida más fácil, sino una forma de ver y entender el mundo. Todo lo que nos rodea (desde la naturaleza hasta los propios seres humanos) se transforma en un simple recurso disponible, algo que existe solo en la medida en que pueda ser usado, almacenado o explotado. Perdemos, así, la capacidad de percibir las cosas en su riqueza propia, en su ser más allá de su utilidad inmediata. 

La IA, los algoritmos o la vigilancia digital convierten a las personas en mercancía, en datos y en consumidores predecibles: la advertencia de Heidegger va cobrando con el tiempo aún más sentido. ¿Cómo condicionan nuestros propios dispositivos, algoritmos y redes digitales la forma en que pensamos, sentimos y actuamos? ¿Nos servimos de la tecnología o, por el contrario, nos hemos convertido en sus sirvientes?


La tecnología siempre ha modificado nuestras costumbres, nuestras relaciones sociales e incluso la forma de entendernos como seres humanos. Pocas décadas atrás, Alvin Toffler introdujo el concepto de "prosumer" en La tercera ola (1980), una idea que prometía una democratización de la creatividad: el consumidor que no solo adquiere bienes y servicios, sino que también participa activamente en su producción. Sin embargo, en la actualidad, esta visión ha evolucionado en una dirección menos equitativa. Más que un agente creativo empoderado, el usuario se ha convertido en un generador constante de contenido y datos, mientras que unas pocas corporaciones gigantescas capitalizan ese flujo incesante de información. En este modelo, el "prosumer" ya no es solo un participante en el proceso productivo, sino que se ha convertido en el producto mismo.

El auge de estas grandes plataformas digitales también hizo posible lo que la socióloga y filósofa Shoshana Zuboff bautizó como “capitalismo de la vigilancia”. Su obra La era del capitalismo de la vigilancia (2019) describe la dinámica de un sistema en que la mercancía son nuestros datos, nuestros comportamientos y, en última instancia, nuestros deseos. Estas corporaciones no solo venden espacios publicitarios, sino predicciones de lo que haremos, de aquello que compraremos y de la forma en que vamos a relacionarnos. La consecuencia es que se aventuran cada vez más a “fabricar” esas conductas, manipulando el entorno digital para que su versión de la profecía se cumpla. El término “vigilancia” alude a la potencial invasión de nuestra intimidad y a la extracción masiva de información personal, con la paradoja de que, a menudo, somos nosotros mismos quienes la cedemos a cambio de comodidades tecnológicas o pasatiempos instantáneos.

Al mismo tiempo, la atención se ha convertido en un recurso de valor incalculable. Quien primero vislumbró esta lógica fue el Premio Nobel de Economía Herbert A. Simon, al señalar que, en un contexto de abundancia informativa, lo realmente escaso sería nuestra capacidad de enfocarnos en algo: “Una abundancia de información crea una pobreza de atención” (Designing Organizations for an Information-Rich World, 1971). Años después, el profesor Tim Wu popularizó el concepto de “economía de la atención” en obras como The Attention Merchants (2016), subrayando que la competencia feroz por cada minuto de nuestra mirada se traduce en todo tipo de estrategias publicitarias y de diseño de plataformas orientadas a enganchar y retener. Esta lógica alienta una tendencia al espectáculo y la trivialización que ya había sido señalada por Neil Postman en Divertirse hasta morir (1985), donde advertía que los medios (y ahora también las redes) fomentan una cultura de la distracción que socava nuestra capacidad de pensamiento crítico.

Las redes sociales explotan este principio descubierto por Herbert: notificaciones constantes, feeds infinitos y un racimo de recompensas (likes, corazones, retuits) calculadas para que nunca soltemos el teléfono. El resultado es una población cada vez más dispersa, con dificultades crecientes para la concentración y la reflexión. En el caso de los menores, este modelo ha sido vinculado, además, con problemas de salud mental, ansiedad, déficit de atención y una dependencia digital precoz. Aun así, la sociedad parece paradójicamente orgullosa de su ubicuidad online.

Esa obsesión por conquistar cada uno de nuestros segundos se mezcla con fenómenos como las “cámaras de eco” o “filtros burbuja”, descritos por Eli Pariser en The Filter Bubble (2011). La personalización algorítmica conduce a que cada usuario reciba únicamente las noticias y opiniones que encajan con sus creencias previas, lo cual refuerza la polarización y la credulidad hacia contenidos manipulados. Se potencia así el caldo de cultivo para la “posverdad”, "palabra del año" según el Diccionario de Oxford en 2016 y término que, aunque circulaba desde los años noventa, emergió con fuerza en el escenario político contemporáneo. Aunque a menudo se asocia con Ralph Keyes, quien lo exploró en The Post-Truth Era (2004), su uso en un contexto político se remonta a Steve Tesich, quien lo empleó en un ensayo de 1992 en The Nation. En la "posverdad", los hechos pierden relevancia frente a los argumentos emocionales: las redes sociales, sedientas de clicks y reacciones rápidas, se convierten en el vehículo perfecto para difundir bulos o teorías sin respaldo fáctico.

Pero la influencia de los algoritmos no se detiene en la esfera de la información y el consumo. La tecnología digital no solo moldea nuestra percepción del mundo, sino que también permea decisiones vitales con implicaciones profundas. Cathy O’Neil, en Armas de destrucción matemática (2016), advierte de la “algoritmización” de la vida: softwares de puntuación crediticia y plataformas de contratación automatizadas utilizan datos a veces sesgados para tomar resoluciones que afectan a nuestras oportunidades laborales, nuestro acceso a préstamos bancarios e incluso a la sanidad. La supuesta infalibilidad del algoritmo disfraza una mecánica que discrimina minorías o repite patrones históricos de desigualdad, sin que exista una forma clara de cuestionar o auditar el proceso. Si en el ámbito de la información los algoritmos manipulan lo que creemos, en el ámbito social pueden condicionar lo que podemos llegar a ser. Cuando se descubre el fallo, suele ser demasiado tarde.

En ese entorno, cada individuo se ve forzado, además, a gestionar su propia imagen pública con meticulosa autoexposición. Autores como Andrew Keen (The Cult of the Amateur, 2007) o Dan Schawbel (Me 2.0, 2009) han hablado de la cultura del “self-branding”, esa obsesión por la marca personal que conduce a medir el valor de uno mismo a través de seguidores, likes o repercusiones mediáticas. La lógica de las redes sociales convierte la identidad en un activo que debe optimizarse constantemente, reforzando una dinámica en la que el ego no busca tanto la autenticidad como la adaptación a un escaparate global. Para muchos, esta mercantilización del "yo" refuerza el narcisismo y encaja perfectamente en la mentalidad neoliberal, donde incluso la subjetividad se transforma en un producto a vender. Esta "autoexplotación", como la describe el filósofo Byung-Chul Han en La sociedad de la transparencia (2012), conduce a la obsesión por mostrarnos constantemente en redes sociales, lo que genera un contexto de vigilancia voluntaria en el que nosotros mismos suministramos datos e imágenes para exhibir una “marca personal” cada vez más sometida a la lógica mercantil.

La digitalización de la vida pública también ha transformado la manera en que entendemos la participación política y la protesta. Internet prometía democratizar el acceso a la información y dotar de poder a los ciudadanos, pero ha terminado creando nuevos mecanismos de control y simulación del compromiso social. El "ciberactivismo", una forma de movilización que pretende desafiar las estructuras tradicionales del poder a través de la tecnología, tiene una efectividad que no está exenta de dudas. El activismo virtual también enfrenta una trampa: el riesgo de convertirse en "clicktivismo", un fenómeno en el que la acción política se diluye en gestos simbólicos (compartir un post, añadir un marco solidario al perfil) dando la ilusión de participación pero sin que nada quede alterado. Como advertía Micah White en The End of Protest (2016), el "clicktivismo" produce una ilusión de militancia sin costo ni esfuerzo, desactivando la protesta efectiva.

Peor aún, las mismas herramientas que facilitan la movilización también pueden volverse contra los activistas. Plataformas que en un momento sirven para articular resistencias, al siguiente se convierten en redes de vigilancia y manipulación masiva. Gobiernos autoritarios han aprendido a usar las redes sociales no solo para censurar, sino para infiltrar movimientos, desinformar y moldear narrativas a su favor. Como señala Evgeny Morozov en El desengaño de Internet (2011), el mito de la “libertad digital” ignora cómo los estados y las corporaciones pueden utilizar la tecnología para sofocar disidencias en lugar de fortalecer la democracia.

Si el panorama ya resulta complejo, la irrupción fulgurante de la IA no hace más que redoblar las tensiones. No se trata de un fenómeno completamente novedoso, pero su evolución reciente ha amplificado las dinámicas que ya describieron Toffler, Zuboff, O’Neil o Wu. Los algoritmos, alimentados por volúmenes de datos sin precedentes, han perfeccionado su capacidad de persuasión y segmentación, tanto en el comercio como en la política. Por un lado, la IA promete liberar a la humanidad de tareas mecánicas y allanar el camino para avances científicos extraordinarios. Por otro, su aplicación indiscriminada refuerza los mismos esquemas de control y vigilancia que ya caracterizan la era digital. La pregunta clave no es si debemos aceptar la IA, sino quién decide cómo se emplea. ¿Hemos de asumir su uso para vigilar, manipular y profundizar en la desigualdad? ¿O seremos capaces de establecer reglas éticas, marcos legales y una conciencia colectiva que orienten su desarrollo hacia la justicia y el bien común?

Del "futuro" hemos pasado a un "presente continuo" e imprevisible, en el que la adaptación constante (acelerada por lo que en el discurso empresarial se denomina "transformación digital"), se ha convertido en una exigencia ineludible. Toca repensar hasta qué punto estamos dispuestos a sacrificar la privacidad, la libertad de pensamiento o nuestra autonomía en la toma de decisiones. Pero, sobre todo, si seremos lo bastante lúcidos para defenderlas frente a la seducción del placer inmediato y la comodidad que las grandes tecnológicas han aprendido a ofrecernos con precisión quirúrgica.

Cada generación ha tenido que enfrentar su propia revolución tecnológica, y la nuestra no es una excepción. Para algunos, la explosión de la IA abre la puerta a una era de emancipación y conocimiento sin precedentes. Para otros, representa un nuevo rostro del dominio corporativo y estatal, que aprovechará cada fisura en la psique humana para consolidar su poder. No se trata de resignarse a una distopía tecnológica, sino de asumir que ambos caminos coexisten y que la balanza aún puede inclinarse en una u otra dirección. 

Porque, como advirtió Heidegger, la tecnología nunca es neutral: define nuestra forma de estar en el mundo. Nos queda decidir si queremos seguir siendo recurso, simple engranaje de una maquinaria cada vez más eficiente, o si seremos capaces de mirar más allá de su utilidad inmediata y recuperar lo que nos hace verdaderamente humanos.


Comentarios

Entradas populares de este blog

Innovar o proteger

Rebelión en el imperio de la IA