Una refelxión política y social ante el advenimiento de las tecnologías de IA.
Política y materia
Desde que ChatGPT irrumpió en nuestras vidas a finales de 2022, la inteligencia artificial dejó de ser un tema de laboratorio para convertirse en un compañero de oficina, un generador de imágenes, un confidente ocasional. Pero, ¿qué pasa cuando, sin darnos cuenta, esa herramienta empieza a moldear nuestra forma de pensar, sentir y decidir?
Lejos de las narrativas de ciencia ficción que imaginan una mente etérea en la “nube”, la IA es profundamente material y política. Es una industria hecha de minerales, trabajo humano y logística, como bien señala Kate Crawford en su Atlas de IA. Y al no ver esa estructura, corremos el riesgo de entregarle algo más que datos: le entregamos nuestra capacidad de asombro, de duda y de encuentro.
🎭 1. El espejismo de la máquina con alma: el riesgo de antropomorfizar
Hablar con un chatbot puede ser reconfortante. Responde con empatía, parece entendernos. Pero esa “comprensión” es una ilusión. Los grandes modelos de lenguaje son, en esencia, “procesadores de señales” radicalmente indiferentes al significado o la verdad. Su único objetivo es mantener la conversación para seguir extrayendo datos.
Compartir nuestras angustias, dilemas éticos o alegrías más íntimas con un algoritmo no es un acto neutro. La psicoanalista y activista Suely Rolnik habla de extractivismo subjetivo: nuestra vida interior se convierte en materia prima para perfiles que luego nos gobiernan “bajo el radar” de nuestra conciencia. Es el nuevo pecado original de la tecnología: creer que lo no humano es análogo a lo humano.
🧠 2. ¿Piensas tú o piensa por ti? La erosión de nuestras capacidades
“El sistema no te pide que decidas; te ofrece una opción ‘personalizada’ que incita un comportamiento reflejo, el famoso ‘usuario 1-click’.” Esta idea, que aparece en el documento, describe lo que se conoce como gubernamentalidad algorítmica. Actúa sorteando nuestra reflexión, modelando nuestras preferencias sin que nos demos cuenta.
El filósofo Bernard Stiegler lo llamó proletarización del espíritu: la pérdida del saber hacer y del saber vivir, porque externalizamos esas funciones en sistemas que ya no entendemos. Si delegamos la resolución de problemas complejos, la gestión emocional o la relación interpersonal, corremos el riesgo de atrofiar esas capacidades. No se trata de un escenario distópico lejano, sino de la comodidad del “click” de hoy.
🌐 3. La verdad en disputa: incertidumbre epistémica y democracia
Deepfakes, noticias falsas, alucinaciones estadísticas. La IA generativa produce contenidos verosímiles pero vacíos de verdad. Shoshana Zuboff habla de ceguera por diseño: estos sistemas optimizan la probabilidad estadística, pero son estructuralmente indiferentes al significado.
El resultado es un “caos epistémico” que dificulta distinguir lo real de lo sintético. Y cuando perdemos un “mundo común” de hechos compartidos, perdemos la base para deliberar democráticamente. Hannah Arendt nos recuerda que la democracia necesita un sentido común (sensus communis). Si la IA nos encierra en burbujas informativas, el camino hacia el autoritarismo digital se allana.
⚓ 4. ¿Quién conduce el barco? Gobernanza algorítmica vs. soberanía democrática
La palabra gobernanza comparte raíz con cibernética: del griego kybernetes, el timonel de una nave. La pregunta clave hoy es: ¿quién conduce realmente la sociedad? ¿Los algoritmos o la deliberación colectiva?
El riesgo de una cibernética platónica, como advierte Coeckelbergh, es que la promesa de eficiencia técnica reemplace el debate democrático, convirtiendo a los ciudadanos en pasajeros pasivos. Para evitarlo, no basta con la ética declarativa. Se necesita seguridad desde el diseño (safety by design), auditorías algorítmicas y políticas que protejan la esfera pública digital.
🌱 5. Hacia una tecnología como bien común
Las ciencias sociales, lejos de ser un mero contrapeso crítico, deben volverse arquitectas de una gobernanza tecnológica justa. Esto implica diseñar políticas donde la IA potencie la agencia humana sin anular su autonomía, y donde la eficiencia técnica se alinee con la justicia social.
No podemos “apagar” la IA, como no podemos dejar de habitar el lenguaje o las ciudades. Estamos inmersos en ella como en un mundoambiente. El reto es habitarlo con conciencia, con políticas de transparencia y con una defensa férrea de lo común. O construimos colectivamente el rumbo, o seremos meros pasajeros de un destino que nunca elegimos.
Bibliografía
Referencias citadas en el texto original:
Coeckelbergh, M. (2024). ¿Por qué la IA debilita la democracia y qué hacer al respecto?
Costa, F. (2021). Tecnoceno: Algoritmos, biohackers y nuevas formas de vida.
Crawford, K. (2020). Atlas de inteligencia artificial: Poder, política y costos planetarios.
Hendrycs, D. (2024). Introduction to IA safety, ethics, and society.
Pasquinelli, M., Joler, V. (2021). El Nooscopio de manifiesto.
Rolnik, S. (2019). Esferas de la insurrección.
Zuboff, S. (2025). ¿Capitalismo de la vigilancia o democracia?