IA: PODER, DEMOCRACIA Y DESIGUALDAD EN EL CAMBIO DE ERA

La IA no es una herramienta técnica más: representa una transformación estructural en las relaciones de poder, el ejercicio de la soberanía y el funcionamiento de las democracias contemporáneas. Como ha señalado Yuval Noah Harari, ‘la IA está redistribuyendo el poder como lo hizo la imprenta, pero a un ritmo incomparablemente más rápido’. Este ensayo analiza los cuatro ejes fundamentales del impacto político de la IA en 2025: el futuro del trabajo y la desigualdad, la democracia y el discurso público, el poder del Estado y la vigilancia, y la geopolítica de los algoritmos. [Harari, 2018]

La inteligencia artificial no solo automatiza procesos: redefine quién tiene el poder de decidir, vigilar, producir conocimiento y distribuir riqueza. Su impacto ya no es hipotético ni exclusivamente técnico. En un contexto de polarización, crisis del trabajo tradicional y debilitamiento institucional, la IA se ha convertido en un campo de batalla para el futuro político de las sociedades.

I. IA, trabajo y desigualdad: ¿progreso o fractura?

El impacto de la IA sobre el empleo no afecta solo a trabajos manuales. Profesiones como traducción, diseño gráfico, educación o análisis legal ya están siendo transformadas radicalmente. La OCDE advierte que más del 30% de los empleos podrían automatizarse antes de 2030. Daron Acemoglu, en *Power and Progress* (2023), señala: “La tecnología no garantiza prosperidad. Depende de quién la controle y con qué incentivos”.  [OCDE, 2024]

El argumento favorable sostiene que la IA liberará a los trabajadores de tareas repetitivas, permitiendo una economía basada en la creatividad. Sin embargo, sin políticas redistributivas, este modelo agudiza la desigualdad. Las ganancias de productividad están concentradas en manos de grandes tecnológicas, mientras millones de trabajadores carecen de redes de protección adecuadas. La propuesta de una renta básica universal resurge como posible solución, pero enfrenta objeciones sobre financiación y efectos desincentivadores.

Mi enfoque defiende que el problema no es la IA en sí, sino su despliegue sin justicia fiscal ni control democrático. La IA puede ser emancipadora solo si las ganancias tecnológicas se reparten equitativamente. Como plantea Lucas Chancel en *Unsustainable Inequalities*, ‘la transición digital no será aceptada si no es también una transición justa’. [Chancel, 2020]

II. IA y democracia: desinformación, discurso y poder simbólico

El uso de IA generativa para manipular información, crear deepfakes y microdirigir mensajes ha transformado las campañas políticas. Shoshana Zuboff, en *The Age of Surveillance Capitalism*, advierte: “Estamos ante una mutación del poder que opera en la sombra del consentimiento”.  [Zuboff, 2019]

Quienes defienden el uso de IA en comunicación argumentan que personaliza el mensaje político y mejora la eficiencia. Pero la fragmentación del discurso público debilita el espacio deliberativo común. Candidatos pueden adaptar su discurso a cada segmento del electorado sin contradicción aparente, lo que mina la rendición de cuentas.

Plataformas como TikTok y X (antes Twitter) están diseñadas para maximizar el engagement emocional. Según el European Digital Media Observatory (2024), las noticias falsas con IA se comparten 70% más que las reales. En este contexto, el problema ya no es la censura, sino la intoxicación informativa. El reto no es proteger a la IA del Estado, sino proteger a la democracia del caos algorítmico. [EDMO, 2024]

III. IA, vigilancia y soberanía estatal

La IA está reconfigurando las capacidades de vigilancia y gestión del Estado. Desde el reconocimiento facial hasta el análisis predictivo de comportamientos, los gobiernos acceden a niveles inéditos de control. En China, el ‘sistema de crédito social’ usa IA para evaluar la fiabilidad del ciudadano. En Francia, la policía ya ha experimentado con algoritmos predictivos. Según Human Rights Watch, ‘el riesgo es la normalización de un estado de excepción digital’.  [HRW, 2024]

Los defensores argumentan que estas herramientas permiten mayor eficacia en la seguridad y la gestión de servicios. Sin embargo, sin transparencia, supervisión judicial y participación pública, estos sistemas erosionan el Estado de Derecho.

Paloma Llaneza, en *Datanomics*, sostiene que ‘la tecnología no es neutral: es ideología encapsulada en software’. El uso de IA sin garantías puede generar una biopolítica automatizada donde los derechos se gestionan algorítmicamente. Mi posición es clara: ningún Estado debe tener más poder que el control democrático que los ciudadanos pueden ejercer sobre él, y eso incluye los sistemas inteligentes. [Llaneza, 2020]

IV. IA y geopolítica: competición sin reglas

La IA es ya un vector de poder internacional. EE.UU. y China compiten por el liderazgo en chips, modelos fundacionales y gobernanza digital. Europa, India y Rusia intentan posicionarse con regulaciones o soberanía tecnológica. Según el Instituto Elcano, ‘la carrera por la IA es la carrera por el poder del siglo XXI’.  [Real Instituto Elcano, 2025]

Los defensores de un mundo multipolar argumentan que la competencia tecnológica evitará hegemonías abusivas. Pero la ausencia de marcos internacionales sólidos multiplica el riesgo de espionaje, ciberataques y conflictos normativos.

El Foro de Davos ha propuesto pactos de interoperabilidad ética entre países, pero no tienen carácter vinculante. El peligro real es un mundo donde los algoritmos se conviertan en armas de influencia geopolítica. Como advierte Harari: ‘Si no se regulan, los algoritmos conocerán mejor a los ciudadanos que sus propios gobiernos’. Mi enfoque defiende una gobernanza algorítmica multilateral, con estándares comunes y participación de países del Sur Global, para evitar una colonización digital encubierta.[Harari, 2018]

En Civis Data pensamos que La inteligencia artificial no es un fenómeno neutral ni inevitable. Es un campo de disputa política que exige regulación democrática, justicia redistributiva y control ciudadano. De lo contrario, el riesgo es doble: profundizar las desigualdades existentes y consolidar un modelo de poder opaco y no electo. El reto no es solo técnico, sino profundamente político: decidir si queremos una sociedad dirigida por códigos o gobernada por principios. Como afirmó Étienne Balibar, “la política empieza cuando se discute quién tiene derecho a decidir”. Esa discusión, en tiempos de inteligencia artificial, es más urgente que nunca.

 

Yuval Noah Harari, *21 lecciones para el siglo XXI*, Debate, 2018. → “En una era de algoritmos, la libertad dependerá de nuestra capacidad para comprender cómo se programan los sistemas que deciden por nosotros.” [Harari, 2018]

Shoshana Zuboff, *The Age of Surveillance Capitalism*, PublicAffairs, 2019. → “La lógica del capitalismo de vigilancia es incompatible con una democracia basada en la deliberación.” [Zuboff, 2019]

Paloma Llaneza, *Datanomics*, Deusto, 2020. → “El poder digital no necesita represión: le basta con ofrecernos comodidad personalizada.” [Llaneza, 2020]

Daron Acemoglu y Simon Johnson, *Power and Progress*, Basic Books, 2023. → “Toda tecnología puede fortalecer el autoritarismo si no se inserta en un marco institucional democrático.” [Acemoglu & Johnson, 2023]

Fundación Cotec – Informes sobre IA y desigualdad en España (2023–2024).

European AI Act (2024), Parlamento Europeo. – Régimen normativo sobre IA de alto riesgo, gobernanza y derechos fundamentales.

Future of Life Institute – Declaraciones firmadas por Elon Musk, Geoffrey Hinton y Yuval Harari sobre el riesgo de IA descontrolada. [Harari, 2018]

Real Instituto Elcano – Dossieres sobre soberanía digital, gobernanza tecnológica y diplomacia algorítmica (2023–2025). [Real Instituto Elcano, 2025]

Instituto Español de Estudios Estratégicos (IEEE) – Evaluaciones sobre IA en defensa, seguridad y geopolítica digital.

Compartir

Más Noticias

Contáctanos

Responsable: ARTE JURÍDICO DERECHO Y TECNOLOGÍA, S.L. CIF: B02798007. Dirección Paseo Ramón Gaya, 4, bajo. 30009 Murcia.

¿Qué datos tratamos? Serán, según el caso, los siguientes: 1.- Sus datos identificativos (nombre, apellido, email, teléfono, etc.) 2.- Datos de conexión y navegación (ip, navegador,…).

Finalidad: Mantenimiento y gestión de la relación con el usuario (por ejemplo, atender sus consultas), fines comerciales y de mejora de la experiencia en línea del cliente (análisis web).

Legitimación: Consentimiento del usuario.

Destinatarios: No se prevé la cesión de datos a terceros sin consentimiento del usuario.

Ejercicio de derechos: Acceder, rectificar y suprimir los datos así como otros derechos, como se explica en la información adicional, ante contacto@civisdata.es