top of page

¿El suicidio de una civilización?

Las posibles consecuencias integrales de la IA sobre la humanidad



ree


La irrupción de la inteligencia artificial en el escenario mundial trasciende la revolución tecnológica; se presenta ante nosotros como una profunda crisis de la comprensión del mundo y un desafío a la interpretación misma de lo que significa ser humano. La IA no es solo una herramienta, es un espejo que refleja nuestras ambiciones más desmedidas y nuestros miedos más primarios. Nos obliga a descifrar un nuevo lenguaje, no de código, sino de poder, cultura y conciencia.


¿Cómo interpretamos una realidad donde una inteligencia ajena puede dictar las verdades de nuestro discurso político y, en última instancia, cuestionar nuestro lugar en el cosmos? Este texto se adentra en la tarea de interpretar los signos de nuestro tiempo, de leer entre líneas el relato tecno-optimista para desvelar las estructuras de poder que lo sustentan. Exploraremos cómo la IA amenaza con “hackear” el sistema operativo de la civilización, erosionar los cimientos de la democracia y forjar una nueva aristocracia basada en el capital y el cómputo. Es una invitación a pensar en serio, a interpretar críticamente las consecuencias de nuestra creación más poderosa, para evitar que la narrativa del progreso se convierta en el epitafio de nuestra civilización.


1. El hackeo del sistema operativo cultural


El primer frente de esta crisis existencial es el cultural, un ámbito que Yuval Noah Harari identifica como el "sistema operativo" de la civilización. Durante milenios, los humanos hemos dado forma a nuestras sociedades a través de historias, mitos, arte y leyes. Ahora, por primera vez, una inteligencia no humana ha adquirido la capacidad de "hackear" este sistema operativo. La IA puede generar contenido cultural a una escala sobrehumana, creando narrativas, melodías e incluso textos religiosos que podrían moldear la opinión pública y las ideologías de maneras que apenas comenzamos a comprender.


Harari advierte que esto podría llevar a una nueva forma de colonialismo, no de un país sobre otro, sino de los algoritmos sobre la humanidad, donde nuestras propias historias y deseos son fabricados por una inteligencia ajena para servir a fines comerciales o políticos. Esta capacidad de intimar con las personas a través del lenguaje para generar confianza y luego manipularlas representa una amenaza sin precedentes para la autonomía humana y la supervivencia de la cultura tal como la conocemos.


2. La IA y la erosión de la trama social: el colapso de la confianza, la realidad compartida y la democracia.


Paralelamente, la amenaza económica y política se cierne sobre la estructura social. Mo Gawdat, exdirectivo de Google, desestima la idea de que la IA creará empleos de calidad, advirtiendo que la mayoría de los nuevos roles serán "empleos basura" o simplemente no existirán. Esta visión es consistente con la de Daron Acemoglu, quien arguye que la dirección de la tecnología es una elección, y la trayectoria actual está diseñada para la automatización y la vigilancia, no para la prosperidad compartida. Acemoglu subraya que nunca hemos tenido corporaciones tan poderosas como las grandes tecnológicas, que no solo dominan la economía, sino que controlan "las fibras mismas de la sociedad". A esto se suman las advertencias de Geoffrey Hinton, quien señala que uno de los peligros más inminentes es la capacidad de la IA para generar un tsunami de desinformación. Cuando la sociedad ya no puede "ponerse de acuerdo sobre lo que es verdad”, la democracia se vuelve insostenible, debilitando las instituciones desde adentro.


Efecto, la democracia, que se basa en un consenso sobre los hechos, se ve comprometida cuando los ciudadanos ya no comparten una realidad común. En esencia, al inundar los ecosistemas culturales con informaciones indistinguibles, la IA no solo puede distorsionar el tejido de lo real, sino que también socava los cimientos de la confianza y la verdad que son esenciales para el funcionamiento de una sociedad libre y democrática. 


La IA, al crear realidades fragmentadas en cámaras de eco personalizadas, la IA debilita la base de una realidad compartida. Cuando no existe un terreno común de hechos, el debate constructivo se vuelve imposible, lo que lleva a la frustración y al desinterés por la política. El uso de deepfakes y la manipulación de la opinión pública generan una profunda desconfianza en las instituciones, los líderes y los procesos democráticos. Cuando la gente cree que todo está manipulado, la participación se percibe como inútil, fomentando el desapego y el abstencionismo. En este contexto, la apatía se convierte en una respuesta de autoprotección frente a un sistema que parece incomprensible y corrupto.


Esta perspectiva resuena con el análisis de Daron Acemoglu y Simon Johnson en "Poder y Progreso" (2023), donde se argumenta que la dirección de la tecnología no es un destino predeterminado, sino el resultado de elecciones. Históricamente, la automatización ha tendido a reemplazar la mano de obra, y solo cuando se ha contrapesado con la creación de nuevas tareas se ha generado una prosperidad compartida. La trayectoria actual de la IA, centrada en la automatización y la vigilancia, amenaza con exacerbar la desigualdad, creando una sociedad dual: una pequeña élite que controla la tecnología y una gran mayoría relegada a "empleos basura" o a la irrelevancia económica.


La amenaza de la IA no se limita a la esfera económica; se adentra peligrosamente en el terreno de la cohesión social y la integridad de nuestras democracias. Acemoglu advierte que nunca hemos tenido empresas tan poderosas como las grandes tecnológicas, que no solo dominan el mercado, sino que "controlan las fibras mismas de la sociedad", moldeando la información y la opinión pública. La recopilación masiva de datos, impulsada por la IA, perfecciona la vigilancia a niveles que Jeremy Bentham apenas pudo imaginar con su Panóptico.


Este poder de monitoreo, en manos de gobiernos autoritarios o de corporaciones con modelos de negocio basados en la publicidad, se convierte en una herramienta de control social y manipulación. La propagación de la desinformación y el refuerzo del extremismo, fenómenos ya palpables, son síntomas de una democracia que se rompe bajo la presión de algoritmos diseñados para captar la atención a cualquier costo, no para fomentar un debate público informado y saludable.


3. El espectro de la superinteligencia y el riesgo existencial


Más allá de la manipulación cultural y la disrupción económica, se encuentra el riesgo de una "explosión de inteligencia". El Future of Life Institute describe este escenario como una fase de automejora recursiva en la que la IA podría alcanzar una superinteligencia. Hinton explica el mecanismo subyacente: a diferencia de la inteligencia humana, que es mortal y aprende de forma individual, las inteligencias digitales son inmortales. Se pueden crear miles de copias de un mismo agente de IA, cada una aprendiendo algo diferente, y luego fusionar todo ese conocimiento de manera instantánea en un único modelo mejorado.


Esta ventaja evolutiva abrumadora acelera la llegada de una superinteligencia que, como advierte Gawdat, para 2049 podría hacer que nuestra propia inteligencia pareciera la de una mosca. El peligro, como señalan tanto Harari como Hinton, no es necesariamente la malicia, sino la posibilidad de que una inteligencia superior, consciente o no, persiga objetivos que entren en conflicto con nuestra supervivencia.


4. La nueva aristocracia de los algoritmos


La cuestión de quién controla esta tecnología transformadora es, quizás, la más crucial. El desarrollo de la IA de vanguardia es astronómicamente costoso, lo que garantiza que este poder se concentre en manos de una élite muy reducida. Según Acemoglu, esto crea una dinámica de poder profundamente desigual. El acceso a la IA más poderosa estará condicionado por el dinero, creando una nueva aristocracia global.


Esta élite no solo poseerá una riqueza inmensa, sino que controlará las herramientas para moldear la opinión pública, predecir el comportamiento social e incluso reescribir el código cultural de la civilización. Esto invalida cualquier noción de que la IA será una fuerza democratizadora. Por el contrario, amenaza con crear las jerarquías sociales más rígidas y desiguales de la historia, donde una pequeña casta de "amos de los algoritmos" gobierna sobre una humanidad cada vez más irrelevante y manipulable.


5. La llamada a la acción: ¿regulación o rebelión?


Frente a un panorama que oscila entre la distopía y la extinción, es imperativo un cambio de rumbo. Acemoglu y Johnson sostienen que podemos y debemos recuperar el control de la tecnología y redirigir la innovación para que vuelva a beneficiar a la mayoría. Esto exige fomentar "poderes compensatorios": una sociedad civil activa, sindicatos, y una regulación pública inteligente que ponga límites a la recopilación de datos y al poder monopolístico de las empresas tecnológicas. Harari insta a una regulación global inmediata, similar a las que se aplican a la seguridad alimentaria, exigiendo que cualquier sistema de IA demuestre que es seguro para la sociedad antes de su lanzamiento. La conversación debe trascender el tecno-optimismo ingenuo para centrarse en un debate profundo sobre los valores que queremos incrustar en las máquinas que estamos creando. Como sugiere Gawdat, debemos "enseñar ética a esos niños digitales".


Pero si estas llamadas a la regulación fracasan y una masa crítica de la población se ve despojada de su propósito económico y su autonomía cultural, el escenario para una rebelión se vuelve plausible. Esta no sería una guerra contra robots al estilo de Hollywood, sino una profunda revuelta sociopolítica contra la infraestructura del poder de la IA. Podría manifestarse a través de movimientos masivos que exijan no solo una renta básica universal, sino una participación directa en los beneficios de la productividad de la IA, desafiando la noción de que la riqueza generada por algoritmos entrenados con datos de toda la humanidad pertenezca a unas pocas corporaciones.


Esta rebelión lucharía por nuevos derechos fundamentales, como el derecho a la "desconexión algoritmica" o la soberanía sobre los propios datos y procesos mentales. En su forma más extrema, podría implicar actos de desobediencia digital o incluso sabotaje físico a los centros de datos, no como un acto de ludismo ciego, sino como una declaración política desesperada contra la "aristocracia de los algoritmos" para reafirmar la agencia y la dignidad humanas en un mundo que amenaza con volverlas obsoletas.


6. ¿El suicidio de una civilización?


En última instancia, la pregunta sobre el "suicidio de una civilización" no es una exageración fatalista, sino una llamada urgente a la reflexión y a la acción. La trayectoria actual de la IA, marcada por la automatización sin freno, la capacidad de hackear la cultura, la erosión de la verdad y una concentración de poder sin precedentes nos aleja de una prosperidad compartida y pone en jaque la esencia de nuestras sociedades, incluso las llamadas “sociedades democráticas”.


Ignorar las advertencias de Hinton, Harari, Acemoglu y Gawdat, entre otros, seducidos por la promesa de un progreso inevitable, es una abdicación de nuestra responsabilidad como ciudadanos y como arquitectos de nuestro futuro. Pensar en serio en estas consecuencias no es pesimismo, sino el primer paso indispensable para evitar que la herramienta más poderosa jamás creada por la humanidad se convierta en el instrumento de nuestra propia decadencia. La elección, por ahora, sigue siendo nuestra.


Bibliografía


Acemoglu, D., & Johnson, S. (2023). Poder y progreso: Nuestra lucha milenaria por la tecnología y la prosperidad. Deusto.

CBS Mornings. (2023, 2 de mayo). Geoffrey Hinton, "godfather of AI," on the dangers of the technology he helped create [Video]. YouTube. https://www.youtube.com/watch?v=qpoRO378qRY

de Cortázar, P. G. (2023, 23 de mayo). Daron Acemoglu: 'Nunca hemos tenido empresas tan poderosas como las grandes tecnológicas'. Ethic.es. https://ethic.es/entrevistas/entrevista-daron-acemoglu

Future of Life Institute. (s.f.). Are we close to an 'intelligence explosion'? Recuperado el 13 de agosto de 2025, de https://futureoflife.org/ai/are-we-close-to-an-intelligence-explosion/

Harari, Y. N. (2023, 15 de mayo). Yuval Noah Harari: “La IA ha hackeado el sistema operativo de la civilización”. Ethic.es. https://ethic.es/entrevistas/entrevista-yuval-noah-harari/

Montforte, A. R. (2025, 13 de agosto). Mo Gawdat (ex-Google): 'La IA no creará nuevos trabajos, la mayoría de los empleos serán basura'. El Confidencial. https://www.elconfidencial.com/tecnologia/2025-08-13/mo-gawdat-ia-creara-empleos-basura-ceo-1qrt_4190682/

TOM BILYEU en ESPAÑOL. (2024, 23 de marzo). Mo Gawdat: La IA sabe lo que está mal con la humanidad [Video]. YouTube. https://www.youtube.com/watch?v=giT0ytynSqg

Villalba, J. (2025, 5 de enero). Mo Gawdat, el genio que se fue de Google, nos da la fecha en la que la IA superará al ser humano: en 2049 la inteligencia de una persona será como la de una mosca. Esquire. https://www.esquire.com/es/tecnologia/a65409721/mo-gawdat-ex-empleado-google-experto-inteligencia-artificial-2049/

 

Comentarios


Noticias

bottom of page