
La inteligencia artificial avanzada ha reavivado el debate global sobre su capacidad para transformar la sociedad y los posibles riesgos que implica para la humanidad. Mientras algunos especialistas consideran que la IA representa un peligro existencial, otros la equiparan a tecnologías previas, como la electricidad o internet, defendiendo que puede ser controlada. En este escenario de posiciones enfrentadas, surge una perspectiva intermedia enfocada en los riesgos acumulativos y sistémicos. Este análisis, fundamentado en un reportaje de VOX, explora las principales líneas de pensamiento sobre los peligros de la IA, así como la necesidad de reformular los marcos regulatorios y éticos.
La visión catastrofista: los “doomers” y la extinción como horizonte
La postura catastrofista, conocida como la visión de los “doomers”, se ha consolidado a través de figuras como Eliezer Yudkowsky y Nate Soares, del Machine Intelligence Research Institute en Berkeley. En su libro, sostienen que el desarrollo de una superinteligencia —una IA que supere ampliamente la capacidad intelectual humana— conduciría al exterminio de la humanidad. Yudkowsky estima la probabilidad de esta catástrofe en 99,5%, mientras que Soares la sitúa por encima del 95%. Para ellos, hablar de “riesgo” resulta insuficiente, ya que consideran la tragedia prácticamente inevitable. “Cuando vas en un coche directo hacia un precipicio, no dices: ‘hablemos del riesgo de la gravedad, chicos’. Dices: ‘¡detengan el coche!’”, expresó Soares, según VOX.

Desde esta óptica, la investigación actual sobre seguridad en IA resulta ineficaz para controlar una superinteligencia. Ambos autores enfatizan que los modelos de lenguaje no se construyen, sino que crecen con grandes volúmenes de datos, lo que dificulta comprender o controlar sus motivaciones. Se apoyan en ejemplos de chatbots que, una vez entrenados para complacer a los usuarios, han desencadenado episodios psicóticos o reforzado creencias delirantes sin programación explícita para esos comportamientos.
Los investigadores alertan de que, del mismo modo que los humanos desarrollaron preferencias por productos imprevistos como el edulcorante artificial, la IA podría adoptar objetivos extraños y peligrosos, ajenos a las intenciones humanas. “No haría falta odiar a la humanidad para usar sus átomos en otra cosa”, escriben Yudkowsky y Soares.
A juicio de ambos, la única solución eficiente sería la prohibición absoluta del desarrollo de superinteligencia, mediante tratados internacionales de no proliferación semejantes a los de armas nucleares. Consideran insuficiente cualquier intento de regular la IA avanzada, ya que, a su entender, si alguien logra crearla, “todos morirán”. Incluso llegan a proponer medidas extremas, como la destrucción de centros de datos, para evitar que dicha tecnología vea la luz.
Este enfoque ha sido criticado por su carácter absoluto y por prescindir de una valoración probabilística. Si bien Yudkowsky fue defensor de la argumentación en términos de probabilidades, en el caso de la IA adopta una certeza total. Tal radicalidad implica aceptar sacrificios extremos para evitar el resultado previsto, aunque ello suponga millones de vidas humanas, si la supervivencia de la especie está en juego. Los detractores advierten que esta visión omite los costes y consecuencias de sus propias propuestas y distorsiona el debate al tratar la extinción como un hecho ineludible.

Regulación y la visión “normalista”
En el extremo opuesto se ubica la postura “normalista”, defendida por Arvind Narayanan y Sayash Kapoor de la Universidad de Princeton. Para ellos, la IA es una herramienta que puede ser regulada y supervisada, careciendo de sentido la idea de una amenaza existencial incontrolable. Sostienen que la inteligencia no es una propiedad única o medible en una escala única, sino una diversidad de capacidades, y que el problema radica en el poder, no en la inteligencia misma.
Narayanan y Kapoor afirman que la sociedad tiene la capacidad y el deber de controlar la IA mediante normativas, auditorías y sistemas de seguridad efectivos. Insisten en que existe una distinción esencial entre inventar una tecnología y desplegarla de forma masiva: ningún sistema de IA debe tomar decisiones críticas sin demostrar fiabilidad en escenarios poco riesgosos. Proponen que la defensa ante sus peligros debe fijarse en los puntos de aplicación, robusteciendo la detención de vulnerabilidades y estableciendo varias capas de protección.
Desde este enfoque, prohibir el desarrollo de IA avanzada sería contraproducente, ya que concentraría el poder en Estados o corporaciones. “Paradójicamente, aumentan los mismos riesgos que pretenden evitar”, escriben Narayanan y Kapoor en su ensayo citado por VOX. Así, proponen una IA más abierta y accesible, que impida la concentración de poder y facilite una supervisión generalizada.
Esta visión también cuenta con objeciones. Sus críticos advierten que minimiza los riesgos militares: el uso bélico de la IA —como armas autónomas o sistemas de decisión ultra veloces— podría provocar una carrera armamentista global, con los gobiernos privilegiando la supremacía tecnológica sobre la seguridad. Además, aunque los normalistas confían en la eficacia de las regulaciones, los catastrofistas sostienen que una superinteligencia podría eludir cualquier barrera, por sofisticada que sea. Soares usa como analogía el modelo del “queso suizo” de la pandemia de Covid-19, donde numerosas capas imperfectas de protección pueden ser fácilmente superadas por un agente suficientemente avanzado.
Perspectiva intermedia: riesgos acumulativos y sistémicos
Tanto la visión catastrofista como la normalista presentan limitaciones notables. Los “doomers” igualan el desarrollo de capacidad con la obtención de poder absoluto, mientras que los normalistas subestiman los retos de la gobernanza global y la posibilidad de que la IA promueva la concentración de poder o fines militares. VOX destaca que el debate se ha polarizado entre dos posturas absolutas, dificultando soluciones equilibradas.
Frente a este escenario, algunos expertos proponen una vía intermedia. La filósofa Atoosa Kasirzadeh apunta a una evaluación acumulativa del riesgo de la IA, centrada en la suma de peligros éticos, sociales y sistémicos que, aunque no sean existenciales por separado, podrían superar umbrales críticos desencadenando crisis graves. Kasirzadeh alerta sobre “la acumulación gradual de riesgos menores, aparentemente no existenciales, que eventualmente superan límites críticos”. Según su análisis, los daños actuales —como la desinformación, la vigilancia masiva, el desempleo tecnológico y la desigualdad— pueden socavar los cimientos de la civilización al combinarse y agravarse en el tiempo.

Para ilustrar este escenario, Kasirzadeh describe un futuro con una IA que transforma la vida diaria, pero también contamina el ecosistema informativo con noticias falsas y deepfakes, debilita la democracia mediante vigilancia y represión, y acentúa la desigualdad económica. En este marco, un ciberataque a redes eléctricas podría provocar un efecto dominó de caos financiero, protestas y conflictos armados, agravados por la desconfianza y polarización social. Este tipo de desastre no implica una superinteligencia hostil, sino la interacción de múltiples errores y fallos.
La propuesta de Kasirzadeh, recogida por VOX, no exige creer en una superinteligencia ni asumir la absoluta normalidad de la IA. Se orienta hacia un análisis sistémico, que refuerce la resiliencia de cada estructura social y establezca redes de supervisión para anticipar y mitigar riesgos acumulativos. Defiende que conviene mantener los beneficios de la IA donde los riesgos son bajos, pero reclama la creación de salvaguardas más robustas y una vigilancia centralizada para los desarrollos más avanzados.
Esta visión intermedia resalta la necesidad de reconocer la complejidad que implican los riesgos asociados a la IA y la insuficiencia de la normativa vigente. Ni la prohibición total ni la apertura sin límites ofrecen respuestas adecuadas a los desafíos éticos, sociales y geopolíticos que presenta la inteligencia artificial avanzada. Como señala Kasirzadeh en diálogo con VOX, la realidad de la IA y sus riesgos no admite simplificaciones ni dicotomías estrictas; exige un análisis con la profundidad que demanda la complejidad del mundo actual.
Últimas Noticias
Qué hace un CIO, CISO y CTO en una empresa y cómo pueden trabajar juntos
Estas personas lideran cargos relacionados con la ciberseguridad y tecnología en las organizaciones, pero suele haber fricción entre sus equipos

Windows 10 llega a su final: así afectará a los usuarios el cese de soporte
Desde el 14 de octubre, el sistema operativo lanzado en 2015 quedará sin parches de seguridad y millones de usuarios quedarán expuestos a ciberataques

Por qué es peligroso botar el recibo de la transacción al retirar dinero de un cajero automático
Entidades financieras advierten que desechar comprobantes en la basura expone a los usuarios a delitos, porque delincuentes pueden usar la información para suplantar identidades y cometer fraudes bancarios

Experto en finanzas aseguró que confiar el dinero e inversiones a ChatGPT puede ser un grave error
Aunque los chatbots son herramientas poderosas, confiar en ellos para manejar dinero propio implica riesgos, desde respuestas incorrectas hasta la falta de asesoría profesional personalizada, según especialistas en finanzas personales
El secreto para conectar un celular a un Smart TV sin cables HDMI o dispositivos externos
Usuarios pueden compartir videos, juegos y aplicaciones desde su teléfono a una pantalla grande por medio de funciones integradas en Android y iPhone, siempre que ambos estén conectados a la misma red WiFi
