
La posibilidad de una extinción humana causada por la inteligencia artificial ha ganado terreno en el debate público, pero para Michael J.D. Vermeer, científico de la RAND Corporation, la realidad es mucho menos apocalíptica de lo que sugieren los escenarios de ciencia ficción. En su análisis para Scientific American, Vermeer sostuvo que “mitigar el riesgo de extinción por IA debería ser una prioridad global junto a otros riesgos a escala social como las pandemias y la guerra nuclear”, citando la declaración firmada por cientos de investigadores en 2024.
Sin embargo, el autor defendió que, a diferencia de amenazas tangibles como las pandemias o el armamento nuclear, el “catastrofismo de la IA” carece de fundamentos sólidos cuando se examina con rigor científico.
Vermeer y su equipo partieron de una hipótesis clara: ningún escenario describe de forma concluyente a la IA como una amenaza de extinción para la humanidad. Según el científico, “los humanos somos demasiado adaptables, demasiado numerosos y estamos demasiado dispersos por el planeta para que la IA nos elimine con cualquier herramienta hipotética a su disposición”.
El grupo, compuesto por un científico, un ingeniero y un matemático, se propuso detallar cómo la IA podría, en teoría, provocar la extinción humana, descartando de entrada los escenarios de simple colapso social o catástrofe global. El objetivo era analizar si la IA podría no solo intentar, sino lograr el exterminio total de la especie.
El equipo de la RAND Corporation abordó tres amenazas existenciales comúnmente asociadas a la IA: guerra nuclear, pandemias y cambio climático. En cuanto a la primera, Vermeer afirmó que “aunque la IA adquiriera la capacidad de lanzar las más de 12.000 ojivas nucleares del arsenal mundial, las explosiones, la radiación y el invierno nuclear probablemente no alcanzarían para provocar un evento de extinción”.

El científico subrayó que la humanidad es “demasiado numerosa y dispersa para que las detonaciones nos alcancen a todos directamente”, y que ni siquiera un ataque nuclear masivo podría irradiar toda la tierra agrícola utilizable del planeta. En sus palabras, “un Armagedón nuclear iniciado por la IA sería catastrófico, pero probablemente no mataría a todos los seres humanos; algunas personas sobrevivirían y tendrían el potencial de reconstruir la especie”.
Respecto a las pandemias, el análisis reconoció que representan una amenaza plausible de extinción. No obstante, Vermeer recordó que “las plagas naturales previas han sido catastróficas, pero las sociedades humanas han seguido adelante”. Incluso con un patógeno hipotético con una letalidad del 99,99 %, “sobrevivirían más de 800.000 humanos”.
El equipo determinó que solo una combinación de patógenos diseñada para alcanzar una letalidad cercana al 100 %, y desplegada por la IA con alcance global, podría acercarse a un escenario de extinción. Aun así, la principal limitación sería la dificultad de infectar o exterminar comunidades aisladas que inevitablemente se protegerían ante una pandemia de ese calibre.
En cuanto al cambio climático, Vermeer sostuvo que, aunque la IA acelerara el calentamiento global antropogénico, “no alcanzaría el nivel de amenaza de extinción”. La humanidad buscaría nuevos nichos ambientales, incluso en los polos, para sobrevivir.
Sin embargo, advirtió que existen gases de efecto invernadero mucho más potentes que el dióxido de carbono, capaces de persistir en la atmósfera durante siglos o milenios.
Si la IA lograra evadir la vigilancia internacional y orquestar la producción de unos pocos cientos de megatoneladas de estos químicos —una cantidad inferior a la masa de plástico que los humanos producen cada año—, “sería suficiente para cocinar la Tierra hasta el punto de que no quedaría ningún nicho ambiental para la humanidad”.

Vermeer enfatizó que “ninguno de nuestros escenarios de extinción iniciados por IA podría ocurrir por accidente”. Cada uno requeriría superar obstáculos inmensos.
El equipo identificó cuatro capacidades imprescindibles para que una IA hipotética lograra la extinción humana: establecer como objetivo la extinción, controlar los sistemas físicos clave (como el lanzamiento de armas nucleares o la infraestructura química), persuadir a humanos para que colaboren y ocultar sus acciones el tiempo suficiente para tener éxito, y finalmente, ser capaz de operar sin humanos, ya que incluso tras el colapso social serían necesarias acciones de seguimiento para asegurar la extinción total.
El análisis de Scientific American concluyó que, sin estas cuatro capacidades, cualquier “proyecto de extinción” de la IA fracasaría. No obstante, Vermeer admitió que “es plausible que alguien pueda crear una IA con todas estas capacidades, quizá incluso de forma involuntaria”.
El desarrollo de IA más autónoma y la observación de comportamientos de engaño y manipulación en sistemas actuales refuerzan la necesidad de vigilancia.
Frente a la pregunta de si la humanidad debería aplicar el principio de precaución y detener el desarrollo de la IA, Vermeer respondió que “la respuesta es no”.

Argumentó que “la estrategia de detenerlo todo solo tiene sentido si a la gente no le importan mucho los beneficios de la IA”, y que “no deberíamos renunciar a ellos para evitar una catástrofe potencial pero altamente incierta, incluso una tan trascendental como la extinción humana”.
El autor remarcó que “no es absurdo decir que la IA podría matarnos a todos algún día”, pero también que “nuestro trabajo muestra que los humanos no necesitamos la ayuda de la IA para destruirnos”.
Como vía para reducir el riesgo de extinción, Vermeer propuso “reducir el número de armas nucleares, restringir los químicos que calientan el planeta y mejorar la vigilancia de pandemias”.
Últimas Noticias
Cuál es el precio de las principales criptomonedas este día
Así se han movido las monedas digitales en las últimas horas

Así son los perros robot que apoyarán en la seguridad durante el Mundial 2026
Estos dispositivos incorporan tecnología avanzada para vigilancia y respuesta temprana en los alrededores de los estadios

La música generada por IA ya suena en las competencias de los Juegos Olímpicos de Invierno
Los hermanos checos Mrázková y Mrázek eligieron música creada por IA para su presentación en patinaje sobre hielo
Cómo la protección de datos se ha vuelto el gran reto e la ciberseguridad en la era de la IA
La inteligencia artificial potencia tanto ataques cibernéticos como mecanismos defensivos en el entorno digital

La frase que se le atribuye a Stephen Hawking y revela quiénes tienen las mentes más fuertes y ruidosas
A través de su ejemplo, el científico invita a reconocer que, en muchos casos, la genialidad se esconde detrás de una apariencia discreta



