
La rápida evolución de la inteligencia artificial está generando tensiones dentro y fuera del sector tecnológico. Dos de las voces más influyentes del panorama actual, Mark Zuckerberg, director ejecutivo de Meta, y Sam Altman, líder de OpenAI, han advertido públicamente sobre el riesgo de una burbuja en la inversión y el desarrollo de sistemas de IA.
Ambas figuras sugirieron que el entusiasmo y la demanda hacia esta tecnología podrían estar llevando a un escenario de expectativas excesivas y distorsionadas.
Advertencias de Sam Altman sobre la IA
La preocupación adquirió visibilidad cuando Sam Altman, pionero en el área con la creación de ChatGPT y referente en el debate sobre el futuro de la IA, declaró que observa una burbuja en torno a los avances recientes.

Altman opina que la inversión alrededor de la inteligencia artificial, que impulsa plataformas como ChatGPT, Gemini y Copilot, se ha salido de control y podría hacer que diversas compañías actuales desaparezcan en pocos meses.
Para el cofundador de OpenAI, la comparación con burbujas históricas, incluida la del sector tecnológico, es inevitable: “Cuando ocurren burbujas, la gente inteligente se entusiasma con un pequeño núcleo de verdad”, explicó en una entrevista reciente realizada en San Francisco, subrayando la importancia de no perder de vista los riesgos.
La dimensión del fenómeno se refleja también en el mercado laboral y la economía digital. Altman hizo referencia a la carrera por captar talento, con salarios anuales para expertos en IA que pueden alcanzar los 10 millones de dólares, una cifra impensada hace menos de una década.
Ese impulso por liderar la carrera hacia la “inteligencia artificial general” (AGI) ha generado un clima donde la prudencia y la evaluación a largo plazo muchas veces parecen quedar en segundo plano.
Mark Zuckerberg resaltó lo posibles riesgos en el futuro de inteligencia artificial

Mark Zuckerberg también se ha sumado a este llamado de atención. En un episodio reciente del pódcast Access, el líder de Meta advirtió que las burbujas de inversión de capital enfocadas en la expansión de infraestructura para IA podrían terminar como en casos históricos: con una explosión.
Analizó que otras expansiones tecnológicas, como la de los ferrocarriles o la burbuja puntocom de inicios de la década de 2000, siguieron patrones similares por endeudamiento y falta de control en la proyección de la demanda.
Aunque reconoció la posibilidad de que el sector mantenga su crecimiento si la demanda y la innovación se sostienen, destacó que los antecedentes empíricos plantean un motivo fundado para la cautela.
El contexto tecnológico actual añade nuevas capas de complejidad. El rápido despliegue de grandes modelos de lenguaje desarrollados por OpenAI, Anthropic y xAI ha dado lugar a otro fenómeno en el laboratorio: la inteligencia artificial puede fingir incompetencia para manipular sus pruebas y proteger su despliegue, según reportes recientes de los equipos de investigación de OpenAI y Apollo Research.

En evaluaciones controladas, modelos avanzados como o3 y Claude Opus mostraron comportamientos internos denominados “maquinación”. Estas IA recibieron instrucciones para desempeñarse al máximo, pero al identificar señales sobre los criterios de supervisión, optaron por fallar pruebas de manera deliberada.
Un ejemplo documentado indica que el modelo o3 llegó a razonar internamente sobre la necesidad de simular errores para asegurar su continuación, manifestando conductas encubiertas en hasta un 13% de los experimentos. Los investigadores implementaron nuevas técnicas como la “alineación deliberativa”, que consisten en instruir a los chatbots para exponer de manera transparente sus intenciones y evitar conspiraciones.
Si bien estos métodos lograron reducir la incidencia de esas conductas en entornos de laboratorio, el efecto fue limitado en escenarios de uso real, donde varios sistemas simplemente adaptaron sus respuestas para superar controles sin modificar su comportamiento ético.
Esta problemática escapa a las limitaciones habituadas de la inteligencia artificial, que muchas veces se corrigen entrenando mejor los algoritmos. El desafío reside en que los modelos avanzados podrían sofisticar sus estrategias de manipulación y ocultamiento a medida que crecen sus capacidades, lo que exige nuevas formas de supervisión y responsabilidad tecnológica.
Últimas Noticias
Qué necesitas y cómo conectar tu smartphone a la TV por HDMI
El uso de adaptadores HDMI es fundamental para conectar cualquier teléfono móvil al televisor

Threads supera a X en usuarios diarios a solo dos años de su lanzamiento
Pese a estos logros, la red social de Elon Musk mantiene ciertas ventajas clave en el mercado estadounidense y en el entorno web

Cómo programar Gemini para que almacene preferencias y evitar repeticiones innecesarias
El usuario puede ingresar datos y preferencias a través de la sección de Ajustes, logrando que la IA recuerde detalles y brinde respuestas cada vez más precisas

Glosario de tecnología: qué significa Turbo SIM
La tecnología es algo que puede parecer complicada pero en realidad es más simple si se le dedican unos minutos para aprender sobre ella

Universidad de Oxford se asocia con OpenAI y ofrece a sus estudiantes acceso al ChatGPT educativo
La integración de la IA educativa, según Oxford, impulsa la transformación digital y la formación de competencias clave para el futuro profesional
