
La inteligencia artificial progresa a un ritmo que supera las proyecciones más optimistas en diferentes campos. Según un estudio de Model Evaluation & Threat Research (METR), la capacidad de los grandes modelos de lenguaje (LLMs, por sus siglas en inglés) se duplica cada siete meses.
Esta aceleración podría permitir que, para 2030, estos sistemas completen tareas en horas que actualmente requieren un mes de trabajo humano. La revista científica IEEE Spectrum reportó estos hallazgos en una entrevista a la investigadora Megan Kinniment, coautora de la investigación.
¿Cómo se midió el avance de los LLMs?
El equipo de METR, con sede en Berkeley (California), desarrolló un método para evaluar la capacidad de los modelos más allá de métricas convencionales como la velocidad de procesamiento. Para ello, compararon su desempeño con el de humanos en tareas de distinta complejidad.
Dicho procedimiento consistió en medir el tiempo promedio que personas tardaban en resolver ciertas tareas y luego asignarlas a versiones de LLMs, evaluando si alcanzaban una tasa de éxito del 50%. Los modelos más recientes lograron resolver tareas cada vez más largas y difíciles. Kinniment señaló que, si bien esperaban mejoras, el ritmo del progreso fue más claro y veloz de lo previsto.

Proyecciones hacia 2030 y factores de crecimiento
El análisis mostró que la capacidad de los LLMs se duplicó aproximadamente cada siete meses. Si esta tendencia continúa, podrían ejecutar en pocas horas tareas que hoy implican unas 167 horas de trabajo humano.
Sin embargo, la especialista Kinniment advirtió que estas proyecciones se basan en simulaciones controladas y no consideran factores del mundo real ni cambios en la escala computacional. Además, en la práctica, se requeriría una mayor fiabilidad para que estas tareas sean útiles en contextos económicos o industriales.
Asimismo, el abordaje de METR advierte que para sostener este ritmo de crecimiento será necesario que el hardware siga evolucionando, que el software mejore constantemente y que haya suficiente disponibilidad de datos de entrenamiento. La entrevistada subrayó que estos elementos son esenciales, pero reconoció que podrían surgir obstáculos como cuellos de botella tecnológicos o escasez de datos, lo que desaceleraría el desarrollo.

Implicaciones: aceleración e incertidumbre
El potencial de los LLMs para automatizar tareas complejas podría reconfigurar sectores como la investigación, la industria y la educación. Uno de los escenarios contemplados por METR es una aceleración de la propia investigación en inteligencia artificial, con modelos capaces de mejorar otros modelos sin intervención humana.
Con respecto a esto, la científica Kinniment indicó que este fenómeno recuerda al concepto de “singularidad”, aunque matizó que no necesariamente conduciría a un crecimiento explosivo. “Incluso tasas de desarrollo menores a las de la singularidad podrían ser muy intensas para la capacidad de adaptación del mundo”, declaró en IEEE Spectrum.
Por otra parte, en cuanto a los riesgos, el informe advierte sobre posibles consecuencias catastróficas, como la pérdida masiva de empleos y el debilitamiento de la seguridad democrática. “Si no se necesitaran trabajadores humanos para la mayoría de las tareas, incluso para mantener fuerzas militares, sería más fácil que alguien realizara un golpe de Estado”, alertó.

Mejoras, límites actuales y conciencia artificial
El análisis también reveló que los LLMs mejoraron en su capacidad para adaptarse y corregir errores. Desde la aparición de modelos como ChatGPT, los sistemas muestran mayor flexibilidad para modificar estrategias cuando una solución falla. Aun así, persisten limitaciones estructurales.
Una de las pruebas evaluó el efecto de aumentar la cantidad de tokens —las unidades mínimas de texto que procesan los modelos—. Se observó que más tokens mejoran el rendimiento, pero solo hasta un punto. A propósito de esto, la investigadora explicó: “Ese umbral es un poco más alto con cada nuevo modelo, pero sigue habiendo un límite”.
Para medir la capacidad frente a tareas impredecibles, METR usó una escala de 16 puntos de “desorden”. Las pruebas más complejas alcanzaron 8 puntos. Según se explicó, una tarea con 16 puntos sería, por ejemplo, una operación de espionaje, donde intervienen múltiples restricciones y actores en oposición.
El progreso de los LLMs también plantea interrogantes filosóficos. ¿Podrían estos sistemas desarrollar conciencia? De acuerdo con la especialista, no está claro si la conciencia es necesaria para que un modelo exhiba conductas complejas. “No me parece descabellado pensar que podrían ser conscientes en algún momento, si llegan a ser tan inteligentes como los humanos”, reflexionó.
Más allá de que los modelos actuales pueden planificar y ejecutar estrategias, lo hacen sin la conciencia que define a los seres humanos. Esta diferencia, según las observaciones de METR, es clave para entender los límites de la inteligencia artificial avanzada.

Monitoreo continuo de modelos actuales
El equipo de METR continuará evaluando el desarrollo de los LLMs. Megan Kinniment mencionó que, tras la aparición de modelos como o3 de OpenAI, que superó expectativas de capacidad, el grupo sigue analizando nuevos sistemas para mantener informada a la sociedad sobre avances y riesgos asociados.
De igual manera, IEEE Spectrum resaltó que los investigadores de METR consideran fundamental seguir monitoreando el progreso de estos modelos, así como advertir sobre los impactos que podrían tener en la economía, la seguridad y la gobernabilidad global.
Últimas Noticias
Cómo vaciar la papelera de WhatsApp en ocho pasos
Controlar el contenido almacenado en la app ayuda a mantener solo los archivos esenciales y mejora el rendimiento del celular
La montaña rusa de las criptomonedas: así cotizan este 14 de julio
El bitcoin, una de las principales monedas digitales, presentó un cambio de 3,4% en las últimas 24 horas

Cómo desactivar la función Meta AI en WhatsApp paso a paso
Al buscar métodos para desactivar el asistente inteligente, algunos usuarios consideran regresar a versiones antiguas de WhatsApp o Messenger que no incluyen esta herramienta automatizada

Comenzar una conversación en WhatsApp con ‘buen día’ o ‘buenos días’: la RAE resuelve la duda
Cuando la expresión se emplea al final de un diálogo, como forma de despedida, ambas variantes resultan aceptables tanto en España como en América

Ranking X: las películas más mencionadas en las últimas horas
En la red social del pájaro azul se generan alrededor de 65 millones de tuits y 800 mil búsquedas al día
