Científico de Google anticipa que habrá IA con habilidades de ingeniero junior

Jeff Dean revela que avances que permitirán a sistemas inteligentes asumir tareas complejas, desde pruebas y depuración hasta el uso de hardware especializado y la aceleración de descubrimientos científicos

Guardar
Jeff Dean, jefe científico de
Jeff Dean, jefe científico de Google, destaca avances en IA para tareas complejas y descubrimientos científicos (captura de video Sequoia Capital)

En el evento AI Ascent 2025, Jeff Dean, jefe científico de Google y figura clave en el desarrollo de la inteligencia artificial moderna, sorprendió a la audiencia al afirmar que “probablemente será posible en el próximo año” contar con sistemas de IA capaces de operar al nivel de ingenieros junior. Según detalló, esta predicción marca un punto de inflexión en la evolución de la tecnología, con implicaciones directas para la industria tecnológica, el empleo y la educación.

IA al nivel de ingeniero junior: ¿qué significa y qué tareas podría asumir?

La visión del jefe científico de Google sobre una IA que iguale el desempeño de un ingeniero junior va mucho más allá de la simple generación de código. El propio científico explicó que estos sistemas deberán ser capaces de ejecutar pruebas, depurar problemas de rendimiento y utilizar herramientas especializadas, habilidades que actualmente requieren experiencia y aprendizaje humano.

“Este hipotético ingeniero virtual necesitará saber cómo ejecutar pruebas, depurar problemas de rendimiento y utilizar diversas herramientas, tal como lo hacen los ingenieros humanos”, afirmó durante el evento.

Sistemas IA podrán realizar pruebas,
Sistemas IA podrán realizar pruebas, depuración y manejo de herramientas, según el jefe científico de Google (Imagen Ilustrativa Infobae)

Además, subrayó que la capacidad de leer documentación y experimentar en entornos virtuales será fundamental para que estas IA adquieran competencias prácticas, acercándose así al perfil de un profesional en sus primeros años de carrera.

Evolución de la inteligencia artificial: escalabilidad, hardware y multimodalidad

El referente de IA en Google contextualizó su predicción repasando la evolución de la IA desde 2012 y 2013, cuando los primeros grandes modelos neuronales comenzaron a resolver problemas complejos en visión, lenguaje y audio. Según indicó, la clave del progreso ha sido la escalabilidad: “Modelo más grande, más datos, mejores resultados” ha sido el principio rector durante más de una década.

El avance no solo ha dependido de algoritmos más sofisticados, sino también de mejoras en el hardware, que han permitido entrenar modelos cada vez más grandes y eficientes. Destacó la importancia de la multimodalidad, es decir, la capacidad de los modelos para procesar y generar información en diferentes formatos como texto, audio, video, imágenes y código, lo que amplía significativamente su utilidad en aplicaciones reales.

Agentes virtuales y robóticos

El debate sobre los agentes virtuales y robóticos ocupó un lugar central en la conversación. El líder de innovación en Google reconoció que, aunque actualmente estos agentes pueden realizar algunas tareas, todavía no alcanzan la versatilidad de los humanos en entornos virtuales o físicos.

Sin embargo, el camino hacia una mayor capacidad es claro: “Veo una ruta para que los agentes, con el entrenamiento adecuado, puedan hacer muchas de las cosas que hoy hacen los humanos en entornos computacionales”, señaló.

En el ámbito de la robótica, anticipó que en uno o dos años los robots comenzarán a desempeñar tareas útiles en entornos complejos, lo que abrirá la puerta a productos más accesibles y eficientes a medida que la tecnología madure y se abaraten los costos.

Competencia en modelos fundacionales

Respecto a la competencia en el desarrollo de modelos fundacionales, Dean advirtió que solo un número limitado de empresas podrá liderar este campo debido a la enorme inversión requerida. “No habrá cincuenta modelos de vanguardia; probablemente solo un puñado”, afirmó el jefe científico de Google. No obstante, una vez desarrollados estos modelos avanzados, es posible crear versiones más ligeras y rápidas mediante técnicas de destilación de modelos —un proceso que consiste en transferir el conocimiento de un modelo grande a uno más pequeño y eficiente—, lo que permite adaptar los sistemas para usos más específicos y optimizados.

El jefe científico de Google, quien fue coautor de investigaciones pioneras en este ámbito, subrayó que esta estrategia facilitará la proliferación de modelos adaptados a distintas necesidades, aunque el liderazgo seguirá concentrado en unos pocos actores globales.

Hardware especializado: el futuro de la computación

En cuanto al hardware, Dean enfatizó la importancia de los aceleradores diseñados específicamente para cálculos de aprendizaje automático, como las Tensor Processing Units (TPUs) de Google. Desde el lanzamiento de la primera generación en 2013, la compañía ha evolucionado hacia versiones más potentes y versátiles, como Ironwood y Trillium.

Dean explicó que la clave está en conectar estos dispositivos a gran escala mediante redes de alta velocidad, lo que permite distribuir el procesamiento de modelos complejos en miles de chips. Además, abordó el debate sobre el futuro del hardware de inferencia, señalando que tanto las soluciones digitales especializadas como las plataformas analógicas tienen potencial para multiplicar la eficiencia energética de los sistemas de IA. “Existe una dirección clara para hacer el hardware de inferencia diez, veinte, cincuenta o mil veces más eficiente que el actual”, afirmó.

Robots con capacidad para tareas
Robots con capacidad para tareas complejas podrán ser realidad en uno o dos años, revela Dean (Imagen Ilustrativa Infobae)

Impacto de la IA en la ciencia y la aceleración de descubrimientos

La influencia de la inteligencia artificial en la ciencia fue otro de los temas destacados. El experto en aprendizaje automático de Google mencionó que la IA ya ha contribuido a avances significativos en áreas como la física y la biología, citando el caso de colegas como Demis Hassabis y John Jumper, quienes recibieron el Premio Nobel por sus aportes en este campo.

La capacidad de utilizar simuladores computacionales como datos de entrenamiento para redes neuronales ha permitido crear modelos que replican procesos científicos a velocidades hasta 300.000 veces superiores a las de los simuladores tradicionales. Esto ha transformado la forma en que los científicos abordan problemas complejos, posibilitando experimentos y descubrimientos que antes requerían años de cómputo.

Experiencia de los desarrolladores y acceso a herramientas de Google

Avances tecnológicos prometen revolucionar la
Avances tecnológicos prometen revolucionar la industria con sistemas capaces de ejecutar pruebas y depurar problemas de rendimiento (Imagen Ilustrativa Infobae)

Dean también abordó la experiencia de los desarrolladores que utilizan el hardware y las plataformas de Google. Reconoció que, aunque las TPUs ofrecen un rendimiento sobresaliente, la facilidad de uso ha sido un desafío en comparación con otras tecnologías como CUDA. Para mejorar esta situación, Google ha desarrollado el sistema Pathways, que permite a los investigadores y desarrolladores gestionar miles de dispositivos de manera sencilla a través de una única interfaz.

Según lo anunciado en Cloud Next, Pathways estará disponible para clientes en la nube, lo que facilitará el acceso a la infraestructura de IA avanzada y mejorará la experiencia de usuario.

Perspectivas sobre el futuro de la computación y la infraestructura

En su análisis sobre el futuro de la computación, el referente de IA en Google destacó que la naturaleza de los cálculos ha cambiado radicalmente en la última década. Ahora, la prioridad es ejecutar redes neuronales de gran tamaño con alta eficiencia y bajo consumo energético, tanto en dispositivos móviles como en centros de datos y sistemas autónomos.

Dean señaló que la adaptación de las plataformas de cómputo a esta nueva realidad requerirá innovaciones en hardware, software y algoritmos, así como el uso estratégico de técnicas como la destilación para optimizar el rendimiento en diferentes contextos. Además, subrayó la importancia de considerar factores como el ancho de banda de memoria y red, y la eficiencia energética, aspectos que se han vuelto centrales en el diseño de sistemas modernos de aprendizaje automático.

Impacto social y educativo de la IA avanzada

Finalizando el evento, el científico reflexionó sobre el potencial transformador de la inteligencia artificial en la educación y la productividad. Relató ejemplos de aplicaciones como la generación automática de juegos educativos a partir de videos, que ya muestran resultados prometedores y podrían revolucionar la forma en que se aprende y se enseña.

Las herramientas que tenemos y las que tendremos en los próximos años ofrecen una oportunidad increíble para cambiar el mundo de manera positiva”, concluyó.