
En el evento AI Ascent 2025, Jeff Dean, jefe científico de Google y figura clave en el desarrollo de la inteligencia artificial moderna, sorprendió a la audiencia al afirmar que “probablemente será posible en el próximo año” contar con sistemas de IA capaces de operar al nivel de ingenieros junior. Según detalló, esta predicción marca un punto de inflexión en la evolución de la tecnología, con implicaciones directas para la industria tecnológica, el empleo y la educación.
IA al nivel de ingeniero junior: ¿qué significa y qué tareas podría asumir?
La visión del jefe científico de Google sobre una IA que iguale el desempeño de un ingeniero junior va mucho más allá de la simple generación de código. El propio científico explicó que estos sistemas deberán ser capaces de ejecutar pruebas, depurar problemas de rendimiento y utilizar herramientas especializadas, habilidades que actualmente requieren experiencia y aprendizaje humano.
“Este hipotético ingeniero virtual necesitará saber cómo ejecutar pruebas, depurar problemas de rendimiento y utilizar diversas herramientas, tal como lo hacen los ingenieros humanos”, afirmó durante el evento.

Además, subrayó que la capacidad de leer documentación y experimentar en entornos virtuales será fundamental para que estas IA adquieran competencias prácticas, acercándose así al perfil de un profesional en sus primeros años de carrera.
Evolución de la inteligencia artificial: escalabilidad, hardware y multimodalidad
El referente de IA en Google contextualizó su predicción repasando la evolución de la IA desde 2012 y 2013, cuando los primeros grandes modelos neuronales comenzaron a resolver problemas complejos en visión, lenguaje y audio. Según indicó, la clave del progreso ha sido la escalabilidad: “Modelo más grande, más datos, mejores resultados” ha sido el principio rector durante más de una década.
El avance no solo ha dependido de algoritmos más sofisticados, sino también de mejoras en el hardware, que han permitido entrenar modelos cada vez más grandes y eficientes. Destacó la importancia de la multimodalidad, es decir, la capacidad de los modelos para procesar y generar información en diferentes formatos como texto, audio, video, imágenes y código, lo que amplía significativamente su utilidad en aplicaciones reales.
Agentes virtuales y robóticos
El debate sobre los agentes virtuales y robóticos ocupó un lugar central en la conversación. El líder de innovación en Google reconoció que, aunque actualmente estos agentes pueden realizar algunas tareas, todavía no alcanzan la versatilidad de los humanos en entornos virtuales o físicos.
Sin embargo, el camino hacia una mayor capacidad es claro: “Veo una ruta para que los agentes, con el entrenamiento adecuado, puedan hacer muchas de las cosas que hoy hacen los humanos en entornos computacionales”, señaló.
En el ámbito de la robótica, anticipó que en uno o dos años los robots comenzarán a desempeñar tareas útiles en entornos complejos, lo que abrirá la puerta a productos más accesibles y eficientes a medida que la tecnología madure y se abaraten los costos.
Competencia en modelos fundacionales
Respecto a la competencia en el desarrollo de modelos fundacionales, Dean advirtió que solo un número limitado de empresas podrá liderar este campo debido a la enorme inversión requerida. “No habrá cincuenta modelos de vanguardia; probablemente solo un puñado”, afirmó el jefe científico de Google. No obstante, una vez desarrollados estos modelos avanzados, es posible crear versiones más ligeras y rápidas mediante técnicas de destilación de modelos —un proceso que consiste en transferir el conocimiento de un modelo grande a uno más pequeño y eficiente—, lo que permite adaptar los sistemas para usos más específicos y optimizados.
El jefe científico de Google, quien fue coautor de investigaciones pioneras en este ámbito, subrayó que esta estrategia facilitará la proliferación de modelos adaptados a distintas necesidades, aunque el liderazgo seguirá concentrado en unos pocos actores globales.
Hardware especializado: el futuro de la computación
En cuanto al hardware, Dean enfatizó la importancia de los aceleradores diseñados específicamente para cálculos de aprendizaje automático, como las Tensor Processing Units (TPUs) de Google. Desde el lanzamiento de la primera generación en 2013, la compañía ha evolucionado hacia versiones más potentes y versátiles, como Ironwood y Trillium.
Dean explicó que la clave está en conectar estos dispositivos a gran escala mediante redes de alta velocidad, lo que permite distribuir el procesamiento de modelos complejos en miles de chips. Además, abordó el debate sobre el futuro del hardware de inferencia, señalando que tanto las soluciones digitales especializadas como las plataformas analógicas tienen potencial para multiplicar la eficiencia energética de los sistemas de IA. “Existe una dirección clara para hacer el hardware de inferencia diez, veinte, cincuenta o mil veces más eficiente que el actual”, afirmó.

Impacto de la IA en la ciencia y la aceleración de descubrimientos
La influencia de la inteligencia artificial en la ciencia fue otro de los temas destacados. El experto en aprendizaje automático de Google mencionó que la IA ya ha contribuido a avances significativos en áreas como la física y la biología, citando el caso de colegas como Demis Hassabis y John Jumper, quienes recibieron el Premio Nobel por sus aportes en este campo.
La capacidad de utilizar simuladores computacionales como datos de entrenamiento para redes neuronales ha permitido crear modelos que replican procesos científicos a velocidades hasta 300.000 veces superiores a las de los simuladores tradicionales. Esto ha transformado la forma en que los científicos abordan problemas complejos, posibilitando experimentos y descubrimientos que antes requerían años de cómputo.
Experiencia de los desarrolladores y acceso a herramientas de Google

Dean también abordó la experiencia de los desarrolladores que utilizan el hardware y las plataformas de Google. Reconoció que, aunque las TPUs ofrecen un rendimiento sobresaliente, la facilidad de uso ha sido un desafío en comparación con otras tecnologías como CUDA. Para mejorar esta situación, Google ha desarrollado el sistema Pathways, que permite a los investigadores y desarrolladores gestionar miles de dispositivos de manera sencilla a través de una única interfaz.
Según lo anunciado en Cloud Next, Pathways estará disponible para clientes en la nube, lo que facilitará el acceso a la infraestructura de IA avanzada y mejorará la experiencia de usuario.
Perspectivas sobre el futuro de la computación y la infraestructura
En su análisis sobre el futuro de la computación, el referente de IA en Google destacó que la naturaleza de los cálculos ha cambiado radicalmente en la última década. Ahora, la prioridad es ejecutar redes neuronales de gran tamaño con alta eficiencia y bajo consumo energético, tanto en dispositivos móviles como en centros de datos y sistemas autónomos.
Dean señaló que la adaptación de las plataformas de cómputo a esta nueva realidad requerirá innovaciones en hardware, software y algoritmos, así como el uso estratégico de técnicas como la destilación para optimizar el rendimiento en diferentes contextos. Además, subrayó la importancia de considerar factores como el ancho de banda de memoria y red, y la eficiencia energética, aspectos que se han vuelto centrales en el diseño de sistemas modernos de aprendizaje automático.
Impacto social y educativo de la IA avanzada
Finalizando el evento, el científico reflexionó sobre el potencial transformador de la inteligencia artificial en la educación y la productividad. Relató ejemplos de aplicaciones como la generación automática de juegos educativos a partir de videos, que ya muestran resultados prometedores y podrían revolucionar la forma en que se aprende y se enseña.
“Las herramientas que tenemos y las que tendremos en los próximos años ofrecen una oportunidad increíble para cambiar el mundo de manera positiva”, concluyó.
Últimas Noticias
Elon Musk revela un robot que baila como humano, parece un títere y tiene IA
Tesla ha presentado a Optimus como un “amigo humanoide”, diseñado para asistir de manera segura en tareas del hogar

Cómo impactará la inteligencia artificial de iOS 19 en la duración de la batería de los iPhones
La nueva actualización de Apple promete cambios significativos en la gestión energética de sus dispositivos, pero ¿qué implicaciones tendrá realmente para los usuarios?

Qué significa que una persona ordene los billetes de menor a mayor valor, según la inteligencia artificial
Ya sea que se retire dinero de un cajero o se reciba un pago en efectivo, este hábito es común individuos que tienen muchas responsabilidades

Microsoft recorta 6.000 empleos en su mayor ajuste desde 2023
La compañía reorganiza su estructura global para acelerar la adopción de inteligencia artificial y responder a la presión sobre los márgenes, en línea con la tendencia de recortes en el sector tecnológico

Teléfonos Samsung en la mira por fallas en medio de la actualización que crea una crisis en la batería
El fallo está generando que los dispositivos tengan una caída de autonomía de batería de hasta un 50%
