Guerra de chips: Google ha traspasado el aura de invulnerabilidad de Nvidia

Las duda es si los microprocesadores personalizados del gigante de las búsquedas pueden resultar difíciles de adoptar para otros

Guardar
El director ejecutivo de Nvidia,
El director ejecutivo de Nvidia, Jensen Huang

Ninguna empresa se ha beneficiado tanto del auge de la inteligencia artificial como Nvidia, actualmente la empresa más valiosa del mundo. En los últimos tres años, los inversores han disparado sus acciones, convencidos de que su dominio del mercado de chips de IA es inexpugnable. Tanto fabricantes de chips rivales como startups han intentado abrirse paso en su negocio, con escaso éxito.

Ahora, sin embargo, uno de los mayores clientes de Nvidia se ha convertido en su competidor más feroz hasta la fecha. Este mes, Google, pionero en los algoritmos “transformadores” que sustentan la actual ola de IA, lanzó Gemini 3, un modelo de vanguardia que supera a los de sus mayores rivales, incluyendo OpenAI, en la mayoría de las pruebas de referencia. Fundamentalmente, Gemini 3 se entrenó íntegramente con los propios chips de Google, llamados unidades de procesamiento tensorial (TPU), que la empresa ha comenzado a ofrecer a otros como una alternativa mucho más económica a las unidades de procesamiento gráfico (GPU) de Nvidia. El mes pasado, Anthropic, fabricante de modelos, anunció planes para utilizar hasta un millón de TPU de Google en un acuerdo que, según se informa, alcanzaría decenas de miles de millones de dólares. Los informes de que Meta, otro gigante tecnológico con grandes ambiciones en IA, también está en conversaciones para utilizar chips de Google en sus centros de datos para 2027 han provocado que Nvidia pierda más de 100 000 millones de dólares en valor de mercado, aproximadamente el 3 % de su valor total, desde el cierre de la sesión del 24 de noviembre.

Los clientes de Nvidia tienen un gran incentivo para explorar alternativas más económicas. Bernstein, una firma de investigación de inversiones, estima que las GPU de Nvidia representan más de dos tercios del costo de un rack de servidores de IA típico. Las TPU de Google cuestan entre la mitad y la décima parte que un chip Nvidia equivalente. Estos ahorros se acumulan. Bloomberg Intelligence, otro grupo de investigación, prevé que la inversión de capital de Google alcance los 95 000 millones de dólares el próximo año, de los cuales casi tres cuartas partes se destinarán al entrenamiento y la ejecución de modelos de IA.

Otros gigantes tecnológicos, como Amazon, Meta y Microsoft, también han estado desarrollando procesadores personalizados, y el mes pasado OpenAI anunció una colaboración con Broadcom, un diseñador de chips, para desarrollar su propio silicio. Pero ninguno ha llegado tan lejos como Google. Comenzó a diseñar sus propios chips hace más de una década. En aquel entonces, los ingenieros de Google estimaron que si los usuarios utilizaban una nueva función de búsqueda por voz en sus teléfonos durante tan solo unos minutos al día, la compañía necesitaría duplicar la capacidad de su centro de datos. Esta predicción impulsó el desarrollo de un procesador más eficiente adaptado a las necesidades de Google. La compañía ya está en su séptima generación de TPU. Jefferies, un banco de inversión, estima que Google fabricará unos 3 millones de chips el próximo año, casi la mitad de unidades que Nvidia.

Sin embargo, para los demás clientes de Nvidia, cambiar a los chips de Google no será sencillo. La ventaja de Nvidia reside en parte en CUDA, la plataforma de software que ayuda a los programadores a utilizar sus GPU. Los desarrolladores de IA se han acostumbrado a ella. Y mientras que el software que rodea a las TPU se creó pensando en los propios productos de Google, CUDA está diseñado para una amplia gama de aplicaciones. Es más, según Jay Goldberg, analista del sector de Seaport Research Partners, la disposición de Google a vender sus TPU podría tener un límite, ya que prefiere dirigir a sus potenciales clientes a su lucrativo servicio de computación en la nube. Para frenar a sus competidores en IA, Google también podría verse tentado a mantener altos los precios de sus chips.

Todo esto podría explicar por qué Jensen Huang, director ejecutivo de Nvidia, no parece especialmente preocupado. Ha descrito a Google como “un caso muy especial”, dado que comenzó a desarrollar chips mucho antes de la actual ola de IA, y ha desestimado otros proyectos calificándolos de “superadorables y simples”. También apuesta por la flexibilidad. La arquitectura de transformadores que sustenta los modelos de IA actuales sigue evolucionando. Las GPU, desarrolladas originalmente para videojuegos, son altamente adaptables, lo que permite a los investigadores de IA probar nuevos enfoques. Nvidia ya no parece tan invulnerable como antes. Pero no se debe subestimar su potencial.

© 2025, The Economist Newspaper Limited. All rights reserved.