La inteligencia artificial vive un punto de inflexión en 2025 con el anuncio de Anthropic, desarrollador de los modelos Claude, que ampliará considerablemente su capacidad de cómputo a través de una alianza estratégica con Google Cloud, accediendo a hasta un millón de chips TPU y superando el gigavatio de potencia para 2026.
Cómo es la alianza entre Google y Anthropic
El acuerdo entre Anthropic y Google Cloud implicará una migración masiva de recursos hacia la infraestructura de la nube, con el acceso a grandes volúmenes de TPUs, la tecnología de aceleradores diseñada por Google para cargas específicas de inteligencia artificial.
De acuerdo con el comunicado oficial, la expansión representa una inversión de decenas de miles de millones de dólares y una escala inédita en la historia de la compañía, permitiendo superar el umbral del gigavatio de procesamiento en línea en apenas un año.

Esta capacidad favorecerá tanto el entrenamiento de modelos de lenguaje de última generación como la investigación en alineamiento y pruebas exhaustivas previas a los lanzamientos más ambiciosos.
La compañía tecnológica actualmente sirve a más de 300.000 clientes empresariales, cifra que incluye grandes cuentas corporativas cuyo volumen de ingresos recurrentes ha crecido casi siete veces en el último año.
De acuerdo con Krishna Rao, director financiero de Anthropic, el trato facilitará atender la demanda de grandes compañías y startups que ya confían en Claude para funciones críticas, mientras permite a la empresa posicionar sus modelos en la vanguardia de la industria.
Por parte de Google, Thomas Kurian, CEO de Google Cloud, recalcó que la elección de Anthropic subraya la eficiencia observada por sus equipos con las TPUs en los últimos años.
La séptima generación de estos chips, denominada Ironwood, representa la evolución más reciente del portafolio de aceleradores de Google y reafirma el compromiso del gigante tecnológico por mantener una oferta puntera y escalable para sus clientes de inteligencia artificial.

El enfoque computacional de Anthropic destaca frente a sus principales competidores, como OpenAI, que desarrolla centros de datos propios y trabaja en chips personalizados, o xAI de Elon Musk, cuyo clúster Colossus en Memphis marca otra estrategia de integración vertical.
Desde la compañía tecnológica han optado por no invertir directamente en la construcción de hardware propio, favoreciendo acuerdos flexibles con proveedores externos. Si bien esta táctica minimiza el riesgo financiero inmediato asociado a la infraestructura, también aumenta la dependencia respecto de la evolución de precios y contratos en la nube. Para la empresa de tecnología, esta decisión permite concentrarse en su especialidad: avanzar en los límites de la IA aplicada y comercial.
El modelo de Anthropic es, no obstante, diversificado. La compañía recurre no solo a las TPUs de Google, también a la plataforma Trainium de Amazon y a las GPUs de NVIDIA. Esta arquitectura multiplataforma posibilita ajustar cargas de trabajo, explorar distintas optimizaciones y evitar cuellos de botella en un entorno donde la competencia por recursos computacionales es cada día más feroz.
La compañía mantiene en paralelo una asociación estratégica con Amazon, su principal socio para el entrenamiento de modelos, y colabora en el desarrollo del Proyecto Rainier, que busca desplegar cientos de miles de chips de IA en varios centros de datos repartidos por Estados Unidos.
Qué son los TPUs y cuál es su importancia
Las TPUs (Tensor Processing Units) son chips desarrollados por Google y optimizados de forma exclusiva para acelerar tareas fundamentales en inteligencia artificial y aprendizaje profundo.
A diferencia de las CPUs convencionales o las GPUs tradicionales, las TPUs cuentan con una arquitectura centrada en la manipulación de tensores, estructuras de datos básicas de las redes neuronales.
Gracias a componentes como las matrices de multiplicadores (MXU), estos chips realizan cálculos de álgebra lineal y operaciones matriciales a una velocidad y eficiencia energética superiores, lo que reduce los tiempos de entrenamiento y permite desplegar modelos de escala cada vez mayor.
Hoy, las TPUs se ofrecen principalmente como servicio a través de Google Cloud. Las empresas y desarrolladores acceden virtualmente a una capacidad robusta sin requerir la compra directa de hardware, adaptándose así a escenarios de demanda variable y optimizando costos operativos.
El anuncio de Anthropic, que contempla utilizar hasta un millón de TPUs, refleja el avance acelerado de la industria de la IA y la intensificación de la competencia por recursos computacionales, en un momento en que la demanda de soluciones de inteligencia artificial de gran escala crece en todo el mundo.
Últimas Noticias
Actualiza tu iPhone al nuevo iOS 26.1 y agrega más funciones gratuitas
Ahora los usuarios pueden optar por el efecto transparente clásico, llamado Liquid Glass, o activar un modo tintado que incrementa la opacidad de elementos en apps y notificaciones de la pantalla de bloqueo
Con este truco podrás cargar la batería del smartphone cuando no hay luz
Ante un corte de luz, disponer de baterías portátiles, cargadores solares o adaptadores para automóvil garantiza la continuidad de las comunicaciones

Bitcoin registró su mayor señal bajista desde hace 3 años; cuál es su valor hoy 5 de noviembre
El bitcoin fue la primera criptomoneda lanzada en el mundo y ha llegado a un nivel máximo de 68 mil unidades de dólar

Google Assistant también se está quedando sin trabajo: Gemini es el nuevo rey de la IA
La empresa quiere dar funciones más avanzadas para que los usuarios puedan interactuar y realizar solicitudes con voz

Dua Lipa tiene su propio especial apto para fans ‘An Evening with Dua Lipa’: dónde verlo
El especial, dirigido por Paul Dugdale y con un despliegue tecnológico inédito, presenta versiones exclusivas, detalles personales y colaboraciones históricas




