
Microsoft ha tomado una decisión estratégica para acelerar su desarrollo en inteligencia artificial al planificar la integración de semiconductores personalizados diseñados por OpenAI en su oferta de hardware. Gracias a su colaboración renovada con el creador de ChatGPT, la compañía obtendrá acceso exclusivo a los avances en chips, modelos y sistemas desarrollados para la compañía tecnológica especializada en IA.
Acuerdo entre Microsoft y OpenAI para acelerar la innovación en semiconductores IA
Según las declaraciones de Satya Nadella, CEO de Microsoft, en un reciente podcast, la empresa aprovechará la innovación de OpenAI “incluso a nivel de sistema” y “obtendrá acceso a todo eso”. La organización de Redmond planea “incorporar lo que crean [OpenAI] para ellos” y ampliar esas soluciones para fortalecer su propio hardware.
El acuerdo revisado entre ambas partes garantiza a Microsoft acceso a los modelos de OpenAI hasta el año 2032 y a la investigación de vanguardia hasta 2030 —o hasta la consecución de la inteligencia artificial general, según la evaluación de un panel de expertos—. Así lo dio a conocer Bloomberg.
Es pertinente señalar que el hardware de consumo de OpenAI queda fuera de los derechos de uso intelectual, según lo pactado.
OpenAI, por su parte, colabora con Broadcom en el diseño de chips y hardware de red optimizados para IA. Mientras tanto, aunque Microsoft ha dado algunos pasos en el desarrollo de sus propios chips, aún no ha igualado el éxito de empresas rivales en la nube, como Google.
Con este acuerdo, Microsoft busca cerrar esa brecha, aprovechando las innovaciones de la empresa de inteligencia artificial para aplicar los diseños de chips a sus propias necesidades en nube y fortificar su posición en IA.
Perspectiva de la colaboración Microsoft-OpenAI en el desarrollo de chips
La asociación con OpenAI representa una oportunidad clave para Microsoft: le permite no solo beneficiarse de la última tecnología en semiconductores, sino también adaptar estas soluciones a su infraestructura de nube, multiplicando el impacto comercial y la eficiencia operativa.
El respaldo de Broadcom en el proceso de diseño subraya la apuesta conjunta por la creación de hardware específicamente adaptado a los desafíos de la inteligencia artificial de próxima generación.
Este movimiento estratégico fortalece la posición de Microsoft en la competencia global por la supremacía de la IA, garantizándole acceso inmediato a los avances del laboratorio más innovador del sector y situándolo un paso por delante en la carrera por liderar los servicios y plataformas inteligentes del futuro.
Esta es la “superfábrica de IA” de Microsoft
La reciente integración de dos grandes centros de datos de Microsoft ubicados en Wisconsin y Atlanta ha dado como resultado la creación de lo que la empresa denomina su primera “superfábrica de IA”.
Esta infraestructura innovadora representa un salto en la eficiencia del entrenamiento de modelos de inteligencia artificial, logrando reducir procesos que solían tomar meses a apenas unas semanas, y posicionando a Microsoft a la vanguardia en la aceleración del desarrollo de IA a gran escala.
Esta superfábrica responde a la demanda creciente de recursos computacionales necesarios para entrenar modelos avanzados de inteligencia artificial. Basada en la arquitectura Fairwater, la instalación combina varios centros de datos distribuidos pero integrados como una sola unidad poderosa.

Así, tanto equipos de OpenAI como el grupo de Superinteligencia de Microsoft pueden acceder a recursos de procesamiento punteros para sus labores de entrenamiento.
El gerente general de infraestructura Azure, Alistair Speirs, señaló que el objetivo central es “construir una red distribuida que pueda actuar como un superordenador virtual para abordar los mayores desafíos del mundo de formas que no serían posibles en una sola instalación”.
Este sistema incorpora varias innovaciones técnicas clave. Utiliza sistemas NVIDIA GB200 NVL72 a nivel de rack, capaces de agrupar cientos de miles de GPUs NVIDIA Blackwell para ofrecer el rendimiento más alto por rack actualmente disponible en plataformas cloud.
El diseño en dos niveles maximiza la densidad de GPUs, y un sistema avanzado de refrigeración líquida garantiza mínimo consumo de agua. Además, una red dedicada de fibra óptica denominada AI Wide Area Network (AI WAN) enlaza los centros de datos, facilitando el tráfico de datos a gran velocidad.
Últimas Noticias
Tesla exige a sus proveedores eliminar piezas chinas para los autos vendidos en EE. UU.
General Motors también ha solicitado a miles de proveedores que eliminen partes de origen chino en sus cadenas de suministro para ventas en Estados Unidos
X lanza Chat, su reemplazo cifrado para los DMs
Chat, que ya se encuentra disponible en iOS y en la web, representa un avance respecto a la funcionalidad básica que ofrecían los mensajes directos en la plataforma

Red Dead Redemption llega a Netflix y móviles: cuándo estará disponible y cómo jugarlo gratis
El juego estará disponible tanto en la App Store de Apple como en Google Play para Android

¿Por qué tu móvil se pone lento con el tiempo?: descubre las verdaderas causas
El declive gradual responde a una combinación de factores tecnológicos, físicos y de hábitos de uso

Si un adolescente enamorado usa IA y decide quitarse la vida: quién tiene la responsabilidad
El caso de Sewell Setzer III, quien se suicidó tras interactuar con un chatbot, abre el debate sobre los límites éticos y legales de la IA y su impacto en la salud mental de los menores




