San Altman, creador de ChatGPT, aplaza nueva versión de su IA: habrá más pruebas para evitar riesgos con humanos

OpenAI aplaza sin fecha la disponibilidad del nuevo sistema de código abierto, priorizando la revisión de riesgos frente al entusiasmo de la comunidad de desarrolladores

Guardar
Sam Altman frena el lanzamiento
Sam Altman frena el lanzamiento abierto de su nueva IA: prioridad a la seguridad antes de liberar el modelo - REUTERS/Jonathan Ernst

En la escena tecnológica internacional, cada anuncio de OpenAI genera expectativas inmediatas. Durante semanas, la industria aguardaba el lanzamiento de un modelo de inteligencia artificial de código abierto que abría la posibilidad de que cualquiera pudiera acceder a los detalles técnicos, analizar y entrenar el sistema a voluntad.

Pero el prometedor avance se pospondrá debido a un giro inesperado, Sam Altman, director ejecutivo y creador de ChatGPT, comunicó a través de X que la publicación se aplazó indefinidamente.

“Planeábamos lanzar nuestro modelo de pesos abiertos la próxima semana. Vamos a retrasarlo; necesitamos tiempo para realizar pruebas de seguridad adicionales y revisar las áreas de alto riesgo. Aún no estamos seguros de cuánto tiempo nos llevará”, el mensaje en la redes sociales del CEO de OpenAI, breve y directo, dejó en claro que el componente de seguridad resulta determinante y que existen preocupaciones reales todavía no resueltas.

Trino en el que Sam
Trino en el que Sam Altman confirmó que se pospone el lanzamiento del modelo de inteligencia artificial de código abierto - crédito @sama/X

Por qué OpenAI canceló el lanzamiento del modelo de IA

Altman hizo énfasis en una advertencia crucial, cuando una inteligencia artificial se publica bajo código abierto, no es posible revertir ese paso. Una vez que los “pesos” están liberados en la comunidad global de desarrolladores, ese conocimiento circula sin regreso posible y se multiplica en usos difíciles de prever.

El equipo busca avanzar con cautela, consciente de los retos que implica entregar semejante poder, ya que también representa un riesgo si cae en las manos equivocadas o si se emplea con fines dañinos, como la desinformación masiva o la automatización de ciberataques.

Modelos anteriores, como ChatGPT, siempre permanecieron bajo el más estricto control corporativo, accesibles solo desde los servidores de la firma. Con este nuevo enfoque, OpenAI se alejaba de sus propias normas y avanzaba hacia la apertura total, pero Altman como medida preventiva aplazó su lanzamiento.

El modelo de OpenAI, cuyo
El modelo de OpenAI, cuyo acceso libre generó enorme expectativa, permanecerá en suspenso hasta garantizar medidas contra la desinformación, el ciberataque y otros peligros asociados - EFE/EPA/WU HAO

Esta historia de demoras despierta dudas entre expertos y observadores, quienes se preguntan si la compañía está lista para avanzar hacia un esquema verdaderamente abierto y descentralizado. Por lo pronto, Altman aseguró que todo el equipo está trabajando arduamente para cubrir los posibles flancos débiles antes de dar el siguiente paso.

Código abierto o cerrado en modelos de IA

Este momento revive el debate de fondo en inteligencia artificial: el dilema entre modelos cerrados, propios de grandes empresas que priman el control y la monetización, y el enfoque de código abierto que apuesta por la democratización tecnológica.

Organizaciones como Meta han decidido ir mucho más lejos en la publicación de modelos abiertos para IA, permitiendo que la comunidad los modifique y adapte conforme a sus necesidades.

Los defensores del código abierto argumentan que este camino elimina barreras económicas y acelera la innovación colectiva. El CEO y fundador de Disia, Aitor Pastor, ha resaltado que los modelos de código abierto son los motores de innovación y transparencia”, recalcando que la colaboración entre desarrolladores ayuda a mejorar las soluciones de manera continua y rápida.

El futuro de la inteligencia
El futuro de la inteligencia artificial abierta en espera por razones de seguridad - (Imagen ilustrativa Infobae)

Peligros en ciberseguridad de una IA de código abierto

No obstante, la apertura radical conlleva preocupaciones de peso. El acceso irrestricto multiplica la capacidad de innovación, pero también puede facilitar usos problemáticos en manos equivocadas sofisticando modalidades de ciberdelitos.

En el mensaje difundido, Altman subrayó que el potencial para que la tecnología se emplee de manera indebida, ocasionando efectos adversos a escala global, es un riesgo real y que la responsabilidad requiere estudiar cada escenario antes de la publicación.

La decisión de OpenAI representa un complicado ejercicio de equilibrio. Altman y su equipo quieren mantener el apoyo de una comunidad activa y ávida de nuevas herramientas, al mismo tiempo que protegen a la sociedad del abuso tecnológico.

Mientras tanto, el sector sigue observando y el futuro inmediato de la inteligencia artificial abierta continúa siendo incierto.