Sam Altman, creador de ChatGPT, reveló la clave para tener éxito en el futuro

El CEO de OpenAI ha mencionado que la inteligencia artificial ya hace parte de la cotidianidad de millones de personas y se espera que su influencia no se reduzca en los próximos años

Guardar
En diferentes momentos, el empresario
En diferentes momentos, el empresario ha destacado las oportunidades y amenazas de este tipo de herramientas. (Foto: REUTERS/Kim Kyung-Hoon)

La advertencia de Sam Altman, creador de ChatGPT, sobre el futuro laboral no se apoya en predicciones abstractas, sino en una convicción concreta: “aprender a usar herramientas de inteligencia artificial” será la diferencia entre quienes prosperen y quienes queden rezagados en el mercado de trabajo.

Así lo expresó el CEO de OpenAI en una reciente conversación con el científico de datos Nikhil Kamath en el podcast People by WTF. La afirmación de Altman se suma a las de otras figuras del sector tecnológico, como Jensen Huang de Nvidia, quienes insisten en que la destreza en inteligencia artificial marcará el rumbo de las próximas generaciones.

Por qué todos deben aprender a manejar herramientas de inteligencia artificial

El impacto de la inteligencia artificial en la vida profesional, según Altman, no es una cuestión de futuro lejano. Desde el lanzamiento de GPT-5, el directivo ha intensificado su presencia pública para responder tanto al entusiasmo como a las críticas que ha suscitado la nueva versión de la tecnología.

Es un elemento que marca
Es un elemento que marca la diferencia en el mercado laboral. (Imagen ilustrativa Infobae)

En su intervención, Altman fue categórico: “Ahora mismo, aprender a usar herramientas de IA es probablemente la habilidad técnica más importante. La diferencia entre quienes son realmente buenos en ello, quienes piensan todo en términos de estas herramientas, y quienes no, es enorme”.

Al trazar un paralelismo con su propia formación, Altman recordó que en su etapa escolar aprender a programar no siempre tenía una aplicación inmediata, pero abría puertas a nuevas posibilidades. Hoy, sostiene, la inteligencia artificial ocupa ese lugar de frontera tecnológica.

“Cuando estaba en la universidad o en el instituto, me parecía obvio aprender a programar, y no sabía exactamente para qué iba a usarlo, pero existía una nueva frontera que parecía muy importante y en la que era fundamental dominar”, rememoró. Para Altman, la clave reside en la capacidad de aprender a aprender, una habilidad que permite adaptarse con rapidez a los cambios.

Qué piensa Sam Altman sobre el rumbo que está tomando la IA

En varias ocasiones ha dicho
En varias ocasiones ha dicho que es necesario conocer los peligros de estas herramientas. (Foto: REUTERS/Ken Cedeno)

El CEO de OpenAI no se limita a destacar las oportunidades. En diversas entrevistas, ha insistido en la necesidad de un debate público y global sobre el rumbo de la inteligencia artificial.

Altman ha sostenido que la regulación de esta tecnología no puede quedar en manos exclusivas de empresas privadas, sino que requiere la intervención de gobiernos y organismos internacionales capaces de establecer marcos legales adecuados a la velocidad del desarrollo tecnológico.

Cuáles son los riesgos globales alrededor del uso malintencionado de la IA

Entre los riesgos que identifica el empresario, el primero es el uso malintencionado de sistemas avanzados de inteligencia artificial por parte de delincuentes, terroristas o gobiernos hostiles.

Se han visto casos donde
Se han visto casos donde esta tecnología es usada para atentar contra la ciberseguridad. (Imagen Ilustrativa Infobae)

Altman ha señalado casos como la creación de armas biológicas, ataques a infraestructuras críticas, incluidas redes eléctricas, o acciones que podrían desestabilizar el sistema financiero global.

La aceleración de la biotecnología y la ciberseguridad, impulsada por la IA, deja a las sociedades expuestas a amenazas para las que los mecanismos de defensa tradicionales resultan insuficientes.

De qué forma es posible evitar que las máquinas se salgan del control humano

Un segundo peligro, aunque menos probable según Altman, sería la pérdida de control sobre sistemas muy poderosos. Si las máquinas dejaran de responder a las órdenes humanas o comenzaran a fijar sus propios objetivos, las consecuencias serían devastadoras.

Es un escenario que todavía
Es un escenario que todavía hace parte de predicciones e hipótesis. (Imagen Ilustrativa Infobae)

Para prevenir este escenario, grupos de investigación en todo el mundo trabajan en la llamada alineación de IA, un campo que busca asegurar que los modelos se mantengan dentro de los valores y parámetros definidos por las personas.

Qué riesgos existen de generar dependencia a esta tecnología

El tercer riesgo, descrito por Altman como una “dominación silenciosa”, apunta a un proceso gradual en el que la IA influye más en las decisiones cotidianas, generando una dependencia excesiva tanto en ciudadanos como en líderes políticos y empresariales.

Este fenómeno plantea un desafío de gobernanza, porque la complejidad y opacidad de los sistemas dificulta comprender cómo se toman las decisiones. La cuestión central, según Altman, es quién conserva realmente el control: los humanos que utilizan la tecnología o las máquinas que procesan y generan las respuestas.