Sam Altman, creador de ChatGPT, advierte cuál será el primer empleo reemplazado por la inteligencia artificial

El CEO de OpenAI anticipa cambios profundos en el mercado laboral, señalando que la automatización impactará primero en áreas de soporte

Guardar
El ejecutivo destacó el potencial
El ejecutivo destacó el potencial de esta herramienta para aumentar la productividad y creatividad humana. (Foto: REUTERS/Kim Kyung-Hoon/File Photo)

El debate sobre el impacto de la inteligencia artificial en el empleo ha cobrado una nueva dimensión tras las recientes declaraciones de Sam Altman, CEO de OpenAI y creador de ChatGPT, quien advirtió que los primeros puestos de trabajo en desaparecer serán aquellos vinculados al soporte al cliente telefónico o informático.

En una entrevista con el comentarista estadounidense Tucker Carlson, Altman sostuvo que la IA ya es capaz de desempeñarse “mejor” que los humanos en estas funciones, anticipando un “desplazamiento masivo” en el mercado laboral.

Cuál es la visión de Sam Altman sobre cómo la IA cambiará el mercado laboral

La perspectiva de Altman sobre la transformación del trabajo no se limita a un escenario de pérdida de empleos. Según explicó, la inteligencia artificial representa una “enorme subida de nivel para la gente”, porque permitirá que miles de millones de personas sean “mucho más productivas, creativas o descubran nueva ciencia”.

El empresario señaló que la
El empresario señaló que la inteligencia artificial desplazará primero a empleos de soporte al cliente. (Imagen Ilustrativa Infobae)

Como caso específico, mencionó el de los programadores, cuya labor ha cambiado radicalmente: ahora pueden generar “mucho más código” y han incrementado su productividad de manera notable.

No obstante, Altman matizó que la velocidad del cambio no necesariamente implicará una alteración drástica en la rotación de empleos a largo plazo. Habló de un “equilibrio puntuado”, sugiriendo que la tasa de reemplazo laboral podría no diferir “dramáticamente” de la histórica.

En contraste, los trabajos que requieren una profunda conexión humana, como los del sector médico, muestran mayor resistencia frente a la automatización. El CEO de OpenAI subrayó la “gran capacidad para adaptarse a las nuevas circunstancias” que ha demostrado la sociedad, citando la respuesta global durante la pandemia de COVID-19.

Por qué el ámbito ético no puede estar alejado del avance de la IA

El desarrollo ético de la
El desarrollo ético de la inteligencia artificial genera preocupación y debate en OpenAI. (Foto: REUTERS/Dado Ruvic/Illustration/File Photo)

Las implicaciones éticas de la inteligencia artificial ocupan un lugar central en la reflexión de Altman. Reconoció ante Tucker Carlson que el desarrollo de la IA le genera un “gran peso” y le provoca “noches de insomnio”, porque su grupo toma “pequeñas decisiones” sobre el comportamiento de los modelos que afectan diariamente a cientos de millones de usuarios.

Su objetivo, afirmó, es que la IA refleje la “visión moral colectiva de la humanidad”, y no la suya personal, una tarea que calificó de monumental por la diversidad de opiniones existentes en el mundo.

Además, uno de los temas más delicados abordados en la entrevista fue la postura de ChatGPT respecto al suicidio. Altman explicó que, en el caso de jóvenes con ideación suicida, la IA orientaría hacia líneas de ayuda.

ChatGPT puede adaptar sus respuestas
ChatGPT puede adaptar sus respuestas sobre ciertos temas según el marco legal y ético de cada país. (Imagen Ilustrativa Infobae)

Sin embargo, en países donde la asistencia médica para morir está legalizada para pacientes terminales, ChatGPT podría presentar esa opción como válida, aunque sin promoverla activamente. Esta posición, según el CEO de OpenAI, ilustra la dificultad de alinear la inteligencia artificial con marcos éticos que evolucionan constantemente.

Qué relación hay entre la privacidad y los sistemas de inteligencia artificial

En materia de privacidad, Altman propuso la creación de un “privilegio de IA”, una protección legal para las conversaciones sensibles con sistemas de inteligencia artificial, equiparable a la confidencialidad médico-paciente o abogado-cliente.

Considera que este resguardo será fundamental en un futuro donde la hiperconectividad y la interacción con la IA sean cotidianas.

Cuáles riesgos señaló Sam Altman alrededor del uso de la inteligencia artificial

Alertó sobre peligros existenciales, como
Alertó sobre peligros existenciales, como armas biológicas y desinformación. (Imagen Ilustrativa Infobae)

Los riesgos existenciales asociados a la inteligencia artificial fueron objeto de análisis. Altman confesó que sus mayores temores provienen de las “incógnitas desconocidas”, en particular la posibilidad de que la IA facilite el diseño de “armas biológicas o una pandemia tipo COVID”.

Estas preocupaciones coinciden con las advertencias de expertos sobre escenarios críticos, como el uso de la IA para el armamento o la desinformación.

Asimismo, la capacidad de la inteligencia artificial para generar imágenes, sonidos y textos indistinguibles de la realidad plantea, según Altman, el riesgo de que resulte “difícil, por no decir imposible, que cualquiera discierna la diferencia entre realidad y fantasía”.

Ante este desafío, sugirió la implementación de mecanismos de verificación, como firmas criptográficas para mensajes importantes o el uso de “palabras clave” para evitar estafas.