El debate sobre el impacto de la inteligencia artificial en el empleo ha cobrado una nueva dimensión tras las recientes declaraciones de Sam Altman, CEO de OpenAI y creador de ChatGPT, quien advirtió que los primeros puestos de trabajo en desaparecer serán aquellos vinculados al soporte al cliente telefónico o informático.
En una entrevista con el comentarista estadounidense Tucker Carlson, Altman sostuvo que la IA ya es capaz de desempeñarse “mejor” que los humanos en estas funciones, anticipando un “desplazamiento masivo” en el mercado laboral.
Cuál es la visión de Sam Altman sobre cómo la IA cambiará el mercado laboral
La perspectiva de Altman sobre la transformación del trabajo no se limita a un escenario de pérdida de empleos. Según explicó, la inteligencia artificial representa una “enorme subida de nivel para la gente”, porque permitirá que miles de millones de personas sean “mucho más productivas, creativas o descubran nueva ciencia”.

Como caso específico, mencionó el de los programadores, cuya labor ha cambiado radicalmente: ahora pueden generar “mucho más código” y han incrementado su productividad de manera notable.
No obstante, Altman matizó que la velocidad del cambio no necesariamente implicará una alteración drástica en la rotación de empleos a largo plazo. Habló de un “equilibrio puntuado”, sugiriendo que la tasa de reemplazo laboral podría no diferir “dramáticamente” de la histórica.
En contraste, los trabajos que requieren una profunda conexión humana, como los del sector médico, muestran mayor resistencia frente a la automatización. El CEO de OpenAI subrayó la “gran capacidad para adaptarse a las nuevas circunstancias” que ha demostrado la sociedad, citando la respuesta global durante la pandemia de COVID-19.
Por qué el ámbito ético no puede estar alejado del avance de la IA
Las implicaciones éticas de la inteligencia artificial ocupan un lugar central en la reflexión de Altman. Reconoció ante Tucker Carlson que el desarrollo de la IA le genera un “gran peso” y le provoca “noches de insomnio”, porque su grupo toma “pequeñas decisiones” sobre el comportamiento de los modelos que afectan diariamente a cientos de millones de usuarios.
Su objetivo, afirmó, es que la IA refleje la “visión moral colectiva de la humanidad”, y no la suya personal, una tarea que calificó de monumental por la diversidad de opiniones existentes en el mundo.
Además, uno de los temas más delicados abordados en la entrevista fue la postura de ChatGPT respecto al suicidio. Altman explicó que, en el caso de jóvenes con ideación suicida, la IA orientaría hacia líneas de ayuda.

Sin embargo, en países donde la asistencia médica para morir está legalizada para pacientes terminales, ChatGPT podría presentar esa opción como válida, aunque sin promoverla activamente. Esta posición, según el CEO de OpenAI, ilustra la dificultad de alinear la inteligencia artificial con marcos éticos que evolucionan constantemente.
Qué relación hay entre la privacidad y los sistemas de inteligencia artificial
En materia de privacidad, Altman propuso la creación de un “privilegio de IA”, una protección legal para las conversaciones sensibles con sistemas de inteligencia artificial, equiparable a la confidencialidad médico-paciente o abogado-cliente.
Considera que este resguardo será fundamental en un futuro donde la hiperconectividad y la interacción con la IA sean cotidianas.
Cuáles riesgos señaló Sam Altman alrededor del uso de la inteligencia artificial

Los riesgos existenciales asociados a la inteligencia artificial fueron objeto de análisis. Altman confesó que sus mayores temores provienen de las “incógnitas desconocidas”, en particular la posibilidad de que la IA facilite el diseño de “armas biológicas o una pandemia tipo COVID”.
Estas preocupaciones coinciden con las advertencias de expertos sobre escenarios críticos, como el uso de la IA para el armamento o la desinformación.
Asimismo, la capacidad de la inteligencia artificial para generar imágenes, sonidos y textos indistinguibles de la realidad plantea, según Altman, el riesgo de que resulte “difícil, por no decir imposible, que cualquiera discierna la diferencia entre realidad y fantasía”.
Ante este desafío, sugirió la implementación de mecanismos de verificación, como firmas criptográficas para mensajes importantes o el uso de “palabras clave” para evitar estafas.
Últimas Noticias
Nueva ola de ciberataques pone en riesgo tarjetas de crédito de huéspedes en hoteles de Latinoamérica y España
Un informe de Kaspersky detalla cómo un grupo de ciberdelincuentes regresa con técnicas más sofisticadas, poniendo en riesgo datos financieros y personales de huéspedes y empleados de la industria hotelera

PS5 se actualiza: ahora podrás alternar mandos más fácil y ahorrar más energía
La consola ahora permite registrar mandos en hasta cuatro dispositivos y alternar entre ellos con un solo gesto

Una granja en Alemania opera aún con Windows 95 y clasifica 40.000 huevos diarios
Tres décadas después de su lanzamiento, el veterano sistema operativo continúa controlando el proceso diario de clasificación de huevos en Düsseldorf

Qué tareas aprueban y cuáles rechazan los estadounidenses para la inteligencia artificial
Un estudio del Pew Research Center, realizado en todo Estados Unidos, muestra un fuerte respaldo a la IA en ciertos ámbitos, pero un marcado rechazo en áreas que afectan la creatividad y las relaciones personales

El truco definitivo para proteger tus conversaciones de WhatsApp en Android y iPhone
La aplicación de mensajería permite bloquear el acceso a los chats mediante huella dactilar o Face ID
