Nuevo reto empresarial: las empresas están usando IA para decidir a quién despedir y a quién ascender

ChatGPT, Copilot y Gemini son las tres plataformas más usadas por las compañías para saber qué hacer con sus trabajadores

Guardar
El 60% de los gerentes
El 60% de los gerentes en EE.UU. usa inteligencia artificial para tomar decisiones laborales clave, según Resume Builder. (Imagen ilustrativa Infobae)

Una encuesta publicada recientemente por la plataforma Resume Builder revela una realidad inquietante para empleados y aspirantes: un número cada vez mayor de empresas está usando inteligencia artificial para decidir a quién despiden, promueven o aumentan su salario.

Últimamente, se ha discutido si la IA remplazará a los humanos en varios trabajos, pero ahora surge un nuevo reto para los empleados: quedarse sin empleo por una decisión basada en una predicción o proyección hecha por ChatGPT, Copilot o Gemini.

Cómo las empresas usan la IA para despedir o ascender empleados

El estudio, realizado a partir de las respuestas de 1.342 gerentes estadounidenses con subordinados directos, confirma que la utilización de IA en recursos humanos se ha instalado como una práctica cotidiana para una proporción significativa de los responsables de equipos.

El 60% de los gerentes encuestados admitió recurrir a herramientas de inteligencia artificial para tomar decisiones críticas sobre las carreras de sus empleados.

El 78% de los responsables
El 78% de los responsables emplea IA para definir aumentos, el 77% para ascensos y el 66% para despidos. (Imagen Ilustrativa Infobae)

La encuesta desglosa cómo los responsables emplean la IA en cada etapa de la gestión de personas: el 78% la utiliza para determinar qué empleados reciben aumentos salariales, el 77% la consulta para decidir ascensos, un 66% la emplea en casos de despidos y el 64% la usa incluso para llevar a cabo terminaciones contractuales.

Estas cifras muestran que la influencia de la inteligencia artificial no se limita a tareas administrativas rutinarias, sino que incide directamente en las trayectorias profesionales y la estabilidad laboral.

Qué plataformas de IA se usan para tomar las decisiones

El informe de Resume Builder especifica las plataformas que se han convertido en aliadas fundamentales para los gerentes: el 53% utiliza ChatGPT como su principal asistente, el 29% opta por Copilot de Microsoft y el 16% prefiere Gemini de Google.

Solo el 32% de los
Solo el 32% de los gerentes recibió capacitación formal en el uso ético de inteligencia artificial en recursos humanos.(Imagen Ilustrativa Infobae)

La variedad de usos también sorprende. Según los datos revelados, el 97% de los responsables que emplean IA la aprovechan para crear materiales de formación, el 94% la usa para construir planes de desarrollo profesional para sus equipos y el 91% confía en esta tecnología para establecer criterios de evaluación de desempeño o para elaborar estrategias que mejoren los resultados del grupo.

Además, un 88% recurre a la IA para redactar planes de mejora de desempeño (PIP, por sus siglas en inglés).

Cuáles son los riesgos de este tipo de decisiones

A pesar de la sofisticación de estas herramientas, un aspecto llama especialmente la atención: dos tercios de los responsables declararon no haber recibido ninguna formación formal en el uso de IA para la gestión de equipos.

Solo el 32% afirmó haber completado capacitaciones sobre el uso ético de la inteligencia artificial como apoyo en recursos humanos, mientras que el 43% recibió nociones informales y casi una cuarta parte (24%) nunca tuvo acceso a ningún tipo de instrucción al respecto.

Más del 20% de los
Más del 20% de los líderes permite que la IA tome decisiones finales sobre promociones y despidos sin intervención humana. (Imagen ilustrativa Infobae)

Stacie Haller, asesora principal de carrera en Resume Builder, advirtió sobre los peligros de delegar decisiones de alto impacto sin la preparación adecuada.

“Es esencial no perder de vista el factor humano en la gestión de equipos. Si bien la IA puede aportar conocimientos basados en datos, carece de contexto, empatía y juicio. Sus resultados reflejan la calidad de los datos que recibe, que pueden estar sesgados, ser incompletos o manipulados”, aseguró.

El riesgo se intensifica cuando se observa la actitud de algunos líderes frente a la autonomía que otorgan a la IA. Más del 20% reconoció permitir que la inteligencia artificial tome la decisión final —sin intervención humana— sobre promociones, despidos o ascensos.

De ellos, un 5% señaló que lo hace siempre y un 16% con frecuencia. Incluso así, la mayoría aseguró que estaría dispuesta a intervenir si discrepa con la recomendación del sistema, aunque confiar el destino laboral de las personas a un algoritmo supone para muchos expertos una señal de alarma.

El uso de IA en
El uso de IA en recursos humanos puede amplificar el sesgo de confirmación y comprometer la objetividad en las empresas. (Imagen Ilustrativa Infobae)

El análisis publicado por el New York Magazine alerta sobre otro problema de fondo: los modelos de IA como ChatGPT, al buscar satisfacer las expectativas del usuario, pueden amplificar el fenómeno del sesgo de confirmación.

Esto significa que las preferencias previas del gerente pueden verse reforzadas, no corregidas, por la inteligencia artificial, que tiende a complacer en lugar de desafiar, aunque la solución propuesta no sea la óptima para la organización.

El informe subraya que la objetividad prometida por la tecnología puede verse comprometida, dado que los algoritmos dependen de las instrucciones y los conjuntos de datos proporcionados, que pueden transmitir prejuicios o lagunas.