
La confianza excesiva en las propias habilidades para manejar herramientas de inteligencia artificial (IA) no solo afecta a los usuarios noveles, sino que, según una investigación reciente, se ha extendido incluso entre quienes cuentan con mayor experiencia en el sector. Así lo ha puesto de manifiesto un estudio realizado por la Universidad Aalto de Finlandia, cuyos resultados han sido recogidos por INC.
El fenómeno, que los autores han denominado “efecto Dunning-Kruger inverso”, desafía la creencia tradicional de que la sobreestimación de capacidades es patrimonio exclusivo de los menos expertos.
El efecto Dunning-Kruger, identificado por los psicólogos que le dan nombre en 1999, describe cómo las personas con menos conocimientos sobre un tema tienden a mostrar una confianza desproporcionada respecto a su verdadera competencia, mientras que los auténticos expertos suelen ser más cautos y humildes.
Sin embargo, la investigación de la Universidad Aalto ha revelado que, en el contexto de la IA, esta dinámica se invierte: los usuarios con mayor alfabetización en IA han demostrado ser los que más sobrevaloran su destreza.
El experimento revela una confianza desmedida entre los expertos en IA

Para analizar la relación entre la autopercepción de las habilidades en IA y la confianza, los investigadores han reunido a un grupo de aproximadamente 500 participantes en un laboratorio. A todos ellos se les ha planteado la resolución de complejos ejercicios de razonamiento lógico, extraídos de la prueba de acceso a la facultad de Derecho (LSAT). Como incentivo adicional, se ha ofrecido una compensación económica extra a quienes obtuvieran mejores resultados.
La mitad de los participantes ha contado con la ayuda de modelos de lenguaje como ChatGPT para resolver las tareas, mientras que la otra mitad ha trabajado sin asistencia de IA. Además, todos han realizado una prueba para medir su alfabetización en IA y han evaluado su propio desempeño en el ejercicio.
Según la hipótesis clásica del efecto Dunning-Kruger, cabría esperar que los menos familiarizados con la IA fueran quienes más sobreestimaran su rendimiento. Sin embargo, los resultados publicados en la revista Computers in Human Behavior han mostrado lo contrario: los participantes con mayor conocimiento y experiencia en IA han sido los que más han sobrevalorado sus capacidades.
“Esperaríamos que las personas alfabetizadas en IA no solo fueran algo mejores interactuando con estos sistemas, sino también juzgando su propio rendimiento con ellos, pero no ha sido así”, ha señalado Robin Welsch, coautor del estudio, en declaraciones recogidas por INC. “Hemos comprobado que, en el caso de la IA, el efecto Dunning-Kruger desaparece. Lo realmente sorprendente es que una mayor alfabetización en IA genera más exceso de confianza”.
La mayoría de los usuarios no verifica las respuestas de la IA

Este hallazgo resulta especialmente preocupante si se tiene en cuenta la tendencia generalizada a confiar ciegamente en las respuestas generadas por la IA. Un análisis reciente de la empresa Exploding Topics, citado por INC, ha revelado que el 92 por ciento de los usuarios no comprueba las respuestas que obtiene de estos sistemas, a pesar de que los modelos más populares siguen presentando errores, inexactitudes y una tendencia a no corregir los malentendidos del usuario.
La investigación de la Universidad Aalto ha detectado un patrón similar entre los participantes del estudio. Los investigadores han observado que “las personas simplemente pensaban que la IA resolvería los problemas por ellas. Normalmente, solo había una única interacción para obtener el resultado, lo que indica que los usuarios confiaban ciegamente en el sistema”, ha explicado Welsch al sitio.
El estudio también advierte sobre el riesgo de que quienes se consideran expertos en IA caigan en una complacencia excesiva. Aunque una persona tenga un conocimiento superior a la media sobre modelos de lenguaje y otras herramientas de IA, es probable que sobreestime tanto la fiabilidad de las respuestas como su propia capacidad para obtener los mejores resultados. De hecho, según los autores, las habilidades avanzadas en IA pueden incrementar la autocomplacencia y la arrogancia.
Por último, la investigación subraya que incluso entre quienes sí verifican las respuestas de la IA —el reducido 8% de usuarios—, existe una lección adicional. Si se ocupa un puesto de responsabilidad, es muy probable que muchos miembros del equipo, por muy seguros y competentes que se muestren al hablar de IA, estén sobrevalorando sus habilidades.
Últimas Noticias
Cuál es el precio de las principales criptomonedas este día
Así se han movido las monedas digitales en las últimas horas

Así son los perros robot que apoyarán en la seguridad durante el Mundial 2026
Estos dispositivos incorporan tecnología avanzada para vigilancia y respuesta temprana en los alrededores de los estadios

La música generada por IA ya suena en las competencias de los Juegos Olímpicos de Invierno
Los hermanos checos Mrázková y Mrázek eligieron música creada por IA para su presentación en patinaje sobre hielo
Cómo la protección de datos se ha vuelto el gran reto e la ciberseguridad en la era de la IA
La inteligencia artificial potencia tanto ataques cibernéticos como mecanismos defensivos en el entorno digital

La frase que se le atribuye a Stephen Hawking y revela quiénes tienen las mentes más fuertes y ruidosas
A través de su ejemplo, el científico invita a reconocer que, en muchos casos, la genialidad se esconde detrás de una apariencia discreta




