Un nuevo estudio de la Universidad Aalto de Finlandia revela que incluso los usuarios experimentados en inteligencia artificial (IA) tienden a sobreestimar sus habilidades y subestimar los riesgos de error. Este fenómeno ha sido denominado “efecto Dunning-Kruger inverso”, que desafía la idea de que solo los menos expertos exageran su competencia.
El Efecto Dunning-Kruger
Identificado en 1999 por psicólogos, el efecto Dunning-Kruger describe cómo las personas con menos conocimientos sobre un tema suelen mostrar una confianza desproporcionada en sus capacidades, mientras que los expertos tienden a ser más humildes. Sin embargo, el estudio de la Universidad Aalto sugiere que los usuarios más alfabetizados en IA son quienes más sobrevaloran su destreza.
Método del Estudio
Para investigar la relación entre la autopercepción de habilidades en IA y la confianza, se reunió a aproximadamente 500 participantes en un laboratorio. Se les pidió resolver ejercicios de razonamiento lógico, similares a los de la prueba de acceso a la facultad de Derecho (LSAT). A la mitad se les proporcionó asistencia de modelos de lenguaje como ChatGPT, mientras que la otra mitad trabajó sin ayuda de IA. Además, todos realizaron una prueba para medir su alfabetización en IA y evaluaron su propio desempeño.
Resultados Inesperados
Según la hipótesis inicial del efecto Dunning-Kruger, se esperaría que los menos familiarizados con la IA sobreestimaran su rendimiento. Sin embargo, los resultados publicados en la revista Computers in Human Behavior revelaron que los participantes con mayor conocimiento en IA fueron quienes más sobrevaloraron sus habilidades. Robin Welsch, coautor del estudio, comentó que “en el caso de la IA, el efecto Dunning-Kruger desaparece”, indicando que una mayor alfabetización en IA genera más exceso de confianza.
Confiar Ciegamente en la IA
Este hallazgo es preocupante, ya que muchos usuarios confían ciegamente en las respuestas generadas por la IA. Un análisis reciente de Exploding Topics mostró que el 92% de los usuarios no verifica las respuestas que recibe de estos sistemas, a pesar de que los modelos más populares pueden presentar errores e inexactitudes.
Patrones de Comportamiento
La investigación también mostró que los participantes tendían a pensar que la IA resolvería los problemas por ellos, confiando completamente en el sistema. Welsch explicó que “normalmente, solo había una única interacción para obtener el resultado”, lo que pone de manifiesto la falta de verificación por parte de los usuarios.
Riesgos de la Complacencia
El estudio advierte sobre el riesgo de que aquellos que se consideran expertos en IA caigan en una complacencia excesiva. Aunque una persona posea un conocimiento superior sobre herramientas de IA, es probable que sobreestime tanto la fiabilidad de las respuestas como su propia capacidad para obtener resultados óptimos. Esto puede llevar a la autocomplacencia y la arrogancia.
Lecciones Aprendidas
Finalmente, la investigación destaca que incluso entre el 8% de usuarios que verifican las respuestas de la IA, existe una lección importante. En entornos laborales, es probable que muchos miembros del equipo, aunque se muestren seguros y competentes en su conocimiento sobre IA, estén sobrevalorando sus habilidades.