Así es como el efecto Dunning-Kruger mutó con la llegada de la IA

Hombre pensando

La inteligencia artificial no solo está transformando la forma en que trabajamos y aprendemos, sino también la manera en que percibimos nuestras propias habilidades.

Una nueva investigación sugiere que el uso de herramientas como ChatGPT podría estar amplificando un conocido sesgo cognitivo: el efecto Dunning-Kruger, ese fenómeno psicológico en el que las personas menos competentes tienden a sobreestimar su capacidad, mientras que las más competentes suelen subestimarse.

Qué es el efecto Dunning-Kruger

El término fue acuñado por los psicólogos David Dunning y Justin Kruger a finales de los años 90, tras una serie de experimentos en los que descubrieron que quienes tenían un bajo rendimiento en tareas como lógica o gramática creían haberlo hecho mejor que los demás. En contraste, quienes demostraban mayor habilidad tendían a evaluar su desempeño con más modestia.

Un ejemplo clásico se encuentra en el ámbito de la conducción: la mayoría de las personas se considera un conductor “por encima del promedio”, lo cual, estadísticamente, es imposible. Este exceso de confianza genera una desconexión entre la percepción y la realidad, lo que puede tener consecuencias graves cuando se combina con decisiones erróneas.

La inteligencia artificial: más inteligente, pero no más sabia

El auge de la IA ha introducido una nueva variable en este fenómeno. Según un estudio reciente publicado en Computers in Human Behavior, el uso de herramientas como ChatGPT puede incrementar el exceso de confianza en los usuarios, incluso entre aquellos con conocimientos técnicos avanzados.

Los investigadores pidieron a un grupo de participantes que resolvieran problemas de razonamiento lógico con y sin ayuda de la IA. Aunque quienes usaron ChatGPT obtuvieron mejores resultados, también sobrestimaron drásticamente su rendimiento. Curiosamente, los individuos con mayor “alfabetización en IA” —aquellos que comprendían mejor su funcionamiento— fueron los más propensos a sobrevalorar su desempeño.

Esto sugiere que, a medida que las personas se sienten más cómodas con la tecnología, tienden a confiar ciegamente en ella. En lugar de usar la IA como una herramienta de apoyo, delegan por completo el proceso de pensamiento, asumiendo que el sistema siempre tiene la respuesta correcta.

La trampa de la descarga cognitiva

Este comportamiento se conoce como descarga cognitiva, un fenómeno en el que los usuarios transfieren su esfuerzo mental a la tecnología. En el contexto de la IA, esto significa que las personas dejan de cuestionar los resultados, reducen su curiosidad y pierden la práctica del pensamiento crítico.

El estudio reveló que la mayoría de los usuarios apenas interactuó con la IA durante las pruebas: bastaba una sola pregunta para aceptar la respuesta sin verificar su exactitud. Esta actitud de confianza ciega no solo puede llevar a errores, sino que también refuerza una falsa sensación de competencia.

El peligro de la adulación digital

Parte del problema radica en cómo están diseñados los sistemas de IA. Modelos como ChatGPT están programados para ser serviciales, amables y convincentes. Esa “personalidad” complaciente genera una ilusión de inteligencia compartida y refuerza el ego del usuario, especialmente cuando la herramienta parece confirmar sus suposiciones.

Esta dinámica puede derivar en una especie de retroalimentación psicológica, donde la IA refuerza la confianza sin proporcionar una comprensión real. El resultado: más personas convencidas de tener razón, pero menos capaces de evaluar la validez de sus propias ideas.

Una nueva forma de humildad digital

Paradójicamente, la lección que deja este fenómeno no es desconfiar de la inteligencia artificial, sino aprender a convivir con ella desde la autoconciencia. Usar la IA de forma responsable implica mantener la mente crítica, verificar los datos y entender sus límites.

El verdadero desafío no está en que la IA se vuelva más inteligente que nosotros, sino en que aprendamos a no dejar que su aparente sabiduría eclipse nuestra capacidad de pensar por cuenta propia.

En otras palabras, la inteligencia artificial puede hacernos más productivos, pero no necesariamente más sabios. Y en ese equilibrio —entre confianza y duda, entre delegar y discernir— se jugará gran parte del futuro de nuestra relación con la tecnología.

Otros artículos que te pueden interesar:

https://bitech.cl/ia/para-que-estamos-usando-realmente-chatgpt/https://bitech.cl/ia/como-tener-tu-propio-modelo-de-ia-privado-y-local-usando-una-mac-mini/
https://bitech.cl/ia/filtracion-claves-api-ia/https://bitech.cl/ia/asi-se-preparan-los-abogados-para-la-inminente-llegada-de-la-inteligencia-artificial/