Vi una publicación en LinkedIn que hablaba de nuestra dependencia de la IA. Un profesor contaba que había asignado un ensayo a su clase, y justo ese día ChatGPT dejó de funcionar. De cincuenta estudiantes, solo nueve entregaron el trabajo. El resto, admitía, no supo cómo escribir sin la herramienta.
Pero lo preocupante no es solo la dependencia, sino la confusión: creer que sabemos porque la herramienta sabe. Ese espejismo de competencia —sentir dominio cuando en realidad solo seguimos un reflejo— es exactamente lo que Dunning y Kruger describieron hace años…, y del que en realidad ninguno estamos a salvo en mi opinión.
Ahora viene lo verdaderamente inquietante. Un equipo de investigadores decidió explorar si los propios modelos de lenguaje sufren del efecto Dunning–Kruger. Los resultados son reveladores: “Los modelos muestran una inflación estadísticamente significativa de su desempeño percibido comparado con el real, similar al efecto previamente estudiado en humanos.” Cuanto peor es el desempeño real del modelo y más raro el dominio de programación, más pronunciada es la sobreestimación.
Piénsalo: tenemos la tormenta perfecta. Usuarios que no pueden evaluar la calidad de las respuestas en dominios que desconocen, consultando a sistemas de los que dependen y que también sobreestiman su competencia en esos mismos dominios. Como señalan los investigadores del MIT, esto crea una “superioridad ilusoria” amplificada.
Un estudio publicado en Critical Care (Salvagno, Taccone y Gerli, 2023) propone una curva que describe la evolución típica del usuario de IA (puedes verla aquí). Al principio aparece una fase de entusiasmo desmedido, marcada por la creencia de que la herramienta permitirá “publicar rápido y sin esfuerzo”. Luego, al enfrentarse a errores, referencias inventadas y pérdidas de tiempo, llega la fase de frustración y abandono: muchos usuarios concluyen que “la IA no sirve”.
Sin embargo, con el aprendizaje de sus límites y un mejor entendimiento de cómo usarla, la curva asciende de nuevo hacia un uso maduro y consciente, donde la IA se integra como un apoyo complementario, similar al papel que hoy tienen las computadoras o los motores de búsqueda”.
Pero aquí está la trampa: muchos nunca salen de la primera fase. ¿Por qué? Porque para combatir el efecto Dunning–Kruger necesitas “autoconciencia” y “adoptar un enfoque humilde y reflexivo de las propias capacidades.” Pero, precisamente, esas son las capacidades que atrofiamos al depender de la IA.
Un estudio del MIT Media Lab midió esto empíricamente. Durante cuatro meses, monitorearon la actividad cerebral de estudiantes escribiendo ensayos. Los usuarios de LLMs mostraron “las redes más débiles y menos distribuidas” de conectividad cerebral. Los que no usaban herramientas exhibían “las redes más fuertes y distribuidas,” mientras que los usuarios de buscadores mostraban “engagement moderado.” La actividad cognitiva literalmente “se reduce en relación con el uso de herramientas externas”.
Los investigadores lo llaman “acumulación de deuda cognitiva.” Los usuarios de LLMs “consistentemente tuvieron peor desempeño a nivel neural, lingüístico y conductual” durante esos cuatro meses. Más preocupante aún: “lucharon para citar con precisión su propio trabajo” y reportaron “la menor sensación de autoría” sobre sus ensayos. Cuando se les cambió de LLM a escritura sin herramientas, mostraron “conectividad reducida de alfa y beta, indicando sub-engagement”.
Como señalan los investigadores del paper sobre modelos de código: “A medida que los modelos de IA se vuelven centrales en los flujos creativos y técnicos, la autoría es cada vez más colaborativa.” Pero añaden una advertencia crucial: “La sobreconfianza en modelos de IA proviene de factores técnicos como los datos de entrenamiento o la arquitectura, no de autoconciencia o intención.” Los modelos pueden “reflejar patrones cognitivos humanos,” pero “sus mecanismos subyacentes permanecen fundamentalmente distintos”.
Un estudio de Microsoft va más allá, sugiriendo que esto tiene implicaciones para los llamados “agentes revisores” —ese patrón de diseño donde un LLM revisa el trabajo de otro. Si ambos sufren del efecto Dunning–Kruger, ¿quién corrige a quién? Es, como señalan, una pregunta abierta si el efecto es “cognitivo,” con una causa subyacente similar en humanos y máquinas, o si es “meramente estadístico”.
Las conclusiones son contundentes: “Mientras los LLMs ofrecen conveniencia inmediata, nuestros hallazgos destacan costos cognitivos potenciales.” Y advierten: “Estos resultados levantan preocupaciones sobre las implicaciones educativas a largo plazo de la dependencia en LLMs y subrayan la necesidad de una investigación más profunda”.
¿Qué hacer entonces? Las contramedidas que sí funcionan
Hay un camino que parece claro: “La autoconciencia es un primer paso fundamental para combatir el efecto Dunning–Kruger.” Pero no es cualquier autoconciencia: requiere “autorreflexión periódica,” “establecer objetivos medibles” y, crucialmente, “comparar percepciones iniciales con resultados.” En otras palabras, contrastar constantemente lo que creías que podías hacer con lo que realmente lograste.
Los datos del MIT revelan una estrategia que pocos mencionan explícitamente, pero que salta a la vista. Los participantes que empezaron escribiendo sin herramientas y luego usaron LLMs mantuvieron mejor actividad neural que quienes comenzaron dependiendo de la IA. Es como si el cerebro necesitara establecer primero sus propias conexiones antes de poder usar herramientas sin atrofiarse.
Los investigadores llaman a esto “fricción productiva.” Los usuarios de motores de búsqueda tradicionales mostraron “engagement moderado” —peor que escribir sin ayuda, pero significativamente mejor que usar LLMs. Sugiere un punto dulce: herramientas que ayudan, pero no reemplazan el pensamiento.
El diagrama que he mencionado antes sobre la evolución del uso de la IA propone un camino de maduración necesario. Primero, reconocer que existe esa fase inicial de “confianza y entusiasmo excesivos.” Luego, aprender activamente “los límites y riesgos” de las herramientas. Dominar la “complejidad de funcionamiento con necesidad de prompts específicos.” El objetivo final: alcanzar un “uso consciente y correcto,” donde la IA sea herramienta, no muleta.
La propuesta es desarrollar frameworks de autoevaluación transparente en la colaboración humano–IA. Se pueden emplear “agentes revisores,” pero siendo conscientes de que también pueden tener sesgos. La clave está en investigar “qué información auxiliar mejora la confiabilidad”.
Pero seamos honestos sobre lo que no funciona. Hoy parece que se omiten deliberadamente los resultados sobre declive cognitivo, mientras se promociona abiertamente el uso de estos sistemas. Tampoco podemos asumir que más tecnología resolverá el problema creado por la tecnología. Y definitivamente no podemos esperar que el propio modelo reconozca sus limitaciones: los estudios muestran que los modelos de lenguaje sufren el mismo sesgo que nosotros.
La paradoja es brutal. Para combatir el efecto necesitas precisamente las capacidades que el efecto deteriora: “cultivar la humildad y abrazar la idea del aprendizaje permanente.” Es como necesitar gafas para encontrar tus gafas. Por eso, la prevención —mantener la fricción cognitiva desde el principio— parece más efectiva que la corrección.
Tal vez la estrategia más pragmática sea alternar períodos con y sin herramientas: escribir el primer borrador a mano, resolver el problema sin consultar y luego —solo luego— usar la IA para pulir, verificar o expandir. No como primera opción, sino como revisión final.
La ironía es que, eventualmente, las IAs deberían convertirse en “herramientas efectivas y de apoyo.” Pero para llegar ahí sin perdernos en el camino, necesitamos mantener vivas precisamente las capacidades que la conveniencia nos tienta a abandonar.
¿En qué áreas has confundido la ilusión de competencia que te da una herramienta con competencia real? ¿Cuándo fue la última vez que resolviste un problema complejo sin consultar a una IA? Porque, como muestran estos estudios, tanto nosotros como la IA podríamos estar sufriendo de la misma ceguera. Y ninguno de los dos —ni humanos ni máquinas— puede ver lo que no puede ver.
La pregunta no es si usar o no usar IA. Es cómo mantener encendida la luz de nuestra propia cognición mientras navegamos en la oscuridad compartida de nuestras incompetencias mutuas.
Fuentes:
- Publicación de linkedin: https://www.linkedin.com/feed/update/urn:li:activity:7340464142627065856/?originalSubdomain=pe
- ChatGPT Down: Global Outage Sparks Panic, Frustration, and Memes on X (https://dailygalaxy.com/2024/12/chatgpt-down-global-outage-sparks-panic-frustration-on-x/)
- Comprender el efecto Dunning-Kruger: perspectivas sobre los prejuicios – Mind the Graph Blog (https://mindthegraph.com/blog/es/dunning-kruger-effect/)
- Estudio de Microsoft: Do Code Models Suffer from the Dunning-Kruger Effect? https://arxiv.org/html/2510.05457v1#S5
- Salvagno, Michele & Taccone, Fabio & Gerli, Alberto Giovanni. (2023). Artificial intelligence hallucinations. Critical Care. 27. 10.1186/s13054-023-04473-y. ResearchGate – Curva revisada del D-K aplicada a ChatGPT https://www.researchgate.net/publication/370680709_Artificial_intelligence_hallucinations
- Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task — MIT Media Lab https://www.media.mit.edu/publications/your-brain-on-chatgpt/
Razón:El DIT gestiona toda la investigación científica de la UEMC y asegura que este conocimiento llegue a la sociedad, conectando a investigadores con empresas y divulgando los hallazgos de forma comprensible para todos. El Departamento de Investigación y Transferencia tiene como función principal la puesta en marcha de una actividad investigadora organizada e integrada en la normal actividad de la UEMC, así como asegurar el despliegue de los objetivos del Plan de Investigación y el cumplimiento de las decisiones del Consejo Rector. Además, es la unidad encargada de facilitar y promover la colaboración entre la universidad y su entorno socioeconómico.
Su responsable es Francisco Javier Gutiérrez Pecharromán quien se encargará de difundir en Vuélcate todas las novedades de DIT, así como aconsejar sobre métodos, estrategias y técnicas de éxito para la transferencia de conocimiento. En este caso, se incide en que DIT coordina el programa de Prototipos orientados a mercado para convertir ideas innovadoras en soluciones reales: dit@uemc.es
Temática: Cómo las ideas nuevas no siempre tienen la acogida esperada y la importancia de detenerse a pensar las repercusiones o posibilidades que podrán tener en el futuro para aprovecharlas al máximo.
PAS: Francisco Javier Gutiérrez Pecharromán.
Especialización: Innovación y transferencia del conocimiento. TCUE. Programa de prototipos orientados a mercado.









































