Han pasado más de tres años desde que se lanzó ChatGPT, lo que desencadenó la tendencia de generación masiva de IA que pronto se extendió como la pólvora. Siguiendo los pasos de OpenAI, comenzó a surgir una generación completamente nueva de asistentes de IA, como Gemini, Copilot, Alexa+ y Copilot. Los riesgos, que incluyen violación de la privacidad, arrojar información errónea con confianza, adulación y desencadenar comportamientos riesgosos, han sido bien documentados. Un artículo de investigación del MIT a mediados de 2025 desencadenó un debate masivo: ¿ChatGPT nos está volviendo tontos? El documento fue ampliamente discutido y documenta un concepto llamado deuda cognitiva vinculado al uso del chatbot de OpenAI.
Los expertos del MIT encargaron a tres grupos que escribieran un ensayo. Uno confió únicamente en su bóveda mental, mientras que los otros dos grupos utilizaron la búsqueda web y ChatGPT para la misma tarea. La actividad cerebral se midió mediante electroencefalografía (EEG) para medir la actividad cerebral en términos de conectividad neuronal. Los participantes que utilizaron ChatGPT produjeron la conectividad más baja durante las pruebas, lo que indica una menor capacidad cognitiva y, a menudo, también se asocia con una recuperación de memoria más débil. “Durante cuatro meses, los usuarios de LLM tuvieron consistentemente un rendimiento inferior a nivel neuronal, lingüístico y conductual”, dijeron los expertos, y agregaron que hay que pagar un costo cognitivo al utilizar modelos de lenguaje grandes (LLM).
Este no es, y probablemente no será, el único hallazgo de este tipo. Una investigación publicada en Medical Research Archive concluyó que la “dependencia excesiva” de herramientas de inteligencia artificial como ChatGPT puede erosionar las habilidades cognitivas esenciales. Añadió además que necesitamos encontrar un equilibrio entre el esfuerzo humano y la máquina para preservar nuestras capacidades cognitivas naturales. “La lucha, la fricción y el esfuerzo mental son cruciales para el trabajo cognitivo de aprender, recordar y fortalecer las conexiones en el cerebro”, escribe Brian W. Stone, profesor asociado de Psicología Cognitiva en la Universidad Estatal de Boise. La conveniencia, al parecer, es un factor repetitivo que va en contra de las habilidades cognitivas, pero los daños no son necesariamente universales.
La comodidad se convierte en una espiral de dependencia excesiva
“A veces, me siento discapacitado sin IA”, dijo a SlashGear un investigador de doctorado con sede en Delhi especializado en aprendizaje y enseñanza de idiomas. “He perdido el entusiasmo por la creatividad”, añade el investigador de 28 años. Antes de su presentación de tesis en una de las mejores universidades de la India, el académico reveló que las herramientas de inteligencia artificial como ChatGPT han “reducido un 60% de mi carga de trabajo”, especialmente en el manejo de datos empíricos. No dijeron si ChatGPT realmente perjudicó su capacidad para aprender o procesar información, pero señalaron que la pura conveniencia y la amplitud de conocimientos que ofrece los han hecho “bastante dependientes” de ChatGPT.
Señalaron que el acceso gratuito a versiones pagas de herramientas de IA, gracias a su identificación académica, era un incentivo adicional para probar agentes de IA. Otro estudiante, que solicitó el anonimato, nos dice que “todos” en su clase están usando ChatGPT para las tareas, y hasta tal punto que la administración tuvo que publicar avisos sobre la no aceptación del contenido generado por ChatGPT. “Lo usé una vez y ahora es muy difícil trabajar sin él”, dijo el estudiante que cursa una maestría en trabajo social.
Una investigación de la Universidad de Lancaster mencionó que el uso de robots de inteligencia artificial como ChatGPT y Gemini no mostró ningún “efecto significativo en el resultado de aprendizaje y la participación de los estudiantes”, pero el estudio sí señaló un lado dañino diferente si se integran estos chatbots en el procedimiento de aprendizaje de los estudiantes; la excesiva dependencia de herramientas tecnológicas como los robots de inteligencia artificial para buscar información y claridad los distrajo del material real del curso impartido por expertos humanos. El informe también destacó que la calidad de las interacciones es otro factor crucial, porque la comprensión general y la retroalimentación personalizada, junto con la orientación y explicación ofrecidas por un experto humano, tienen ventaja sobre las interacciones riesgosas con un chatbot de IA.