¿Qué fue lo último que le pediste a un chatbot de IA que hiciera por ti?
Tal vez le pediste una estructura de ensayo para ayudar a responder una pregunta difícil, proporcionar un análisis profundo de un conjunto extenso de datos o para verificar si tu carta de presentación coincide con la descripción del trabajo.
A algunos expertos les preocupa que externalizar este tipo de tareas signifique que su cerebro trabaje menos e incluso pueda perjudicar su pensamiento crítico y sus habilidades para resolver problemas.
A principios de este año, el Instituto Tecnológico de Massachusetts (MIT) publicó un estudio que mostraba que las personas que usaban ChatGPT para escribir ensayos mostraron menos actividad en las redes cerebrales asociadas con el procesamiento cognitivo mientras realizaban el ejercicio.
Estas personas tampoco pudieron citar sus ensayos tan fácilmente como aquellos del estudio que no usaron un chatbot de IA.
Los investigadores dijeron que su estudio demostró «la urgente cuestión de explorar una posible disminución en las habilidades de aprendizaje».
Los 54 participantes fueron reclutados en el MIT y universidades cercanas. Su actividad cerebral se registró mediante electroencefalografía (EEG), que consiste en la colocación de electrodos en el cuero cabelludo.
Algunas de las indicaciones utilizadas por los participantes incluyeron pedirle a la IA que resumiera las preguntas del ensayo, rastreara fuentes y refinara la gramática y el estilo.
También se utilizó para generar y articular ideas, pero algunos usuarios sintieron que la IA no era muy buena en esto.
«La IA hace que sea demasiado fácil encontrar respuestas»
Por otra parte, la Universidad Carnegie Mellon y Microsoft, que opera Copilot, descubrieron que las habilidades de resolución de problemas de las personas podrían disminuir si se volvieran demasiado dependientes de la IA.
Encuestaron a 319 trabajadores administrativos que utilizaban herramientas de IA para sus trabajos al menos una vez por semana sobre cómo aplican el pensamiento crítico al usarlas.
Analizaron 900 ejemplos de tareas asignadas a la IA, que iban desde analizar datos para obtener nuevos conocimientos hasta comprobar si un trabajo cumple determinadas reglas.
El estudio encontró que una mayor confianza en la capacidad de la herramienta para realizar una tarea estaba relacionada con un «menor esfuerzo de pensamiento crítico».
Si bien GenAI puede mejorar la eficiencia de los trabajadores, puede inhibir su compromiso con el trabajo y, potencialmente, generar una dependencia excesiva a largo plazo de la herramienta y una disminución de la capacidad para resolver problemas de forma independiente.
Los escolares del Reino Unido fueron encuestados de manera similar para un estudio publicado en octubre por Oxford University Press (OUP).
Se descubrió que seis de cada diez personas sentían que la IA había impactado negativamente sus habilidades en relación con el trabajo escolar.
Entonces, con la explosión masiva del uso de IA, ¿nuestras habilidades cognitivas corren el riesgo de deteriorarse?
Klaus Vedfelt/Getty Estudiantes sentados en sus pupitres en un aula, varios de ellos con bolígrafos en la mano. Se ven cuadernos abiertos y botellas de agua sobre los pupitres. Al frente, un profesor, de pie junto a una pizarra, muestra una presentación proyectada con diagramas circulares.Klaus Vedfelt/Getty
Una encuesta de OUP descubrió que seis de cada diez escolares sentían que la IA había afectado negativamente sus habilidades.
No necesariamente, dice la Dra. Alexandra Tomescu, especialista en IA generativa de OUP que trabajó en la encuesta escolar.
«Nuestra investigación nos dice que nueve de cada diez estudiantes dicen que la IA les ha ayudado a desarrollar al menos una habilidad relacionada con el trabajo escolar, ya sea la resolución de problemas, la creatividad o la revisión.
«Pero, al mismo tiempo, aproximadamente una cuarta parte afirma que el uso de IA les facilitó demasiado el trabajo… Por lo tanto, es un panorama bastante matizado».
Añade que muchos alumnos quieren más orientación sobre cómo utilizar la IA.
ChatGPT, que tiene más de 800 millones de usuarios activos semanales según su jefe Sam Altman, ha publicado un conjunto de 100 indicaciones para estudiantes diseñadas para ayudarlos a aprovechar al máximo la tecnología.
Pero el profesor Wayne Holmes, que investiga estudios críticos sobre inteligencia artificial y educación en el University College de Londres (UCL), dice que esto no es suficiente.
Quiere que se realicen muchas más investigaciones académicas sobre los efectos de las herramientas de IA en el aprendizaje antes de animar a los alumnos y estudiantes a utilizarlas.
Nos comenta: “Hoy en día no existe evidencia independiente a gran escala de la efectividad de estas herramientas en la educación, ni de su seguridad, ni siquiera de la idea de que tengan un impacto positivo”.
¿Mejores resultados pero peor aprendizaje?
El profesor Holmes señala una investigación sobre la atrofia cognitiva, donde las capacidades y habilidades de una persona empeoran después de usar IA.
Dice que esto ha sido un problema para los radiólogos que utilizan herramientas de IA para ayudarlos a interpretar rayos X antes de diagnosticar a los pacientes.
Un estudio de la Escuela de Medicina de Harvard publicado el año pasado concluyó que la asistencia mediante IA mejoró el desempeño de algunos médicos, pero perjudicó a otros por razones que los investigadores no comprenden del todo.
Los autores pidieron que se realice más investigación sobre cómo interactúan los humanos con la IA para que podamos encontrar formas de utilizar herramientas de IA que «mejoren el rendimiento humano en lugar de perjudicarlo».
El profesor Holmes teme que los estudiantes, ya sea en la escuela o en la universidad, puedan volverse demasiado dependientes de la IA para hacer su trabajo y no desarrollar las habilidades fundamentales que proporciona una educación.
El ensayo de un estudiante podría recibir mejores calificaciones gracias a la ayuda de la IA, pero la cuestión es si terminarán comprendiendo menos.
Como dice el profesor Holmes: «Sus resultados son mejores, pero en realidad su aprendizaje es peor».
Jayna Devani, quien dirige la educación internacional en OpenAI (la empresa propietaria de ChatGPT) y ayudó a asegurar un acuerdo con la Universidad de Oxford , dice que la empresa está «muy consciente de este debate en este momento».