Un nuevo e inquietante informe advierte de que los perjuicios de la IA en las escuelas superan ahora a los beneficios

Imagen de Freepik

La IA generativa irrumpió en las aulas prometiendo tutorías personalizadas, retroalimentación instantánea y alivio para los profesores sobrecargados de trabajo. Una nueva ola de investigaciones sostiene ahora que, al menos por el momento, el daño a la mente, la privacidad y la igualdad de los niños está superando esas ganancias. En lugar de impulsar silenciosamente el aprendizaje en segundo plano, la IA está remodelando la forma en que los estudiantes piensan, sienten y son supervisados, a menudo de maneras que apenas comprenden.

Veo un patrón que emerge a través de estos hallazgos: las escuelas se han apresurado con los chatbots, las herramientas de calificación y los rastreadores de comportamiento más rápido de lo que han construido barreras de protección. El resultado es un sistema educativo donde se anima a los niños a apoyarse en sistemas opacos que pueden embotar el pensamiento crítico, erosionar la confianza y endurecer las divisiones existentes.

La advertencia de Brookings: atajos que atrofian el pensamiento

En el centro de la alarma se encuentra un análisis detallado de la Brookings Institution que concluye que los riesgos de la IA en el aula superan actualmente sus beneficios. Una de las autoras del informe, la investigadora principal Rebecca Winthrop, argumenta que cuando los niños utilizan sistemas generativos que simplemente les dan la respuesta, pueden completar las tareas sin tener que enfrentarse a las ideas subyacentes. En su opinión, ese patrón convierte a la IA en un atajo que socava las mismas habilidades que se supone que las escuelas deben construir, una preocupación que se hace eco en la advertencia de Rebecca Winthrop de que los estudiantes corren el riesgo de hacer los deberes “sin aprender a pensar críticamente”.

La misma investigación, producida por el Centro para la Educación Universal de la Brookings Institution, va más allá y describe una especie de “descarga cognitiva” en la que los estudiantes entregan cada vez más trabajo mental a las máquinas. El informe compara este patrón con los cambios más comúnmente asociados con el envejecimiento del cerebro, lo que sugiere que la fuerte dependencia de las herramientas generativas podría debilitar la memoria y la resolución de problemas con el tiempo, una comparación que se expone en su descripción de un tipo de declive cognitivo. Cuando observo la rapidez con la que los estudiantes han adoptado los chatbots para todo, desde ensayos hasta pruebas matemáticas, ese riesgo ya no me parece teórico.

Consecuencias cognitivas y emocionales en el aula

Las conclusiones de Brookings se ven reforzadas por un conjunto más amplio de investigaciones que se centran en cómo la IA está remodelando la mente y la vida emocional de los niños. Una gran encuesta de estudiantes y educadores, citada en el mismo cuerpo de trabajo, enumera como una de las principales “Contras” que la IA plantea una grave amenaza para el desarrollo cognitivo, especialmente cuando reemplaza la lucha con soluciones instantáneas. Un estudiante capturó el peligro sin rodeos, explicando que si un chatbot siempre puede generar la respuesta, hay pocos incentivos para aprender a razonar a través del problema, un sentimiento destacado en la sección que comienza con Como un estudiante dijo a los investigadores.

El mismo trabajo de encuesta también señala serios riesgos para el desarrollo social y emocional, no solo para lo académico. Los investigadores informan de una profunda preocupación de que el uso intensivo de la IA, particularmente los agentes conversacionales que imitan la empatía, podría interferir con las relaciones saludables y la salud mental. La sección “Contra: La IA plantea serias amenazas al desarrollo social y emocional” de la encuesta señala que los estudiantes que se apoyan en los chatbots para obtener consuelo o consejo pueden alejarse de sus compañeros y adultos, desdibujando la línea entre la conexión humana y las respuestas programadas. A medida que las escuelas experimentan con herramientas de “bienestar” de la IA, esa advertencia debe estar al frente y en el centro.

Seguridad, vigilancia y la erosión de la confianza

Más allá de la cognición, el informe de la Brookings Institution destaca un conjunto de riesgos en torno a la seguridad, la privacidad y la confianza de los estudiantes que me parecen igual de preocupantes. Los autores advierten que los sistemas de IA desplegados en las escuelas pueden recopilar y analizar grandes cantidades de datos sobre los niños, desde sus hábitos de escritura y navegación hasta su tono emocional, a menudo sin límites claros ni transparencia. El estudio, producido por el Centro para la Educación Universal, vincula esta creciente dependencia de sistemas opacos con una menor confianza en las escuelas, especialmente cuando las familias descubren que la IA está moldeando silenciosamente las decisiones de disciplina, calificación o asesoramiento.

Una investigación separada sobre el uso de la tecnología escolar conecta la adopción de la IA directamente con el aumento de los riesgos para los estudiantes. Un análisis detallado titulado “De la mano: la adopción de la IA por parte de las escuelas está relacionada con el aumento de los riesgos para los estudiantes” rastrea cómo las herramientas que supervisan el comportamiento, señalan los mensajes “preocupantes” o predicen el fracaso académico pueden exponer a los niños a nuevos daños si están sesgadas o mal protegidas. Los autores, Elizabeth Laird, Maddy Dwyer y Hanna, argumentan que a medida que se profundiza la adopción de la IA por parte de las escuelas, también lo hacen las posibilidades de violaciones de datos, el etiquetado erróneo de los estudiantes como amenazas y los efectos escalofriantes en lo que los jóvenes se sienten seguros de decir en línea. Cuando hablo con los profesores que ahora confían en las alertas automatizadas para rastrear el “riesgo” de los estudiantes, muchos admiten que no entienden completamente cómo funcionan esos sistemas o lo que podrían pasar por alto.

Desigualdad y el panorama global

Los daños no se distribuyen de manera uniforme. Un importante informe de la UNESCO advierte que, sin salvaguardias sólidas, es probable que la IA en la educación profundice la desigualdad en lugar de cerrar las brechas. La organización advierte que los estudiantes de las escuelas con pocos recursos tienen más probabilidades de ser sometidos a sistemas experimentales o de baja calidad, mientras que los distritos más ricos pueden permitirse mejores herramientas y supervisión humana. La UNESCO pide explícitamente un marco global para que la IA no se despliegue en las aulas sin “salvaguardias deliberadamente sólidas”, una frase que ancla su advertencia de que la IA en la educación corre el riesgo de amenazar el acceso a un aprendizaje de calidad.

Los profesores de toda Europa están expresando preocupaciones similares. Un resumen de las conclusiones de Brookings que circuló entre los sindicatos de educación señala que los riesgos de la IA en la educación superan actualmente los beneficios, haciéndose eco de las preocupaciones planteadas por los educadores que ven que la tecnología amplía las divisiones entre los estudiantes que pueden navegar por ella y los que no. El documento, compartido con los sindicatos afiliados al Comité Sindical Europeo de la Educación, subraya que el nuevo informe de Brookings se alinea con la experiencia en el aula: los estudiantes con un fuerte apoyo en casa pueden utilizar la IA como un complemento, mientras que aquellos sin esa red de seguridad son más propensos a dejar que reemplace el aprendizaje real. En mi opinión, esa dinámica convierte a la IA de un potencial igualador en otro mecanismo de clasificación.

Dentro del aula: atajos, estrés y lo que las escuelas pueden hacer

Sobre el terreno, los profesores ya están viendo cómo la IA remodela el aprendizaje diario, a menudo de maneras que coinciden con estas advertencias. En un relato detallado de la práctica en el aula, el profesor de inglés Casey Cuny describe la lectura en su aula mientras los estudiantes confían silenciosamente en las herramientas generativas para redactar ensayos y responder preguntas. Un informe sobre el uso creciente de en las escuelas señala que una de las consecuencias negativas es un aumento medible de la deshonestidad académica, con un porcentaje específico de estudiantes que admiten haber utilizado la IA para completar trabajos que presentan como propios. Cuando hablo con los educadores, muchos dicen que ahora pasan más tiempo tratando de detectar las tareas escritas con IA que dando retroalimentación sobre el trabajo auténtico de los estudiantes.

La investigación de Brookings y la cobertura relacionada también apuntan a una creciente sensación de ansiedad entre los estudiantes que sienten que deben mantenerse al día con sus compañeros mejorados con la IA. Un informe tecnológico sobre Technology Jan destaca que el nuevo informe de la Brookings Institution concluye que la IA generativa podría hacer más daño que bien en las escuelas en este momento, especialmente cuando se introduce sin reglas claras. Otro resumen de las mismas conclusiones, compartido a través de la cobertura del trabajo de Brookings, subraya que los autores del informe, incluyendo a Rebecca Winthrop en Brookings, no están pidiendo una prohibición, sino un reinicio en la forma en que las escuelas abordan la IA. Yo lo interpreto como una llamada a reducir la velocidad, no a retroceder en el tiempo.

Algunas de las orientaciones más prácticas provienen de educadores y expertos en desarrollo infantil que ya están tratando de mitigar los daños. Un segmento de la radio pública compartido por NPR y Michigan Public describe pasos concretos: enseñar alfabetización digital y verificación de fuentes para que los estudiantes aprendan a verificar una respuesta de la IA, programar tiempos de “enfoque profundo” cuando los dispositivos se guardan, y ayudar a los niños a reconocer cuando están subcontratando demasiado pensamiento. El propio equipo de Brookings sugiere estrategias similares, argumentando que las escuelas deben tratar la IA como una herramienta para la práctica guiada, no como un reemplazo del esfuerzo. Si hay un camino para inclinar la balanza de nuevo hacia el beneficio, pasa por ese tipo de elecciones deliberadas en lugar de la adopción ciega.

Más de Morning Overview