La inteligencia artificial (IA) ha comenzado a tomar un papel central en el ámbito educativo, prometiendo revolucionar la forma en que se enseña y se aprende. Sin embargo, esta rápida integración no está exenta de riesgos significativos que deben ser considerados por educadores, padres y responsables de políticas educativas. Un reciente informe del Center for Democracy & Technology (CDT) ha puesto de manifiesto que, aunque la IA puede ofrecer beneficios, también está creando un ecosistema de riesgos que afecta a los estudiantes de diversas maneras. Este artículo explora los principales riesgos asociados con el uso de la IA en las aulas y cómo estos pueden impactar la experiencia educativa.
### La Omnipresencia de la IA en las Aulas
La adopción de la inteligencia artificial en las escuelas de Estados Unidos ha sido notable. Según el informe del CDT, un alto porcentaje de profesores (85%), estudiantes (86%) y padres (75%) han utilizado tecnologías basadas en IA. Sin embargo, esta familiaridad con la tecnología no se traduce necesariamente en un uso seguro y responsable. De hecho, el informe revela que el uso de la IA es más común en la vida personal de los estudiantes que en el ámbito académico, lo que sugiere una penetración cultural que va más allá de las aulas.
A medida que la IA se convierte en una herramienta común en la educación, surgen preocupaciones sobre su impacto en la privacidad y la seguridad de los datos. Los centros educativos que utilizan IA con mayor frecuencia también son los que reportan más incidentes de seguridad, como violaciones de datos y ataques de ransomware. El informe indica que el 28% de los profesores en escuelas con alto uso de IA han experimentado brechas de seguridad, en comparación con el 18% en aquellas con bajo uso. Esta situación genera una creciente preocupación entre los padres y estudiantes sobre la protección de la información personal y académica.
### Riesgos de Acoso y Dependencia Emocional
Uno de los riesgos más alarmantes identificados en el informe es el aumento del acoso y la intimidación facilitados por la tecnología. La proliferación de deepfakes y la difusión de imágenes íntimas no consentidas (NCII) son problemas que afectan especialmente a los estudiantes en entornos con alta implementación de IA. El 61% de los estudiantes en estas escuelas han oído hablar de deepfakes, y el 21% ha estado involucrado en incidentes relacionados con este tipo de manipulación. En contraste, solo el 16% y el 6% de los estudiantes en escuelas con bajo uso de IA han tenido experiencias similares.
Además, la dependencia emocional de los chatbots y otras herramientas de IA plantea un nuevo conjunto de desafíos. Muchos estudiantes utilizan chatbots no solo para obtener ayuda académica, sino también como una forma de escapar de la realidad o buscar compañía. El 59% de los estudiantes en entornos con alta IA han admitido usar un chatbot como amigo, y un 32% ha buscado establecer relaciones románticas a través de estas plataformas. Esta tendencia genera preocupación sobre el desarrollo de habilidades interpersonales esenciales, como la empatía y la resolución de conflictos, que son fundamentales en la vida real.
### Sesgos Cognitivos y Desconfianza en la Educación
Otro aspecto crítico que el informe destaca es la aparición de sesgos cognitivos en los sistemas de IA utilizados en las aulas. Los educadores han señalado que algunas herramientas de IA no tratan a los estudiantes de manera justa, lo que puede dañar la confianza en la comunidad educativa. Esta desconfianza se extiende a la percepción de los padres y estudiantes sobre la labor docente. Aproximadamente el 50% de los padres y estudiantes cuestionan si un profesor que utiliza IA realmente está cumpliendo con su función educativa.
La falta de formación adecuada para los educadores sobre cómo manejar la IA y sus implicaciones también contribuye a este problema. Menos de una cuarta parte de los profesores ha recibido directrices sobre cómo actuar ante incidentes de acoso o violaciones de privacidad, lo que deja a los estudiantes en una posición vulnerable. La necesidad de políticas claras y un debate profundo sobre el uso de la IA en la educación es más urgente que nunca.
### Cambios en la Dinámica Educativa
La integración de la IA en las aulas también está alterando la dinámica entre estudiantes y profesores. Aunque muchos educadores valoran la IA por su capacidad para reducir la carga administrativa, más de dos tercios sienten que ha complicado la verificación de la autenticidad de los trabajos de los alumnos. Esta situación ha llevado a que los estudiantes en entornos con alta IA se sientan menos conectados con sus profesores. De hecho, el 52% de los estudiantes prefieren interactuar con una IA en lugar de un docente cuando no entienden algo.
Los estudiantes con discapacidades, aunque pueden beneficiarse de la IA en la elaboración de planes educativos individualizados, también expresan preocupaciones sobre la privacidad y la equidad en el tratamiento. La recogida de datos sobre el estatus migratorio de los alumnos es otra práctica que plantea serios riesgos de privacidad, especialmente para los estudiantes inmigrantes, quienes temen que esta información pueda ser compartida con las autoridades de inmigración.
### La Necesidad de una Gestión Responsable
El informe del CDT concluye que la adopción de la inteligencia artificial en la educación avanza a un ritmo que supera la capacidad de las escuelas para gestionar sus riesgos. La falta de formación adecuada, políticas claras y un debate profundo sobre las implicaciones de la IA están dejando a la comunidad educativa, y especialmente a los estudiantes, en una posición de vulnerabilidad. Es esencial que se implementen medidas para abordar estos riesgos y garantizar que la IA se utilice de manera segura y efectiva en el ámbito educativo. La educación debe evolucionar de manera que no solo se aprovechen las ventajas de la IA, sino que también se protejan los derechos y la seguridad de todos los estudiantes.