Recientemente, un incidente en un instituto de Puertollano, Ciudad Real, ha puesto de manifiesto los peligros del uso de la inteligencia artificial generativa en entornos educativos. Un grupo de estudiantes fue investigado por crear y difundir fotomontajes de contenido sexual utilizando herramientas de IA, lo que ha generado una creciente preocupación sobre la seguridad de los datos personales de menores en el ámbito escolar. La Policía Nacional ha identificado a 61 víctimas, de las cuales al menos 22 son menores de edad, lo que resalta la urgencia de abordar este problema.
La inteligencia artificial generativa, que permite crear imágenes, videos y audios manipulados a partir de datos reales, plantea serios riesgos para la protección de datos de los menores. La creación de contenido sexualizado o humillante sin el consentimiento de las víctimas no solo vulnera su derecho a la propia imagen, sino que también puede dar lugar a consecuencias psicológicas y sociales graves, como el ciberacoso y la extorsión. La situación se complica aún más con el uso de herramientas como Grok o ChatGPT en entornos educativos, que pueden exponer a los menores a contenido inapropiado y utilizar sus datos personales sin autorización.
### Riesgos de la IA Generativa en la Protección de Datos de Menores
Uno de los principales riesgos asociados con la inteligencia artificial generativa es la posibilidad de que se utilicen datos personales de menores para entrenar modelos sin el consentimiento adecuado. Esto incluye fotografías y grabaciones que pueden ser recopiladas de redes sociales o compartidas por terceros. Según expertos en protección de datos, el uso de información sin autorización infringe el principio de licitud y transparencia del Reglamento General de Protección de Datos (RGPD). En el caso de los menores, el tratamiento de sus datos solo puede basarse en su consentimiento si tienen más de 14 años; de lo contrario, se requiere la autorización de sus padres o tutores.
Además, las herramientas de IA más populares entre los jóvenes, como Grok, carecen de las restricciones necesarias para proteger a los menores. Por ejemplo, el propio creador de la herramienta ha señalado que puede ser utilizada para iniciar relaciones sentimentales o sexuales, lo que plantea serias dudas sobre su idoneidad en un entorno educativo. Otro aspecto preocupante es que, una vez que se genera y difunde contenido a través de IA, es prácticamente imposible eliminarlo por completo, lo que entra en conflicto con el derecho al olvido y la gestión de datos personales.
La complejidad de las tecnologías generativas también dificulta la auditoría y el cumplimiento de las normativas de protección de datos. Determinar quién es responsable del tratamiento de datos se convierte en un desafío, lo que puede llevar a una falta de responsabilidad proactiva por parte de las instituciones educativas.
### Estrategias para Mejorar la Ciberseguridad en Centros Educativos
Ante estos desafíos, los centros educativos deben adoptar un enfoque proactivo para proteger los datos personales de sus alumnos y profesores. La implementación de un Plan de Protección de Datos y Seguridad Digital es esencial. Este plan debe alinearse con el RGPD y la Ley Orgánica de Protección de Datos y Garantía de los Derechos Digitales (LOPDGDD), estableciendo protocolos claros sobre el uso seguro de dispositivos y plataformas educativas.
Una figura clave en este proceso es el Delegado de Protección de Datos (DPO), cuya designación es obligatoria para los centros públicos y altamente recomendable para los privados. El DPO es responsable de garantizar el cumplimiento de las normativas de protección de datos y debe estar capacitado para abordar los riesgos asociados con la inteligencia artificial y la ciberseguridad.
Además, los centros educativos deben invertir en infraestructuras tecnológicas que aseguren la protección de datos. Esto incluye el uso de plataformas educativas verificadas, la implementación de redes Wi-Fi seguras con cifrado fuerte, y la actualización constante de sistemas operativos y antivirus. La autenticación de dos factores y la realización de copias de seguridad son prácticas recomendadas para minimizar el riesgo de filtraciones de datos.
La formación continua del personal docente es otro aspecto crucial. Los educadores deben estar capacitados en buenas prácticas digitales, detección de amenazas como el phishing y la gestión segura de plataformas de aula virtual. Sin embargo, es importante reconocer que no se puede cargar toda la responsabilidad sobre los docentes. Por ello, es fundamental contar con el apoyo de consultoras especializadas en protección de datos, que puedan proporcionar la formación y las herramientas necesarias para garantizar la seguridad en el entorno educativo.
Las consultoras LOPD, como Grupo Atico34, ofrecen soluciones integrales para la protección de datos en centros educativos, asegurando el cumplimiento normativo y la formación adecuada del personal. En un contexto donde la inteligencia artificial está en constante evolución, es vital que las instituciones educativas se adapten a estos cambios y fortalezcan su enfoque en la ciberseguridad y la protección de datos.