La AEPD establece que las imágenes generadas con IA también son datos personales y multa con 2.000 euros al responsable
LA AGENCIA ESPAÑOLA DE PROTECCIÓN DE DATOS (AEDP) ha sido la primera autoridad de control de protección de datos europea en sancionar la difusión de imágenes íntimas creadas por Inteligencia Artificial, al entender que éstas representan a personas identificables y, por tanto, su tratamiento está sujeto a la normativa de protección de datos personales.
UN CASO MEDIÁTICO Fue uno de los primeros casos de deeepfake sexual; en el año 2023, una treintena de alumnas de un colegio de Almendradejo (Badajoz), descubrieron que alguien había tomado sus fotografías de las redes sociales para, por medio de una aplicación de Inteligencia Artificial, generar imágenes nuevas en las que aparecían desnudas y distribuirlas por dos grupos de whatasapp.
INDEMNIZACIÓN Los autores, también menores y compañeros de clase de las afectadas, fueron condenados en julio de 2024 a un año de libertad vigilada por el Juzgado de Menores de Badajoz. En octubre de 2025, la Agencia de Protección de Datos, sanciona, además, al pago de una multa de 2.000 euros a los padres de uno de los responsables, como responsables civiles directos, por una infracción de la normativa de protección de datos.
DITIGIA somos abogados expertos en derecho digital, prevención y defensa de ciberdelincuencia, protección del Derecho a la intimidad, el honor y la propia imagen.
| LAS CLAVES >UN NUEVO TIPO DE BULLYING la utilización de imágenes falsas o trucadas elaboradas con Inteligencia Artificial también es maltrato en el ámbito escolar. Ver más en nuestro Instagram. >EXENCIÓN DE RESPONSABILIDAD A LA APP DE IA la titularidad de la responsabilidad recae exclusivamente en quien decide los fines y medios del tratamiento (art. 4.7 RGPD). La herramienta técnica no determina la ilicitud; lo hace el uso. > OBLIGACIÓN DE LOS CENTROS ESCOLARES de implementar protocolos de prevención de ciberacoso (art. 34 LO 8/2021), que se pueden incluir en los programas de Compliance de las organizaciones. > NECESIDAD DE UNA ESTRATEGIA DE DEFENSA INTEGRAL Al subsumir el deepfake en la normativa de protección de datos, se afianza la necesidad de estrategias que combinen el derecho penal, nuevas tecnologías y protección de datos, desde Ditigia recomendamos: · Auditorías de riesgo en el uso de herramientas de IA generativa. · Protocolos de control internos para la prevención y detección de irregularidades. · Formación especializada para menores y educadores sobre riesgos y derechos digitales. |
