La UE establece que los sistemas de reconocimiento facial de imágenes a gran escala constituyen un riesgo inaceptable
El nuevo Reglamento Europeo de Inteligencia Artificial, la norma común destinada a regular la puesta en el mercado de todas las tecnología que vayan a ser usadas en al Unión Europea, ya está en vigor y establece un conjunto de usos prohibidos de la IA, que serán de aplicación en los primeros meses de 2025.
Para proteger los derechos fundamentales de las personas, el nuevo Reglamento de IA establece un sistema de clasificación de riesgo dividido en cuatro niveles, basado en la seguridad de los productos y el riesgo potencial que pueda tener cada sistema de IA.
RIESGO INACEPTABLE. En el nivel de mayor riesgo, se sitúan aquellos sistemas de IA que son una clara amenaza para los derechos fundamentales de las personas, como los sistemas de rastreo indiscriminado de imágenes extraídas de la web con fines de vigilancia masiva.
En la actualidad, existen diferente aplicaciones que permiten la búsqueda de imágenes basadas en tecnología de reconocimiento facial, hasta el punto de que a partir de una imagen de una persona, se puede localizar otras fotografías, enlaces a sus redes sociales, y cualquier otro detalle de su vida on line.
CUÁNDO. Con la aplicación del Reglamento, estas prácticas pasarán a estar prohibidas muy pronto; aunque la mayoría de las normas no serán de plena aplicación hasta el 2 de agosto de 2026, algunas obligaciones, como las relativas a sistemas de IA con riesgo inaceptable se aplicarán ya al cabo de 6 meses desde la fecha de aprobación del Reglamento, que entró en vigor el 1 de agosto de 2024.
EXCEPCIONES. En el Reglamento de IA solo se legitima el uso de este tipo de sistemas de vigilancia masiva para casos excepcionales, como la búsqueda de víctimas potenciales de delitos; la prevención de amenazas sobre infraestructuras críticas, prevención de ataques terroristas; o la persecución de crímenes graves.
Recordar también que las obligaciones contenidas en el nuevo Reglamento de IA no solo se destina a las tecnología aplicadas en la Unión Europea, sino también a aquellas que, por sus resultados, podrían tener impacto en los ciudadanos europeos.
En DITIGIA somos especialistas en Derecho digital y nuevas tecnologías, puede contactar con nosotros a través de este formulario.
OTROS SISTEMAS DE INTELIGENCIA ARTIFICIAL PROHIBIDOS:
- SOCIAL SCORING. Sistemas de puntuación de la población; algunos gobiernos, como el chino, han creado sistemas que permiten calificar a sus ciudadanos en función de su comportamiento social.
- FAKE NEWS. Utilización de técnicas subliminales o engañosas para manipular a las personas, como las fake news o engaños masivos destinados a influir en la intención de voto o en comportamientos sociales.
- MANIPULACIÓN DEL COMPORTAMIENTO. Sistemas basados en IA para anular la libre voluntad, como, por ejemplo, juguetes que utilizan asistencia vocal para provocar el comportamiento peligroso en los menores.