Cristina Zato

Cristina Zato

Senior Consultant / Advisor en Govertis, parte de Telefónica Tech

Ciberseguridad
AI & Data
Prácticas de IA prohibidas en el Reglamento de Inteligencia Artificial (RIA)
A pesar de los innumerables beneficios que puede brindar la Inteligencia Artificial (IA) en numerosos sectores de la sociedad, también puede ser utilizada de forma indebida o con fines maliciosos. Por esta razón se consideró esencial establecer una regulación específica que prohibiese aquellas prácticas o usos de sistemas de IA que resulten especialmente perjudiciales y contrarios a los valores fundamentales de la Unión Europea (UE). En el presente artículo, detallaremos las prácticas de IA prohibidas conforme al Reglamento de Inteligencia Artificial (RIA), como mencionamos de manera somera en nuestro primer análisis sobre el RIA titulado “Una introducción al Reglamento de Inteligencia Artificial (RIA)”. El Reglamento europeo de Inteligencia Artificial (RIA) tiene como objetivo proporcionar un marco regulatorio que aborde el uso indebido y malicioso de sistemas de IA. Además, la decisión de establecer prohibiciones ante determinadas prácticas de IA también resulta fundamentada en la necesidad de adoptar un enfoque que se ajuste a los riesgos asociados con los sistemas de IA. El objetivo, por tanto, trata de proporcionar y garantizar un marco regulatorio que aborde de manera precisa las potenciales amenazas. Específicamente, el artículo 5 del RIA, incluido en el Capítulo II, enumera las prácticas de inteligencia artificial prohibidas, que incluye las siguientes: 1. Sistemas de IA que utilicen técnicas subliminales o engañosas para alterar de manera sustancial el comportamiento de una persona (Artículo 5.1.a) Estos sistemas se emplean con el propósito de alterar de manera sustancial el comportamiento de una persona o colectivo de personas, mermando de manera apreciable su capacidad para tomar una decisión informada y haciendo que tomen una decisión que de otro modo no habrían tomado, de un modo que provoque, o sea razonablemente probable que provoque, perjuicios considerables a esa persona, a otra persona o a un colectivo de personas. Estos estímulos pueden tratarse de estímulos auditivos, visuales, u otras técnicas manipulativas que resulten imperceptibles para la persona. En este sentido, es relevante mencionar la Directiva 2005/29/CE, de 11 de mayo de 2005, relativa a las prácticas comerciales desleales de las empresas en sus relaciones con los consumidores, que prohíbe las prácticas comerciales desleales que puedan ocasionar perjuicios económicos a los consumidores, entendiéndolas como: Aquellas que son contrarias a los requisitos de la diligencia profesional. Aquellas que distorsionan o pueden distorsionar de manera sustancial el comportamiento económico del consumidor o grupo al que se dirige la práctica. Prácticas comerciales relativas a las acciones u omisiones engañosas. Prácticas comerciales agresivas que mermen o puedan mermar de forma importante la libertad de elección o conducta del consumidor, producidas mediante acoso, coacción e influencia indebida. ✅ Todas estas prácticas señaladas no deberán afectar a las prácticas legales en el contexto de un tratamiento médico, como pudiera ser el tratamiento psicológico de una enfermedad mental o la rehabilitación física. 2. Sistemas de IA que mediante la explotación de alguna vulnerabilidad de una persona física o colectivo busquen o causen la alteración de manera sustancial el comportamiento de dicha persona (Artículo 5.1.b) En relación a las vulnerabilidades de una persona o colectivo de personas se citan la edad, discapacidad, o una situación social o económica específica, cuya explotación busque o altere de manera sustancial el comportamiento de dicha persona de un modo que provoque, o sea razonablemente probable que provoque, perjuicios considerables a dicha persona o a otra. 3. Sistemas de puntuación social (Artículo 5.1.c) Resultarán prohibidos aquellos sistemas cuyo objetivo sea la evaluación o clasificación de la fiabilidad de una persona o colectivos de personas en función de su comportamiento social o características de su personalidad conocidas, inferidas o predichas conocidas, inferidas o predichas, que den lugar a alguna de las siguientes situaciones: Trato perjudicial o desfavorable en contextos sociales que no guarden relación con el contexto donde se generaron o recabaron los datos originalmente. Trato perjudicial o desfavorable que sea injustificado o desproporcionado en relación con la gravedad de su comportamiento social. 4. Sistemas de categorización biométrica basados en datos biométricos de las personas físicas con la finalidad de deducir o inferir categorías especiales de datos (Artículo 5.1.g) Estos sistemas están destinados a incluir a las personas físicas en categorías específicas en función de sus datos biométricos, para deducir o inferir categorías especiales de datos según el artículo 4, apartado 14 del Reglamento General de Protección de Datos (RGPD). Se exceptúa de la prohibición de este tipo de sistemas de IA, el etiquetado o filtrado de conjuntos de datos biométricos adquiridos lícitamente basado en datos biométricos o la categorización de datos biométricos en el ámbito de la garantía del cumplimiento del Derecho. El propio RIA recuerda la aplicación del artículo 9 RGPD en lo que respecta al tratamiento de datos biométricos con fines distintos de la garantía del cumplimiento del Derecho. Recordemos que el artículo 9 del RGPD establece una prohibición general de tratamiento de categorías especiales de datos, aunque dicha prohibición puede levantarse en determinadas circunstancias cuando se cumplan ciertos criterios específicos, 5. Sistemas de identificación biométrica remota 'en tiempo real' en espacios de acceso público (Artículo 5.1.h) Estos sistemas resultan invasivos para los derechos y libertades de las personas y provocan la sensación de que se está bajo una vigilancia constante. Además, pudieran conllevar imprecisiones técnicas que diesen lugar a resultados sesgados. No obstante, dicha prohibición cuenta con varias excepciones: Cuando se esté realizando una búsqueda selectiva de posibles víctimas concretas de un determinado delito (secuestro, trata de seres humanos o explotación sexual de seres humanos), incluidas personas desaparecidas. Para prevenir amenazas específicas, importantes e inminentes para la vida o seguridad de las personas o de una amenaza real y actual o real y previsible de un atentado terrorista. Para la detección, localización, identificación o enjuiciamiento de la persona que ha cometido o se sospecha que ha cometido alguno de los delitos recogidos en el Anexo II (como por ejemplo, terrorismo, trata de seres humanos, secuestro, detención ilegal o toma de rehenes). Además, estos sistemas deberán cumplir salvaguardias y condiciones (Artículo 5.2) necesarias y proporcionadas en relación con el uso, sobre todo en lo relativo a limitaciones temporales, geográficas y personales, estando supeditado su uso a la concesión de una autorización previa. Entre estos requisitos, se indica que solo se autorizará si la autoridad policial ha completado una evaluación de impacto sobre los derechos fundamentales. ◾ Sobre esta prohibición, parte de la comunidad científica ha cuestionado la amplitud de las excepciones hasta el punto de que se puedan convertir en reglas, llegando a constituir un sistema de alto riesgo más que una prohibición. 6. Sistemas de evaluación de riesgos y elaboración de perfiles predictivos de delincuencia (Artículo 5.1.d) Se prohíben los sistemas de IA para realizar evaluaciones de riesgos de personas físicas con el fin de valorar o predecir el riesgo de que una persona física cometa un delito basándose únicamente en la elaboración del perfil de una persona física o en la evaluación de los rasgos y características de su personalidad. No obstante, ello no resultará de aplicación en los supuestos en los que dichos sistemas se utilicen para apoyar a la evaluación humana de la implicación de una persona en una actividad delictiva que ya se base en hechos objetivos y verificables directamente relacionados con una actividad delictiva ✅ Un ejemplo de estos sistemas de IA, similar al concepto de los sistemas de crédito social, lo encontramos en China, donde se está implementando este tipo de sistemas con el objetivo de predecir la futura comisión de crímenes. 7. Sistemas de IA que creen o amplíen bases de datos de reconocimiento facial (Artículo 5.1.e) Se prohíben aquellos sistemas de IA que tengan como fin específico crear o ampliar bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales de internet o de circuitos cerrados de televisión. La necesidad de regular dichos sistemas se fundamenta, como mencionábamos anteriormente, en el temor a una vigilancia masiva que pudiera ser percibida por las personas, lo que podría resultar en graves violaciones de los derechos fundamentales. 8. Sistemas de IA mediante los que se puedan inferir emociones (Artículo 5.1. f) Se prohíbe el uso de sistemas de IA cuya finalidad sea inferir las emociones de una persona física en los lugares de trabajo y en los centros educativos. Por tanto, debemos concluir que el resto de sistemas de reconocimiento de emociones, quedarían categorizados como sistemas de alto riesgo. Estos sistemas tienen el potencial de ser altamente invasivos para los derechos y libertades de las personas afectadas, lo que podría resultar en un trato perjudicial hacia determinadas personas o colectivos. Sin embargo, se exceptúan de esta prohibición los sistemas de IA con fines médicos o de seguridad. Finalmente, indicar que la infracción de cualquiera de estas prohibiciones se sancionará (Artículo 99.3) con multas administrativas de hasta 35 000 000 de euros o, si el infractor es una empresa, de hasta el 7 % de su volumen de negocios mundial total correspondiente al ejercicio financiero anterior, si esta cuantía fuese superior. Después de haber analizado las prácticas de IA prohibidas por el RIA, cuando el texto comience a ser de aplicación veremos la aplicación práctica de las mismas y su efectividad para lograr el respeto de los derechos fundamentales y valores de la Unión Europea. Para ello, resultará necesaria una vigilancia constante y una evaluación continua de las políticas y regulaciones en materia de IA, tal y como explicaremos en las próximas publicaciones del blog. ◾ MÁS DE ESTA SERIE Cyber Security AI of Things El ámbito de aplicación del Reglamento de Inteligencia Artificial (RIA) 16 de abril de 2024 Cyber Security AI of Things Los sistemas de IA de Alto Riesgo en el Reglamento de Inteligencia Artificial (RIA) 9 de mayo de 2024 Imagen de rawpixel.com / Freepik.
2 de mayo de 2024