Los sistemas de IA de Alto Riesgo en el Reglamento de Inteligencia Artificial (RIA)
En este nuevo artículo de la serie que estamos publicando nos centraremos en los Sistemas de IA de alto riesgo en el contexto del Reglamento Euopeo de Inteligencia Artificial (RIA). Como ya adelantábamos en anteriores entregas, este Reglamento establece un marco regulatorio específico para aquellos sistemas de IA que representan un alto riesgo con impacto en ámbitos como la salud, la seguridad y los derechos fundamentales de las personas. Todo ello con el propósito de salvaguardar los valores y principios de la Unión. El Reglamento de Inteligencia Artificial (RIA) vela por los derechos de los ciudadanos de la Unión Europea, al mismo tiempo que orienta a las entidades hacia el uso responsable y seguro de la Inteligencia Artificial. El objetivo de esta publicación es enunciar y describir aquellos aspectos que esta regulación novedosa ha considera como Alto Riesgo y sus principales implicaciones. Condiciones para la Clasificación de Alto Riesgo en IA Conforme al artículo 6 del RIA, la clasificación de un sistema de inteligencia artificial como alto riesgo obedece a condiciones que suponen que nos encontremos ante dos posibilidades: Que se trate de un componente o producto de seguridad: el sistema debe estar diseñado para ser utilizado como componente de seguridad en productos que están especificados en la legislación de la UE (Anexo I), o que el propio sistema de IA sea uno de dichos productos. Esto abarca una amplia gama de productos, desde juguetes hasta dispositivos médicos, todos los cuales están sujetos a normativas de seguridad estrictas. Además, el sistema de IA deberá someterse a una evaluación de la conformidad realizada por un organismo independiente para su introducción en el mercado o puesta en servicio, según los actos legislativos de armonización de la Unión enumerados en el Anexo I (art 6.1). O que se trate de alguno de los sistemas de IA de alto riesgo contemplados en el Anexo III (Art 6.2). Por otro lado, en el caso de que un sistema de IA recaiga dentro de uno de los ámbitos del Anexo III, podrá no ser considerado de alto riesgo si su influencia en la toma de decisiones no es sustancial y se cumple alguna o varias de las siguientes condiciones: el sistema lleva a cabo una tarea de procedimiento limitada, mejora actividades humanas previas, detecta patrones de decisión o desviación sin reemplazar la evaluación humana, o lleva a cabo tareas preparatorias (Art 6.3). Delimitando los ámbitos de Alto Riesgo Los sistemas de IA clasificados como alto riesgo se distinguen, no solo por su capacidad técnica avanzada, sino también por las profundas implicaciones que tienen en la sociedad y en la vida individual: Autonomía y complejidad: estos sistemas pueden tomar decisiones y ejecutar acciones de manera independiente, lo cual es especialmente crítico en sectores como la medicina y la justicia, donde los errores pueden tener consecuencias severas. Impacto social y personal: pueden afectar significativamente los derechos fundamentales, como la privacidad, la igualdad y la no discriminación. Además, tienen el potencial de perpetuar o introducir sesgos, impactando desproporcionadamente a grupos vulnerables. Seguridad en infraestructuras críticas: Su aplicación en sectores esenciales como la energía y el transporte puede resultar en fallos o manipulaciones que provoquen daños graves y extensos. Por ello, estos sistemas deben operar dentro de un conjunto estricto de normas éticas y legales y de seguridad, diseñadas para proteger a la sociedad y fomentar un ambiente de confianza y seguridad en el desarrollo tecnológico. El Reglamento contempla que los sistemas enumerados en el Anexo III que cubren los siguientes ámbitos, se consideran de alto riesgo: Biometría Identificación biométrica remota: Sistemas que identifican a personas a distancia, pudiendo ser utilizados en múltiples contextos y representar riesgos para la privacidad. Categorización biométrica: Sistemas que clasifican a individuos según atributos sensibles, lo cual puede conducir a discriminación o tratamientos injustos. Reconocimiento de emociones: Implica analizar expresiones faciales o modulaciones de voz para inferir estados emocionales, pudiendo interpretarse de manera errónea o mal utilizada. Infraestructuras críticas Utilización en sistemas de seguridad para la gestión de infraestructuras críticas como energía, transporte y suministros básicos, donde un fallo o manipulación puede implicar graves consecuencias. Educación y formación profesional Admisión y distribución en centros educativos: Decisiones que afectan el futuro académico y profesional de los individuos. Evaluación de resultados de aprendizaje: Puede influir significativamente en la trayectoria educativa y profesional. Seguimiento de comportamientos durante exámenes: Vigilancia que puede invadir la privacidad del estudiante. Empleo, gestión de trabajadores y acceso al autoempleo Sistemas usados en contratación y evaluación de empleados, lo que implica un impacto directo en las oportunidades laborales y condiciones de trabajo. Acceso a servicios privados esenciales y públicos Evaluación para la admisibilidad a servicios públicos esenciales, lo cual es crucial ya que afecta el acceso a necesidades básicas como salud y bienestar. Evaluación de solvencia y riesgos para seguros, que puede determinar la accesibilidad a servicios financieros y seguros. Aplicación de la ley Herramientas utilizadas por las autoridades para evaluar riesgos de criminalidad o comportamientos, lo que afecta directamente los derechos civiles y puede llevar a vigilancia o discriminación. Migración, asilo y gestión del control fronterizo Sistemas utilizados para evaluar riesgos en la gestión de fronteras y asilo, afectando significativamente a individuos en situaciones vulnerables. Administración de justicia y procesos democráticos Apoyo en la interpretación de hechos y leyes, influenciando potencialmente decisiones judiciales. Influencia en elecciones o referendos, lo que podría alterar la integridad de procesos democráticos. Anticipación y flexibilidad: claves para enfrentar la rápida evolución de la IA Por su parte, el Artículo 7 del RIA ilustra una evolución proactiva y adaptable del Derecho frente a la rápida evolución tecnológica en el ámbito de la IA, una esfera donde tradicionalmente el desarrollo legislativo ha luchado por mantener el ritmo con los avances tecnológicos. Este precepto establece un mecanismo dinámico para la revisión y actualización del citado Anexo III, concediendo a la Comisión Europea la potestad de modificar su contenido mediante la adición de sistemas que se ajusten a los criterios preestablecidos de riesgo y ámbito de aplicación, así como la eliminación de aquellos que ya no representen un riesgo considerable. La adición de nuevos sistemas a este listado considerará si dichos sistemas están destinados a ser utilizados en ámbitos ya contemplados en el Anexo III y si presentan un riesgo de perjuicio para la salud y la seguridad o de tener repercusiones negativas en los derechos fundamentales, que sea equivalente o mayor al de los sistemas previamente reconocidos como de alto riesgo. La inclusión de nuevos sistemas de IA en la lista de Alto Riesgo tendrá en cuenta si suponen un riesgo para la salud y seguridad o un impacto negativo en los derechos fundamentales. Requisitos específicos para los Sistemas de IA de Alto Riesgo Con carácter general, los sistemas de alto riesgo deben cumplir con los requisitos específicos de la normativa, considerando sus finalidades previstas y el estado actual de la tecnología en IA. En los artículos 8 a 49 se desarrollan las principales obligaciones que estos sistemas deben cumplir: Gestión de riesgos: deben establecer y mantener un sistema de gestión de riesgos que aborde aquellos conocidos y previsibles a la salud, seguridad o derechos fundamentales. Este sistema debe ser un proceso continuo y revisado periódicamente. Datos y gobernanza de datos: aquellos sistemas que utilizan técnicas de entrenamiento de modelos con datos deben desarrollarse a partir de conjuntos de datos que cumplan con altos estándares de calidad y gestionarse adecuadamente para evitar sesgos y errores. Documentación técnica: debe elaborarse y mantenerse actualizada una documentación técnica que demuestre el cumplimiento de los requisitos normativos y sea accesible para las autoridades competentes. Conservación de registros: los sistemas deben permitir el registro técnico de eventos significativos para asegurar la trazabilidad y la gestión de riesgos. Transparencia y comunicación: deben diseñarse para funcionar con un nivel adecuado de transparencia y venir acompañados de instrucciones claras y completas para su uso seguro y efectivo. Vigilancia humana: deben incluir medidas para ser supervisados efectivamente por humanos para minimizar riesgos asociados con su uso. Precisión, solidez y ciberseguridad: deben diseñarse para alcanzar niveles adecuados de precisión y robustez y ser resistentes a manipulaciones externas. Obligaciones de los proveedores: los proveedores de estos sistemas deben asegurarse de que los sistemas cumplen con todos los requisitos y regulaciones, incluyendo el establecimiento de un sistema de gestión de la calidad y el cumplimiento de los procedimientos de evaluación de la conformidad, antes de su introducción en el mercado. Cooperación con autoridades: los proveedores deben cooperar con las autoridades competentes para garantizar la conformidad y gestionar cualquier incidente relacionado con los sistemas de IA de alto riesgo. Los proveedores tienen un papel muy importante en relación a los sistemas de alto riesgo, pero también los responsables del despliegue, ya que tendrán adoptar las medidas técnicas y organizativas adecuadas para garantizar que utilizan dichos sistemas con arreglo a las instrucciones de uso, deberán encomendar la supervisión humana a personas físicas que tengan la competencia, la formación y la autoridad necesarias y, en el caso de tener control sobre los datos, deberán asegurarse de que los datos de entrada sean pertinentes y suficientemente representativos para la finalidad prevista del sistema de IA de alto riesgo. Asimismo, los responsables del despliegue tendrán una labor fundamental en cuanto a la vigilancia del funcionamiento del sistema de IA de alto riesgo. De hecho una de las principales obligaciones que tienen estos, que se ha introducido en el RIA en la versión del parlamento es la obligación de realización de evaluaciones de impacto en derechos fundamentales, cuestión que trataremos en otro artículo próximo de esta serie. Conclusión El Reglamento Europeo de Inteligencia Artificial es una pieza clave en el marco de responsabilidad y seguridad en la era digital, proporcionando un enfoque sistemático para mitigar los posibles impactos que presentan los sistemas de IA de alto riesgo, estableciendo obligaciones para todos los integrantes de la cadena de valor. Con su visión proactiva y adaptable, no solo protege los intereses de la ciudadanía, sino que también guía a las organizaciones hacia un futuro más seguro y ético. ◾ MÁS DE ESTA SERIE Cyber Security AI of Things Una introducción al Reglamento de Inteligencia Artificial (RIA) 8 de abril de 2024 Cyber Security AI of Things El ámbito de aplicación del Reglamento de Inteligencia Artificial (RIA) 16 de abril de 2024 Cyber Security AI of Things Prácticas de IA prohibidas en el Reglamento de Inteligencia Artificial (RIA) 2 de mayo de 2024 Imagen de Freepik.
9 de mayo de 2024