Eduardo Oliveros

Eduardo Oliveros

Senior GRC Consultant en Govertis, parte de Telefónica Tech.

Ciberseguridad
AI & Data
Los modelos de IA de uso general en el Reglamento de Inteligencia Artificial
En el marco del Reglamento de Inteligencia Artificial (RIA), la finalidad de un sistema de IA es uno de los elementos más importantes. Así, como hemos visto en otros artículos de este blog, de acuerdo con el RIA la finalidad de un sistema puede determinar si se clasifica como de alto riesgo o si directamente el uso de ese sistema está prohibido. Precisamente por esa especial relevancia que el RIA otorga a la finalidad de un sistema de IA, llama la atención la existencia de sistemas que el RIA cataloga como de “uso general”, es decir, sistemas basados en un modelo de IA de uso general y que pueden servir para multitud fines (incluyendo su integración en otros sistemas de IA aguas abajo) y sin obedecer a un propósito específico. RIA clasifica de "uso general" modelos de IA que pueden aplicarse a una amplia gama de propósitos, sin estar limitados a una función específica. Si, conforme al RIA, la finalidad específica de un sistema de IA es uno de los elementos principales para determinar el riesgo que presenta dicho sistema, ¿qué papel tienen en el RIA aquellos sistemas que no tienen una finalidad concreta, sino una general? Este artículo busca responder a esta pregunta y examinar cómo el Reglamento aborda este concreto uso de la inteligencia artificial. Los sistemas y modelos de uso general Como se ha mencionado antes, en términos generales, un sistema de IA de uso general es un sistema que abarca una gran variedad de usos potenciales, contemplados o no originalmente por los creadores del sistema. Este tipo de sistemas están basados en modelo de IA de uso general, un tipo de modelo de IA que se utiliza para adaptarse a multitud de fines y aplicaciones en etapas posteriores, incluidas aquellas para los que el modelo no ha sido específicamente desarrollado y entrenado. Estos modelos pueden ser componentes esenciales para un sistema de IA pero que, en ningún caso, pueden constituir un sistema de IA como tal. ◾ Como ejemplo de estos conceptos podemos, ChatGPT de OpenAI utiliza el como modelo GPT-4, siendo éste un modelo de IA de uso general. Por su parte, ChatGPT en sí mismo sería un sistema de IA de uso general al tratarse de un sistema de IA basado en un modelo de IA de uso general. Riesgo sistémico: el enfoque al riesgo en los modelos de uso general Como se adelantaba anteriormente, estos modelos de uso general no obedecen una finalidad específica, por lo que limitarlos sólo a una categoría de riesgos en función de una única finalidad es prácticamente imposible. Por ello, el RIA hace una distinción entre aquellos modelos de IA de uso general que suponen un riesgo sistémico y aquellos que no, disponiendo obligaciones adicionales a los que presentan un riesgo sistémico. De acuerdo con el Considerando 110 de RIA, como riesgo sistémico podrían entenderse (entre otros): Efectos negativos reales o razonablemente previsibles en relación con accidentes graves, perturbaciones de sectores críticos y consecuencias graves para la salud y la seguridad públicas. Efectos negativos reales o razonablemente previsibles sobre los procesos democráticos, la seguridad pública y seguridad económica. La difusión de contenidos ilegales, falsos o discriminatorios. Conforme al RIA, se considera que un modelo de IA de uso general presenta riesgo sistémico cuando se cumplen alguna de las siguientes condiciones: a) El modelo tiene capacidades de gran impacto, entendiéndose como tal aquellas capacidades que igualan o exceden las capacidades registradas en los modelos de IA de uso general más avanzados. En este sentido, el RIA presume que existen capacidades de gran impacto cuando la cantidad de cálculo utilizada para su entrenamiento sea mayor que 10^25 FLOPS. ✅ En estos casos, el proveedor del modelo deberá notificarlo a la Comisión Europea en el plazo de dos semanas, aunque durante este periodo podrá presentar argumentos (que podrán ser desestimados por la Comisión) para demostrar que, excepcionalmente, el modelo no presenta un riesgo sistémico a pesar de tener capacidades de gran impacto. b) Cuando la Comisión Europea lo determine de oficio o tras recibir una alerta cualificada de que un modelo de IA de uso general puede tener capacidades de alto impacto. ✅ Pasados al menos seis meses desde la designación de un modelo como de riesgo sistémico por la Comisión, el proveedor podrá enviar una solicitud motivada a la Comisión para que vuelva a evaluar si el modelo debe seguir considerándose como de riesgo sistémico. Si la Comisión desestima la solicitud, no podrá volver a enviar otra hasta que hayan transcurrido seis meses. Obligaciones de los proveedores de modelos de IA de uso general Todos aquellos proveedores de modelos de IA de uso general -tengan o no riesgo sistémico- deberán cumplir las siguientes obligaciones: 1. Elaborar y mantener actualizada: Documentación técnica del modelo -con al menos la información detallada en el anexo XI del RIA- para poder facilitarla a la Oficina de IA y/o a las autoridades competentes. Información para aquellos proveedores de sistemas de IA que quieran integrar el modelo en sus sistemas, que contenga al menos el contenido del anexo XII del RIA. 2. Establecer directrices para cumplir la legislación aplicable en materia de derechos de autor. En particular, deberán respetar las reservas de derechos (mecanismos opt-out) expresadas por los titulares de las obras protegidas por derechos de autor. 3. Poner a disposición del público un resumen del contenido utilizado para el entrenamiento del modelo IA. 4. Cooperar con la Comisión y las autoridades competentes. Obligaciones de los proveedores de modelos de IA de uso general con riesgo sistémico Además de las obligaciones mencionadas anteriormente para todos los proveedores de modelos de IA de uso general, aquellos proveedores de modelos que presenten un riesgo sistémico deberán cumplir con las siguientes obligaciones: 1. Presentar en la documentación técnica del modelo que se proporcione a la Oficina de IA y a las autoridades nacionales competentes si lo solicitan la siguiente información adicional: Una descripción detallada de las estrategias de evaluación y sus resultados. Cuando proceda, una descripción detallada de las medidas adoptadas para realizar pruebas adversarias internas o externas (como la utilización de “equipos rojos” o red teams, en inglés) y adaptaciones de los modelos. Cuando proceda, una descripción detallada de la arquitectura del sistema. 2. Evaluar los modelos de conformidad con protocolos y herramientas normalizados que reflejen el estado de la técnica. 3. Evaluar el origen y reducir los posibles riesgos sistémicos a escala de la Unión que puedan derivarse del desarrollo, la introducción en el mercado o el uso de modelos de uso general con riesgo sistémico. 4. Vigilar, documentar y comunicar sin demora indebida a la Oficina de IA y, en su caso, a las autoridades nacionales competentes, la información pertinente sobre incidentes graves y las posibles medidas correctoras para resolverlos. 5. Velar por que se establezca un nivel adecuado de protección de la ciberseguridad para el modelo de uso general con riesgo sistémico y la infraestructura física del modelo. Códigos de buenas prácticas para proveedores de modelos de IA de uso general Como se puede apreciar, los proveedores de modelos de IA de uso general —especialmente aquellos con riesgo sistémico— tienen una carga de obligaciones significativa. Para aliviarla, el RIA establece que la Oficina de IA de la Comisión facilite la elaboración, revisión y adaptación de códigos de buenas prácticas, contando con las distintas perspectivas de las autoridades nacionales competentes, los propios proveedores de modelos de IA de uso general y otros expertos en la materia. RIA dicta que la Oficina de IA de la Comisión debe apoyar la creación, revisión y modificación de códigos de conducta integrando diversos puntos de vista. Una vez aprobados estos códigos de buenas prácticas, los proveedores de modelos de estos modelos de IA pueden adherirse a ellos para demostrar el cumplimiento de las obligaciones del RIA. Con carácter general, estos códigos deberán estar finalizados a más tardar 9 meses después de la entrada en vigor del RIA. Conclusión Los modelos de IA de uso general son uno de los elementos de mayor relevancia del RIA. El enfoque basado en riesgos que empapa la totalidad del RIA se ve igualmente plasmado a la hora de regular este tipo de modelos, tal y como refleja la distinción de obligaciones entre aquellos modelos que presentan riesgo sistémico y los que no. En cualquier caso, la adhesión a códigos de buenas prácticas puede facilitar a los proveedores de estos modelos el cumplimiento con las obligaciones que establece el Reglamento. Ciberseguridad IA & Data El ámbito de aplicación del Reglamento de Inteligencia Artificial (RIA) 16 de abril de 2024 Imagen: Benzoix / Freepik.
24 de junio de 2024
Ciberseguridad
AI & Data
El ámbito de aplicación del Reglamento de Inteligencia Artificial (RIA)
Con este artículo continuamos la serie de publicaciones que iniciamos la semana pasada donde abordamos diferentes cuestiones relativas al Reglamento de Inteligencia Artificial (RIA). Tras su aprobación, esta norma supondrá la creación de nuevas obligaciones legales diferenciadas para las distintas personas involucradas en la cadena de valor de un sistema de IA. El propósito de esta publicación será examinar con detalle el marco de aplicación del RIA, identificando los distintos roles que pueden tener los sujetos obligados por el RIA y en qué situaciones resultan aplicables las obligaciones que establece esta norma. En términos generales el ámbito de aplicación del RIA es bastante amplio, abarcando multitud de sujetos (que podrán estar ubicados tanto dentro como fuera de la UE), pero también se prevén determinadas excepciones, tales como cuestiones de seguridad nacional o para apoyar la innovación, respetar la libertad de ciencia y no socavar actividades de investigación y desarrollo (Considerando 25, RIA.) En términos generales el ámbito de aplicación del RIA es bastante amplio, pero también prevé excepciones. ¿Qué roles pueden desempeñar los sujetos obligados por el RIA? De cara entender adecuadamente el ámbito de aplicación del RIA, conviene que en primer lugar identifiquemos cuáles son los diferentes roles que pueden adoptar los sujetos obligados bajo este Reglamento, que podrán ser personas tanto físicas como jurídicas. Entre estos sujetos, distinguimos: Proveedor: Aquellas personas que desarrollen un sistema de IA o modelo de IA de uso general para introducirlo en el mercado de la Unión Europea bajo su propio nombre o marca comercial. Como ejemplo, al distribuir su sistema de IA ChatGPT, OpenAI actúa como proveedor en el marco del RIA. Responsable del despliegue: Toda persona que utiliza un sistema de IA bajo su propia autoridad en el ámbito profesional. Así, toda empresa que incorpore un sistema de IA en sus procesos actuaría como responsable del despliegue de dicho sistema. Representante autorizado: Toda persona ubicada en el territorio de la UE que haya sido designada -siempre que acepte previamente dicha designación- por un proveedor ubicado fuera de la UE para que cumpla las obligaciones y lleve a cabo las acciones exigidas por el RIA en su nombre. Se trata, en todo caso, de un concepto similar al que se incluye en otros reglamentos europeos como el Reglamento General de Protección de Datos. Importador: Aquella persona establecida dentro del territorio de la UE que comercializa o pone en servicio un sistema de IA bajo el nombre o marca comercial de otra persona establecida fuera del territorio europeo. Distribuidor: Aquellas personas, distintas del proveedor y del importador, que comercialicen un sistema de IA en el mercado de la UE. Proveedor posterior: Aquellos proveedores que comercializan o ponen en servicio un sistema de IA que incorpora un modelo de IA de uso general, con independencia de que sea un modelo propio o de un tercero. ✅ La referencia a un “Operador” es genérica, ya que constituye un término paraguas que engloba, además de los términos anteriormente definidos, también al fabricante del sistema o modelo de IA. Así, en el contexto del RIA, cualquiera de estas personas puede verse referida como “operador”. ¿En qué situaciones resulta de aplicación el RIA? Teniendo en cuenta estos distintos roles que pueden desempeñar las personas en la cadena de valor de un sistema de IA, el Reglamento aplicará a: Los proveedores que comercialicen sistemas de IA o modelos de IA de uso general en la UE, con independencia de si dichos proveedores están establecidos o ubicados en la Unión o en un tercer país. Los responsables del despliegue de sistemas de IA ubicados en la UE. Los proveedores y responsables del despliegue de sistemas de IA que estén ubicados fuera de la UE, cuando la información de salida generada por el sistema de IA se utilice en la UE. Los importadores y distribuidores de sistemas de IA. Los fabricantes de productos que introduzcan en el mercado o pongan en servicio un sistema de IA junto con su producto y con su propio nombre o marca comercial. Los representantes autorizados de los proveedores que no estén establecidos en la Unión, Las personas afectadas que estén ubicadas en la UE. Como podemos observar, de manera similar al Reglamento General de Protección de Datos (RGPD), el ámbito de aplicación del RIA tiene un alcance extraterritorial al resultar aplicable a proveedores y responsables del despliegue ubicados fuera de Europa cuando comercialicen sistemas de IA o modelos de IA de uso general en territorio europeo o cuando el output generado por sus sistemas de IA se utilice en dicho territorio. ¿Existen excepciones al ámbito de aplicación del RIA? El RIA establece también una serie de excepciones que contemplan en qué circunstancias específicas las obligaciones del RIA no serán aplicables. Dichas excepciones son las siguientes: Las obligaciones previstas en el RIA no serán aplicables a las competencias de los Estados miembros en materia de seguridad nacional o en el caso de sistemas de IA utilizados exclusivamente para fines militares, de defensa o de seguridad nacional. Tampoco resultará aplicable cuando los outputs de sistemas de IA ubicados fuera de la UE sean utilizados para estos fines. Tampoco serán de aplicación para autoridades públicas de terceros países u organizaciones internacionales que utilicen sistemas de IA en el marco de acuerdos internacionales para la aplicación de la ley y cooperación judicial con la UE o los Estados miembros, siempre que dichas autoridades u organizaciones implementen garantías adecuadas para salvaguardar las libertades y derechos fundamentales de las personas. RIA no afectará a la aplicación de las disposiciones relativas a la responsabilidad de los prestadores de servicios intermediarios conforme al Reglamento de Servicios Digitales. Tampoco afectará a sistemas o modelos de IA, incluyendo sus outputs, que hayan sido específicamente desarrollados y puestos en servicio con el solo propósito del desarrollo y la investigación científica. RIA no aplicará a ninguna actividad relacionada con la investigación, desarrollo, prueba o actividad relativa a sistemas o modelos de IA con anterioridad a que se pongan en servicio o en el mercado, con la excepción de las pruebas en condiciones reales contempladas en el propio RIA. Las obligaciones del RIA no aplicarán a aquellos responsables del despliegue que sean personas físicas utilizando sistemas de IA para actividades personales no profesionales. Las obligaciones del RIA no serán aplicables a sistemas de IA gratuitos y de código abierto, salvo que sean de alto riesgo, sistemas prohibidos conforme al Capítulo II del RIA, sistemas de alto riesgo según el Capítulo III, o se encuentren entre los del Capítulo IV del RIA (sistemas que generen ultrafalsificaciones, sistemas de reconocimiento emocional o categorización biométrica, chatbots). Salvo en las excepciones dispuestas, las obligaciones del RIA no aplican a sistemas de IA gratuitos y de código abierto. ¿Y qué ocurre con otras obligaciones normativas que también pueden resultar aplicables? Ya que los sistemas de IA pueden destinarse a multitud de finalidades, no es difícil imaginarse que las obligaciones del RIA deberán de aplicarse de forma armonizada junto con otras obligaciones que también puedan resultar aplicables, constituyendo esta aplicación conjunta de varios marcos normativos todo un reto. De esta forma, el RIA aclara que las obligaciones en materia de protección de datos, de secreto de las comunicaciones, de protección al consumidor o de seguridad de productos establecidas en la normativa de la UE serán aplicables junto y sin perjuicio de las obligaciones establecidas en el RIA. Como vemos, si buscamos cumplir con las obligaciones que dispone el RIA, la pregunta que nos deberíamos hacer en primer lugar es si recaemos en el ámbito de aplicación tanto subjetivo como objetivo. Sin embargo, comprender la totalidad del marco de aplicación del RIA puede resultar una tarea difícil, especialmente teniendo en cuenta la amplia extensión material y territorial del ámbito de aplicación del Reglamento y la complejidad que esta norma en sí misma presenta. Cyber Security AI of Things IA Generativa como parte de la estrategia y liderazgo empresarial 20 de septiembre de 2023 Imagen de rawpixel.com / Freepik.
16 de abril de 2024