Los modelos de IA de uso general en el Reglamento de Inteligencia Artificial

24 de junio de 2024

En el marco del Reglamento de Inteligencia Artificial (RIA), la finalidad de un sistema de IA es uno de los elementos más importantes. Así, como hemos visto en otros artículos de este blog, de acuerdo con el RIA la finalidad de un sistema puede determinar si se clasifica como de alto riesgo o si directamente el uso de ese sistema está prohibido.

Precisamente por esa especial relevancia que el RIA otorga a la finalidad de un sistema de IA, llama la atención la existencia de sistemas que el RIA cataloga como de “uso general”, es decir, sistemas basados en un modelo de IA de uso general y que pueden servir para multitud fines (incluyendo su integración en otros sistemas de IA aguas abajo) y sin obedecer a un propósito específico.

RIA clasifica de "uso general" modelos de IA que pueden aplicarse a una amplia gama de propósitos, sin estar limitados a una función específica.

Si, conforme al RIA, la finalidad específica de un sistema de IA es uno de los elementos principales para determinar el riesgo que presenta dicho sistema, ¿qué papel tienen en el RIA aquellos sistemas que no tienen una finalidad concreta, sino una general? Este artículo busca responder a esta pregunta y examinar cómo el Reglamento aborda este concreto uso de la inteligencia artificial.

Los sistemas y modelos de uso general

Como se ha mencionado antes, en términos generales, un sistema de IA de uso general es un sistema que abarca una gran variedad de usos potenciales, contemplados o no originalmente por los creadores del sistema.

Este tipo de sistemas están basados en modelo de IA de uso general, un tipo de modelo de IA que se utiliza para adaptarse a multitud de fines y aplicaciones en etapas posteriores, incluidas aquellas para los que el modelo no ha sido específicamente desarrollado y entrenado. Estos modelos pueden ser componentes esenciales para un sistema de IA pero que, en ningún caso, pueden constituir un sistema de IA como tal.

Riesgo sistémico: el enfoque al riesgo en los modelos de uso general

Como se adelantaba anteriormente, estos modelos de uso general no obedecen una finalidad específica, por lo que limitarlos sólo a una categoría de riesgos en función de una única finalidad es prácticamente imposible.

Por ello, el RIA hace una distinción entre aquellos modelos de IA de uso general que suponen un riesgo sistémico y aquellos que no, disponiendo obligaciones adicionales a los que presentan un riesgo sistémico. De acuerdo con el Considerando 110 de RIA, como riesgo sistémico podrían entenderse (entre otros):

  • Efectos negativos reales o razonablemente previsibles en relación con accidentes graves, perturbaciones de sectores críticos y consecuencias graves para la salud y la seguridad públicas.
  • Efectos negativos reales o razonablemente previsibles sobre los procesos democráticos, la seguridad pública y seguridad económica.
  • La difusión de contenidos ilegales, falsos o discriminatorios.

Conforme al RIA, se considera que un modelo de IA de uso general presenta riesgo sistémico cuando se cumplen alguna de las siguientes condiciones:

a) El modelo tiene capacidades de gran impacto, entendiéndose como tal aquellas capacidades que igualan o exceden las capacidades registradas en los modelos de IA de uso general más avanzados. En este sentido, el RIA presume que existen capacidades de gran impacto cuando la cantidad de cálculo utilizada para su entrenamiento sea mayor que 10^25 FLOPS.

b) Cuando la Comisión Europea lo determine de oficio o tras recibir una alerta cualificada de que un modelo de IA de uso general puede tener capacidades de alto impacto.

Obligaciones de los proveedores de modelos de IA de uso general

Todos aquellos proveedores de modelos de IA de uso general -tengan o no riesgo sistémico- deberán cumplir las siguientes obligaciones:

1. Elaborar y mantener actualizada:

  • Documentación técnica del modelo -con al menos la información detallada en el anexo XI del RIA- para poder facilitarla a la Oficina de IA y/o a las autoridades competentes.
  • Información para aquellos proveedores de sistemas de IA que quieran integrar el modelo en sus sistemas, que contenga al menos el contenido del anexo XII del RIA.

2. Establecer directrices para cumplir la legislación aplicable en materia de derechos de autor. En particular, deberán respetar las reservas de derechos (mecanismos opt-out) expresadas por los titulares de las obras protegidas por derechos de autor.

3. Poner a disposición del público un resumen del contenido utilizado para el entrenamiento del modelo IA.

4. Cooperar con la Comisión y las autoridades competentes.

Obligaciones de los proveedores de modelos de IA de uso general con riesgo sistémico

Además de las obligaciones mencionadas anteriormente para todos los proveedores de modelos de IA de uso general, aquellos proveedores de modelos que presenten un riesgo sistémico deberán cumplir con las siguientes obligaciones:

1. Presentar en la documentación técnica del modelo que se proporcione a la Oficina de IA y a las autoridades nacionales competentes si lo solicitan la siguiente información adicional:

  • Una descripción detallada de las estrategias de evaluación y sus resultados.
  • Cuando proceda, una descripción detallada de las medidas adoptadas para realizar pruebas adversarias internas o externas (como la utilización de “equipos rojos” o red teams, en inglés) y adaptaciones de los modelos.
  • Cuando proceda, una descripción detallada de la arquitectura del sistema.

2. Evaluar los modelos de conformidad con protocolos y herramientas normalizados que reflejen el estado de la técnica.

3. Evaluar el origen y reducir los posibles riesgos sistémicos a escala de la Unión que puedan derivarse del desarrollo, la introducción en el mercado o el uso de modelos de uso general con riesgo sistémico.

4. Vigilar, documentar y comunicar sin demora indebida a la Oficina de IA y, en su caso, a las autoridades nacionales competentes, la información pertinente sobre incidentes graves y las posibles medidas correctoras para resolverlos.

5. Velar por que se establezca un nivel adecuado de protección de la ciberseguridad para el modelo de uso general con riesgo sistémico y la infraestructura física del modelo.

Códigos de buenas prácticas para proveedores de modelos de IA de uso general

Como se puede apreciar, los proveedores de modelos de IA de uso general —especialmente aquellos con riesgo sistémico— tienen una carga de obligaciones significativa. Para aliviarla, el RIA establece que la Oficina de IA de la Comisión facilite la elaboración, revisión y adaptación de códigos de buenas prácticas, contando con las distintas perspectivas de las autoridades nacionales competentes, los propios proveedores de modelos de IA de uso general y otros expertos en la materia.

RIA dicta que la Oficina de IA de la Comisión debe apoyar la creación, revisión y modificación de códigos de conducta integrando diversos puntos de vista.

Una vez aprobados estos códigos de buenas prácticas, los proveedores de modelos de estos modelos de IA pueden adherirse a ellos para demostrar el cumplimiento de las obligaciones del RIA. Con carácter general, estos códigos deberán estar finalizados a más tardar 9 meses después de la entrada en vigor del RIA.

Conclusión

Los modelos de IA de uso general son uno de los elementos de mayor relevancia del RIA. El enfoque basado en riesgos que empapa la totalidad del RIA se ve igualmente plasmado a la hora de regular este tipo de modelos, tal y como refleja la distinción de obligaciones entre aquellos modelos que presentan riesgo sistémico y los que no.

En cualquier caso, la adhesión a códigos de buenas prácticas puede facilitar a los proveedores de estos modelos el cumplimiento con las obligaciones que establece el Reglamento.

El ámbito de aplicación del Reglamento de Inteligencia Artificial (RIA)

Imagen: Benzoix / Freepik.