Códigos de conducta en el Reglamento de Inteligencia Artificial de la Unión Europea

2 de septiembre de 2024

En la intersección entre derecho y tecnología, la autorregulación, en especial, los códigos de conducta juegan un papel destacado en el marco normativo de la inteligencia artificial (IA).

Este artículo explora la características y contenido de estos códigos, destacando su importancia para proveedores y responsables del despliegue de sistemas de IA.

Definición de códigos de conducta

Los códigos de conducta son mecanismos de autorregulación voluntaria adoptados por entidades, instituciones y organizaciones para demostrar cumplimiento normativo en diversos sectores.

El Reglamento de Inteligencia Artificial de la UE (RIA)[1] no proporciona una definición, pero el Comité Europeo de Protección de Datos (EDPB) en sus Directrices 1/2019[2] los describe como herramientas de rendición de cuentas voluntaria [para la protección de datos].

En el contexto del RIA, los códigos de conducta constituyen unos mecanismos de autorregulación por los cuales los proveedores de sistemas de IA que no sean de alto riesgo aplican voluntariamente requisitos obligatorios de sistemas de alto riesgo y, éstos y los responsables del despliegue de todos los sistemas de IA, de alto riesgo o no, pueden adoptar compromisos voluntarios adicionales en aspectos como sostenibilidad, diseño, accesibilidad y diversidad.

Características de los códigos de conducta voluntarios

Entre las principales características de los códigos de conducta voluntarios se pueden mencionar las siguientes:

  • La Oficina de IA y los Estados Miembros fomentan y facilitan la creación de estos códigos, especialmente atendiendo a las necesidades de las pymes y start-ups.
  • Pueden ser elaborados por proveedores individuales, organizaciones representativas o ambos, y su aplicación es voluntaria, permitiendo la adopción de requisitos obligatorios para sistemas de alto riesgo y otros requisitos específicos para aquellos sistemas que no lo sean.
  • Los códigos deben basarse en objetivos claros e indicadores clave de rendimiento (KPI).
  • Se desarrollan de manera inclusiva, involucrando empresas, organizaciones civiles, académicas, de investigación, sindicatos y defensores del consumidor.
  • Pueden abarcar uno o varios sistemas de IA, teniendo en cuenta la similitud de la finalidad prevista de los sistemas pertinentes.

Contenido de los códigos de conducta voluntarios

El contenido de los códigos varía dependiendo de si son elaborados por proveedores de sistemas de IA distintos a los de alto riesgo, de sistemas de IA de alto riesgo, o por responsables del despliegue de estos sistemas:

1. Proveedores de Sistemas de IA distintos a los de alto riesgo

  • Pueden crear códigos de conducta que incluyan el cumplimiento voluntario de algunos o todos los requisitos aplicables a los sistemas de alto riesgo.
  • También se les promueve incluir compromisos adicionales específicos como, la sostenibilidad medioambiental, el diseño, la accesibilidad y la diversidad.

2. Proveedores de sistemas de IA de alto riesgo y responsables del despliegue

  • Pueden elaborar códigos de conducta que incluyan la adopción voluntaria de compromisos adicionales específicos.

Entre los elementos que constituyen los compromisos adicionales se encuentran, entre otros, pero no exclusivamente, los siguientes:

  • Los principios previstos en las Directrices Éticas para una IA fiable elaboradas por el Grupo Independiente de Expertos de Alto Nivel sobre IA: supervisión humana, seguridad técnica, privacidad, transparencia, diversidad y equidad.
  • Sostenibilidad medioambiental.
  • Alfabetización en IA.
  • Diseño inclusivo y diverso.
  • Accesibilidad para personas con discapacidad y evaluación de impacto sobre grupos vulnerables.

Los proveedores de sistemas de IA de alto riesgo están obligados a cumplir con los requisitos de la Sección 2, Capítulo III del RIA indistintamente si los mencionan o incluyen a modo informativo en sus códigos de conducta.

Evaluación y revisión de los códigos de conducta

A más tardar el 2 de agosto de 2028 y, posteriormente, cada tres años, la Comisión evaluará la incidencia y la eficacia de los códigos de conducta voluntarios por lo que respecta a promover la aplicación de los requisitos establecidos en el Capítulo III, Sección 2, a sistemas de IA que no sean de alto riesgo y, en su caso, de otros requisitos adicionales aplicables a los sistemas de IA que no sean sistemas de IA de alto riesgo, como, por ejemplo, requisitos relativos a la sostenibilidad medioambiental.

Comparación con los códigos de conducta del Reglamento General de Protección de Datos (RGPD)

Criterios y Contenidos

El Reglamento General de Protección de Datos[3] (RGPD) requiere que los códigos respondan a necesidades sectoriales específicas y establezcan mecanismos de supervisión, mientras que el RIA promueve la implementación de requisitos voluntarios que demuestren transparencia y compromiso con el reglamento.

Aprobación y Supervisión

El RGPD requiere aprobación y supervisión de autoridades competentes, mientras que los códigos del RIA no requieren aprobación previa. Si bien no consiste en una supervisión, la Comisión entre sus funciones tendrá la de evaluar periódicamente la incidencia y eficacia de los códigos de conducta del RIA.

Sanciones

El RGPD contempla medidas correctivas y sanciones por incumplimiento, mientras que el RIA no establece sanciones específicas, dejando espacio para la implementación por los Estados Miembros del régimen de sanciones.

Código internacional de conducta para sistemas avanzados de IA del Proceso de Hiroshima

El 30 de octubre de 2023 los países que componen el G7 llegaron, en el marco del "Proceso de Hiroshima" a un acuerdo sobre los principios rectores y un código de conducta voluntario para sistemas avanzados de IA.

El Código tiene por objeto promover una IA segura, protegida y fiable en todo el mundo y busca proporcionar orientaciones voluntarias para las acciones de las organizaciones que desarrollan los sistemas de IA más avanzados, incluidos los modelos básicos más avanzados y los sistemas de IA generativos.

Este documento consta de una lista no exhaustiva de acciones basadas en los Principios de la OCDE en IA que guardan relación con los requisitos del Art. 95 del RIA y que podrían complementar a los códigos de conducta voluntarios que pudieran elaborar los proveedores y, en su medida, los responsables del despliegue.

Conclusión

Los códigos de conducta voluntarios son claves para garantizar el desarrollo y uso responsable de la IA.

Los códigos de conducta voluntarios ofrecen un marco flexible que permite a proveedores y responsables del despliegue demostrar su compromiso con la transparencia, la ética y la sostenibilidad, construyendo confianza con la sociedad en general y diferenciándose en el mercado.

________

[1] REGLAMENTO (UE) 2024/1689 DEL PARLAMENTO EUROPEO Y DEL CONSEJO de 13 de junio de 2024 por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) n.o 300/2008, (UE) n.o 167/2013, (UE) n.o 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial)

[2] EDPB. Directrices 1/2019 sobre códigos de conducta y organismos de supervisión con arreglo al Reglamento (UE) 2016/679. 4 de junio de 2019

[3] REGLAMENTO (UE) 2016/679 DEL PARLAMENTO EUROPEO Y DEL CONSEJO de 27 de abril de 2016 relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos)

Los modelos de IA de uso general en el Reglamento de Inteligencia Artificial

Imagen: rawpixel.com / Freepik.