Un análisis del enfoque de 360° de gobernanza para la IA Generativa
La Inteligencia Artificial Generativa (GenAI) está transformando el panorama tecnológico, desarrollando grandes avances en creatividad, innovación, eficiencia y productividad. Sin embargo, también plantea desafíos y retos éticos, normativos, cibernéticos y sociales que exigen soluciones urgentes con enfoque en la gobernanza, tal y como señala el Foro Económico Mundial (WEF), en su informe 'La gobernanza en la era de la IA generativa: un enfoque de 360º para una política y una regulación resiliente'.
Dada la magnitud y complejidad de los desafíos en inteligencia artificial, los sistemas GenAI como los modelos lingüísticos y la tecnología de deep learning pueden transformar industrias pero también conllevan riesgos. He observado falsificaciones avanzadas y sesgos en algoritmos, que pueden ser mal utilizados y causar daños generalizados.
WEF destaca que reconoce estos riesgos, enfatizando en que los marcos legales y regulatorios van a la zaga del rápido desarrollo de la IA. Además, subraya la importancia de desarrollar y articular políticas que puedan mitigar los riesgos como adaptarse a los futuros avances. Por tanto, debemos preguntarnos,
¿Puede la velocidad actual de la evolución normativa mantener el ritmo del crecimiento exponencial de las tecnologías?
Desafíos éticos y normativos en la era de la IA generativa
La IA generativa cuenta con capacidades únicas, donde vemos la creación de textos, audiovisuales y medios muy convincentes que suponen un cambio significativo relacionado con las anteriores tecnologías de IA, centradas en la automatización y el reconocimiento de patrones.
A diferencia de los anteriores avances, la IA generativa puede producir contenidos totalmente nuevos, lo que complica la verificación y validación de cuestiones de autoría y propiedad intelectual. Teniendo en cuenta que sus resultados son menos predecibles, lo que aumenta las posibilidades de uso indebido o consecuencias no deseadas, como la difusión de información errónea o la creación de contenidos nocivos.
Nos enfrentamos a riesgos sin precedentes por la capacidad de los sistemas GenAI de crear contenidos hiperrealistas, deepfakes y medios sintéticos. Esto presenta desafíos únicos para verificar su autenticidad e idoneidad, alimentando la desinformación y manipulando la opinión pública. Además, desde el punto de vista ético, estos modelos suelen reflejar los sesgos inherentes a los datos con los que son entrenados.
Además, no se puede quedar la privacidad, consentimiento y el monitoreo, sobre todo cuando la inteligencia artificial se usa para suplantación de identidad o la generación de contenidos; ocasionando una agravación de estos riesgos por la opacidad con la que estos modelos toman decisiones, lo que limita la rendición de cuentas.
La capacidad la GenAI añade nuevas capas de complejidad a la gobernanza, confianza, ética y privacidad.
Esta publicación del WEF, tiene la misión de abarcar todos los aspectos centralizados en la gobernanza de la IA a través de la participación de todas las partes interesadas, desde un enfoque multidimensional y sectorial. Sus pilares son:
- Desarrollo ético de la IA.
- Transparencia y responsabilidad.
- Coordinación global.
- Resiliencia y adaptabilidad.
Los esfuerzos de estos pilares están centralizados en su exhaustividad, pero su éxito dependerá de la colaboración de todas las partes interesadas, lo que lleva a preguntarnos ¿Puede existir la duda en la viabilidad de lograr un consenso mundial sobre la regulación de IA?
Impulsores clave en el desarrollo ético y normativo
No obstante, aunque es esencial incluir a las partes interesadas en la gobernanza de la IA para garantizar la inclusión, esto no asegura completamente que sean escuchadas las comunidades infrarrepresentadas. Observamos desequilibrios de poder, representación desigual y falta de acceso a los espacios de toma de decisiones que suelen marginar estas voces.
Por tanto, si no se realizan esfuerzos deliberados para centrar estas comunidades mediante cuotas, participación local, incidencia y visibilidad en foros, persiste el riesgo de que los actores influyentes tal es el caso de las empresas y gobiernos dominen los debates, perpetuando aun así las desigualdades y brechas existentes.
Este modelo 360º, su fuerza reside en un enfoque global, pero existe el riesgo de ampliar demasiado el marco. Teniendo en cuenta de que al intentar abarcar todos los aspectos de la gobernanza IA desarrollo ético, transparencia, coordinación global, etc., sin un orden de prioridades claro y coherente, el modelo puede tener dificultades para su aplicación.
Considerando que los amplios modelos pueden diluir su enfoque, dificultando el establecimiento de responsabilidades y la consecución de sus resultados tangibles que impactan de manera directa e indirecta. Para evitar estas cuestiones, el marco debe delinear políticas específicas y ejecutables y garantizar la existencia de mecanismos de supervisión eficaces para evitar la ineficacia burocrática.
Se ha podido ver como los sistemas regulatorios actuales no están adaptados a la rápida evolución velocidad de IA; lo que sugiere como enfoques innovadores para sus pruebas y experimentos sin comprometer la seguridad los sandboxes regulatorios normativos y los marcos políticos adaptativos.
La idea de una gobernanza ágil es atractiva; asegurar que los reguladores estén preparados para enfrentar los riesgos presentes y futuros de la IA requiere una inversión constante y colaboración internacional.
Los entornos regulatorios asilados
Los entornos regulatorios asilados ofrecen un espacio controlado para probar tecnologías de IA sin restricciones de normativas plenas, haciéndola un habilitador para que florezca la innovación al tiempo que se puedan conocer y controlar riesgos potenciales. No obstante, su eficacia depende de límites y mecanismos de monitoreo claramente definidos.
Ahora bien, desde espacios bien estructurados y aislados se puede lograr un equilibrio que permita la experimentación al tiempo que se abordan las preocupaciones sobre la ética, transparencia, privacidad y ciberriesgos. Pero sin un monitoreo riguroso, se corre el riesgo de convertir estos espacios en indulgentes donde se ignoran las normas y prácticas en favor de un progreso sin control.
Además, los marcos de gobernanza flexibles son esenciales para gestionar y adaptar la rápida evolución de la IA, considerando que su adaptación permite a los responsables políticos ajustar la normativa a medida que surgen nuevas capacidades de IA, a la vez promoviendo la innovación y manteniendo al mismo tiempo las normas de seguridad. Por tanto, el reto consiste en evitar que estos marcos se conviertan en capas burocráticas ineficaces.
Muy importante es que, para seguir siendo eficaces, estos modelos deben dar prioridad a la agilidad y la capacidad de respuesta, con garantía de no ralentizar la toma de decisiones ni que creen una complejidad normativa innecesaria.
El riesgo es real, está presente; pero puede mitigarse con procesos racionalizados y una supervisión transparente.
Gobernanza de la IA basada en principios éticos
El WEF aboga firmemente por fundamentar la gobernanza de la IA en principios éticos, especialmente con enfoque en las garantías y libertades en torno a los derechos humanos, privacidad de los datos y la no discriminación.
Además, advierte del posible mal uso de las tecnologías de IA, como la vigilancia o la manipulación. Desde mi experiencia en la gestión y desarrollo de modelos de IA para Ciberseguridad y riesgos la Unión Europea (UE) está dando pasos firmes y un hecho es el Reglamento de Inteligencia Artificial (RIA).
El informe destaca que la transparencia es esencial, y un gran desafío aún muy importante hacer que el funcionamiento de los modelos de IA sofisticados sea comprensible para los no expertos. Por tanto, exigir responsabilidades cuando algo va mal, sea a través de la jurisprudencia o por organismos de control y supervisión ética, sigue siendo un obstáculo relevante.
Las garantías de transparencia y rendición de cuentas en los sistemas de IA, especialmente en modelos complejos como las redes neuronales, es un desafío impactante debido a su naturaleza y contexto de caja negra. Los organismos de regulación pueden exigir una documentación más clara de los procesos de toma de decisiones de IA, exigir que se expliquen los resultados de los modelos e insistir para que usen modelos interpretables cuando sea factible.
Aquí las auditorias de los sistemas de IA juegan un rol protagónico, junto con la notificación obligatoria de los fallos, incidentes y sesgos de la IA que puede ayudar a imponer la rendición de cuentas. Hemos visto como los modelos de código abierto o las revisiones externas también pueden fomentar la transparencia y permitir a expertos inspeccionar u comprender el funcionamiento interno de nuestros sistemas de IA.
Desde mi experiencia he podido ver los sectores en los que hay mucho en juego, como la sanidad y la aplicación de la ley, donde deben existir mecanismos solidos que garanticen la rendición de cuentas de los sistemas de IA cuando fallen o no volvemos a la UE con RIA donde este marco jurídico establece y exige a los desarrolladores, operadores y otras partes interesadas de la IA demostrar que sus sistemas cumplen con los requisitos previstos donde prevalece la ética, privacidad, riesgos e imparcialidad.
Nuestros sistemas de IA tienen que garantizar que se comportan como se espera de ellos al igual como lo espera la regulación más allá de nuestros intereses.
Las organizaciones deben ir aplicando políticas de uso y responsabilidad de IA teniendo en cuenta los daños que pueden provocar los sistemas de IA en aras de garantizar que las partes se acaten a lo que establece el marco regulatorio. Es muy esencial disponer de mecanismos claros de recurso para los efectores por errores de IA, como vías de apelación o revisiones por supervisión humana.
El WEF plantea desde una dimensión socioeconómica los efectos son perturbadores de la IA, especialmente entorno al desplazamiento de puestos de trabajo y la reestructuración de merco laboral. Aunque hay que tener presente que la IA promete nuevas eficiencias e innovaciones, pero también amenaza los modelos de empleo tradicionales, sobre todo aquellos sectores o áreas vulnerable a la automatización.
Además, que existe un claro reconocimiento de que, si bien la IA puede generar e impactar en el desarrollo del crecimiento económico, sin una gestión adecuada podría exacerbar las desigualdades. Por tanto, los políticos deben dar prioridad a las estrategias de crecimiento inclusivo garantizando que los beneficios de la IA se compartan equitativamente.
Soluciones en la regulación de la IA
Demos una mirada retrospectiva donde en las revoluciones industriales anteriores nos enseñan que los avances tecnológicos pueden provocar cambios sociales significativos, traduciéndose en el progreso económico como en el trastorno a gran escala. La lección clave aprendida es la importancia de una adaptación proactiva.
Los gobiernos, las empresas, las instituciones educativas y los actores del ecosistema de IA deben anticiparse a los cambios y aplicar políticas que minimicen las repercusiones negativas como la desigualdad o el desempleo al tiempo que maximizan los beneficios de la innovación.
Las redes de colaboración y cooperación con una perspectiva a largo plazo facilitan la gestión de las transiciones.
Los planes educativos y las cualificaciones serán esenciales, pero deben diseñarse para ir a la par de los avances tecnológicos emergentes y disruptivos. Para ser eficaces los modelos y planes educativos deben centrarse en fomentar y desarrollar la adaptabilidad, el pensamiento crítico, la alfabetización digital y la ciberseguridad; desarrollando capacidades que no solo tengan sean técnicas, sino también para la vida como es el caso de colaborar con los sistemas de IA.
WEF resalta que la IA es un problema mundial que requiere colaboración, cooperación e interoperabilidad global. Por lo tan ven que los enfoques fragmentados de la gobernanza de la IA pueden dar lugar a conflictos o carreras competitivas, en las que la indulgencia normativa de un país incentiva el despliegue de IA más arriesgado. He podido ver lo atinado que van los organismos internacionales como la Organización para la Cooperación y el Desarrollo Económico (OCDE) y la Organización de las Naciones Unidas (ONU) que desempeñan un papel esencial, pero lograr un consenso mundial está condicionado a las tensiones políticas y culturales.
El reto sigue siendo crear normas capaces de superar estas divisiones.
Coordinación global para la gobernanza de la IA
La coordinación global en la gobernanza de la IA es compleja debido a las significativas diferencias filosóficas, culturales, políticas y jurídicas entre los países. Observamos que la Unión Europea está implementando algunos de los marcos regulatorios más robustos con un énfasis en ética, privacidad y transparencia, mientras que Estados Unidos favorece la innovación y los enfoques dirigidos por el mercado. En contraste, China se enfoca en el control estatal y en el uso estratégico de la IA para alcanzar sus objetivos nacionales.
Al ver estas prioridades contrapuestas dificultan la armonización, pero es posible cierta coordinación a través de principios compartidos como la seguridad, la responsabilidad y la equidad.
Aunque las normas existentes fomentan la colaboración y la confianza, pueden ahogar ventajas competitivas de las naciones que dan prioridad al rápido desarrollo de la IA. Hay países que invierten mucho en IA de punta sin restricciones éticas o normativas fuertes, pueden percibir las normas mundiales como barreras a su liderazgo en IA.
No obstante, a través de marcos bien diseñados se pueden crear condiciones equitativas fomentando la innovación responsable y al mismo tiempo mitigando los riesgos de un desarrollo incontrolado de la IA.
Es esencial encontrar un equilibrio entre la regulación y la libertad de innovación para asegurar que las normas no impidan el avance.
WEF fija posición en desarrollar bases sólidas para abordar las complejidades de la gobernanza de la GenAI. No obstante, la gran prueba será la resiliencia y flexibilidad de los marcos a medida que la IA siga evolucionando de forma que quizás aún no se comprenda del todo.
Conclusión
Las políticas actuales sobre IA suelen estar desfasadas respecto al ritmo del desarrollo tecnológico, resultando insuficientes para enfrentar el futuro de la IA, lo que requiere mejora continua. Aunque los marcos existentes abordan riesgos actuales como la parcialidad, transparencia, responsabilidad, privacidad y ciberseguridad, carecen de flexibilidad y previsión para gestionar avances imprevistos en sistemas más autónomos. Las normativas no deben estancarse ni quedarse obsoletas para abordar las complejidades de futuros desarrollos.
Es esencial que los marcos de gobernanza de la IA se mantengan flexibles y sean continuamente actualizados; esto requiere revisiones periódicas y la participación activa de las partes interesadas. Los gobiernos deben promover un enfoque regulatorio modular, permitiendo que las normas se adapten conforme evolucionan las tecnologías. Asimismo, estos marcos deben integrarse con el modelo de gobernanza existente e incluir mecanismos de aplicación claros, como auditorías, sanciones y sistemas de monitoreo en tiempo real, para asegurar la rendición de cuentas sin frenar el progreso.
La colaboración y cooperación global es crucial para armonizar las regulaciones y abordar los desafíos transfronterizos de la IA.
La mirada 360º del Foro Económico Mundial nos da un importante punto de partida para abordar los retos y desafíos de la gobernanza
■ Descarga el informe completo La gobernanza en la era de la IA generativa: un enfoque de 360º para una política y una regulación resiliente →
Imagen: Rawpixel.com / Freepik.