Trending Techies: cuatro ponencias de expertos en datos e IA responsable

22 de junio de 2023

Ayer celebramos un nuevo Trending Techies, un encuentro presencial organizado por Telefónica Tech para generar comunidad y conversación entre profesionales, estudiantes, empresas y público interesado en tecnologías digitales de nueva generación.

En el evento, presentado por Manu de Luna, científico de datos en Telefónica Tech, participaron cuatro profesionales y expertos que hablaron y debatieron con los asistentes sobre el uso responsable de los datos en modelos de Inteligencia Artificial.

Transparencia de los sistemas de IA

La primera ponencia corrió por cuenta de Cristina Contero, de Aphaia, con su charla “Espejito, espejito, ¿qué hay detrás de esta IA?”.

Cristina habló de las diferentes categorías de Inteligencia Artificial y cómo todas ellas están sometidas ya hoy a regulación a través de, entre otras leyes previas a cualquier regulación que puedan aplicarse, el Reglamento General de Protección de Datos (RGPD).

Cristina Contero, de Aphaia

En este sentido, Inteligencia Artificial (o ‘procesos automatizados de decisiones’, a efectos de RGPD) está intrínsecamente relacionado con los datos. Tanto si entre los datos que se utilizan para entrenar modelos de IA se incluye información personal como si automatizar decisiones afecta a los derechos fundamentales de las personas.

“Si nuestra Inteligencia Artificial utiliza hoy datos personales, ya tiene que cumplir una serie de requisitos de transparencia” explicó.

La IA no se entiende sin una adopción generalizada. Por tanto, son los propios desarrolladores quienes buscan la confianza en estos sistemas.

Digital workers guiados por IA

En su ponencia “Digital Workers guiados por AI: un reto con muchos beneficios”, Marty Mallavibarrena, Senior Solutions Consultant de SS&C Blue Prism, explicó el funcionamiento de las plataformas RPA (Robotic Process Automation).

Estas plataformas permiten crear y poner a trabajar robots de software (no físicos) para ejecutar tareas repetitivas. Por ejemplo, leer los datos del DNI cuando alguien lo envía para darse de alta en un servicio, o al dar un parte con el seguro.

Marty Mallavibarrena

Estas plataformas RPA aplican cada vez más técnicas de Inteligencia Artificial para hacer más eficaces y eficientes estos “digital coworkers” y satisfacer las demandas del mercado.

En su ponencia, Marty explicó algunos casos de uso y ejemplos para reflexionar, y habló sobre los retos éticos y técnicos para la aplicación responsable de la IA en este ámbito. Incluyendo cómo controlar los sesgos en los datos y en los modelos desde su origen o el cumplimiento normativo de los datos.

Claves para aprovechar las herramientas de IA en periodismo

Teresa Mondría, product manager de Igeneris, compartió una charla sobre cómo utilizar las nuevas tecnologías para innovar en el periodismo. En este caso, el uso de la IA como herramienta periodística afecta tanto a quienes producen información como a las personas que la consumen.

Teresa Mondría
Teresa explicó con ejemplos concretos las aplicaciones reales de la IA en el proceso de producción informativa, como en traducciones, verificación (desmentir bulos, comprobar datos…) o en la investigación y análisis de grandes volúmenes de documentación. «Tareas donde la IA aporta un valor diferencial y puede ser muy útil.»
También se aplica para el etiquetado de noticias, escucha social o recomendación de contenidos. Teresa compartió las claves para que los periodistas incorporen Inteligencia Artificial en la producción de información:
  1. Responder a un objetivo​
  2. Tratar la IA como a una fuente​ (y las fuentes se verifican)​
  3. Entender cómo y quién procesa los datos​
  4. Dar garantías​ a periodistas y lectores
  5. Ser transparente​

Datos imparciales: cómo prevenir los sesgos

‘El desafío de la imparcialidad en la IA en el periodismo de investigación y datos​’ fue la cuarta y última ponencia del encuentro. Impartida por Antonio Delgado, cofundador de Datadista, puso en valor cómo la IA ayuda a procesar y analizar datos, sobre todo cuando se trata de grandes volúmenes de información.

Antonio Delgado
Lo que antes era procesos lentos de clustering, ahora son tareas que se hacen en segundos gracias a la AI.

Sin embargo, puso en relieve la importancia de la imparcialidad de los datos a la hora de entrenar y utilizar modelos IA. Cuando se trata de periodismo de datos, herramientas como ChatGPT conllevan desafíos éticos y prácticos significativos en torno a la imparcialidad.”

Modelos de lenguaje como GPT se han entrenado extrayendo información de Internet y, por ende, pueden aprender y reproducir los sesgos existentes en esos datos.

Por el contrario, “cuando se utiliza un modelo de IA entrenado con nuestros propios datos y fuentes de información nos permiten realizar tareas como buscar y resumir información en grandes volúmenes de documentos de manera eficiente, analizar grandes conjuntos de datos para descubrir patrones y tendencias, y crear prototipos de contenidos rápidamente.”

Sin embargo, en este caso, “debemos ser conscientes y críticos respecto a los potenciales sesgos que nosotros mismos podemos introducir en nuestros datos de entrenamiento, para asegurar la imparcialidad y la precisión de nuestro trabajo.”

Antonio compartió tres claves para evitar introducir sesgos en nuestros modelos:

  1. Los algoritmos deben ser transparentes y comprensibles
  2. Aplicar los códigos éticos del periodismo
  3. Verificar los hechos y los datos obtenidos (la IA como fuente)​


🔵 Si deseas participar o asistir al próximo Trending Techies de Telefónica Tech apúntate a las comunidades meetup Cyber Security Techies o Data Techies.