Trending Techies: cuatro ponencias de expertos en datos e IA responsable
Ayer celebramos un nuevo Trending Techies, un encuentro presencial organizado por Telefónica Tech para generar comunidad y conversación entre profesionales, estudiantes, empresas y público interesado en tecnologías digitales de nueva generación.
En el evento, presentado por Manu de Luna, científico de datos en Telefónica Tech, participaron cuatro profesionales y expertos que hablaron y debatieron con los asistentes sobre el uso responsable de los datos en modelos de Inteligencia Artificial.
Transparencia de los sistemas de IA
La primera ponencia corrió por cuenta de Cristina Contero, de Aphaia, con su charla “Espejito, espejito, ¿qué hay detrás de esta IA?”.
Cristina habló de las diferentes categorías de Inteligencia Artificial y cómo todas ellas están sometidas ya hoy a regulación a través de, entre otras leyes previas a cualquier regulación que puedan aplicarse, el Reglamento General de Protección de Datos (RGPD).
 (1).jpg)
En este sentido, Inteligencia Artificial (o ‘procesos automatizados de decisiones’, a efectos de RGPD) está intrínsecamente relacionado con los datos. Tanto si entre los datos que se utilizan para entrenar modelos de IA se incluye información personal como si automatizar decisiones afecta a los derechos fundamentales de las personas.
“Si nuestra Inteligencia Artificial utiliza hoy datos personales, ya tiene que cumplir una serie de requisitos de transparencia” explicó.
La IA no se entiende sin una adopción generalizada. Por tanto, son los propios desarrolladores quienes buscan la confianza en estos sistemas.
Digital workers guiados por IA
En su ponencia “Digital Workers guiados por AI: un reto con muchos beneficios”, Marty Mallavibarrena, Senior Solutions Consultant de SS&C Blue Prism, explicó el funcionamiento de las plataformas RPA (Robotic Process Automation).
Estas plataformas permiten crear y poner a trabajar robots de software (no físicos) para ejecutar tareas repetitivas. Por ejemplo, leer los datos del DNI cuando alguien lo envía para darse de alta en un servicio, o al dar un parte con el seguro.
.jpg)
Estas plataformas RPA aplican cada vez más técnicas de Inteligencia Artificial para hacer más eficaces y eficientes estos “digital coworkers” y satisfacer las demandas del mercado.
En su ponencia, Marty explicó algunos casos de uso y ejemplos para reflexionar, y habló sobre los retos éticos y técnicos para la aplicación responsable de la IA en este ámbito. Incluyendo cómo controlar los sesgos en los datos y en los modelos desde su origen o el cumplimiento normativo de los datos.
Claves para aprovechar las herramientas de IA en periodismo
Teresa Mondría, product manager de Igeneris, compartió una charla sobre cómo utilizar las nuevas tecnologías para innovar en el periodismo. En este caso, el uso de la IA como herramienta periodística afecta tanto a quienes producen información como a las personas que la consumen.

- Responder a un objetivo
- Tratar la IA como a una fuente (y las fuentes se verifican)
- Entender cómo y quién procesa los datos
- Dar garantías a periodistas y lectores
- Ser transparente
Datos imparciales: cómo prevenir los sesgos
‘El desafío de la imparcialidad en la IA en el periodismo de investigación y datos’ fue la cuarta y última ponencia del encuentro. Impartida por Antonio Delgado, cofundador de Datadista, puso en valor cómo la IA ayuda a procesar y analizar datos, sobre todo cuando se trata de grandes volúmenes de información.
.jpg)
Lo que antes era procesos lentos de clustering, ahora son tareas que se hacen en segundos gracias a la AI.
Sin embargo, puso en relieve la importancia de la imparcialidad de los datos a la hora de entrenar y utilizar modelos IA. Cuando se trata de periodismo de datos, herramientas como ChatGPT conllevan desafíos éticos y prácticos significativos en torno a la imparcialidad.”
Modelos de lenguaje como GPT se han entrenado extrayendo información de Internet y, por ende, pueden aprender y reproducir los sesgos existentes en esos datos.
Por el contrario, “cuando se utiliza un modelo de IA entrenado con nuestros propios datos y fuentes de información nos permiten realizar tareas como buscar y resumir información en grandes volúmenes de documentos de manera eficiente, analizar grandes conjuntos de datos para descubrir patrones y tendencias, y crear prototipos de contenidos rápidamente.”
Sin embargo, en este caso, “debemos ser conscientes y críticos respecto a los potenciales sesgos que nosotros mismos podemos introducir en nuestros datos de entrenamiento, para asegurar la imparcialidad y la precisión de nuestro trabajo.”
Antonio compartió tres claves para evitar introducir sesgos en nuestros modelos:
- Los algoritmos deben ser transparentes y comprensibles
- Aplicar los códigos éticos del periodismo
- Verificar los hechos y los datos obtenidos (la IA como fuente)
🔵 Si deseas participar o asistir al próximo Trending Techies de Telefónica Tech apúntate a las comunidades meetup Cyber Security Techies o Data Techies.