Una IA avanzada puede influir en nuestra percepción de la tecnología. ¿Cómo mitigarlo?

30 de octubre de 2023

Recientemente OpenAI anunciaba la incorporación en ChatGPT de nuevas capacidades para ‘ver, escuchar y hablar’. Esto significa que este modelo pasa a ser una IA multimodal: ya no es solo capaz de procesar y generar texto, sino que también puede interactuar con otros tipos de datos, ‘ver’ imágenes, ‘escuchar’ audio, y conversar por voz.

Con esta evolución ChatGPT avanza hacia un sistema más capaz y versátil, lo que incrementa sus aplicaciones potenciales a través del reconocimiento de imágenes, de audio o la generación de audio y de imágenes utilizando Dall-E, también incorporado recientemente.

El mejor uso de la Inteligencia Artificial es el que hacemos cuando somos conscientes de su potencial y también de sus limitaciones.

El ‘efecto Eliza’ y su manifestación moderna

Esta evolución de ChatGPT también tiene un impacto en cómo las personas percibimos y nos relacionamos con esta tecnología, lo que puede provocar o intensificar el efecto Eliza.

El efecto Eliza se refiere al fenómeno de atribuir capacidades humanas a una máquina, incluso cuando sabemos que estamos interactuando con un ordenador.

Este fenómeno se documentó a raíz del programa informático Eliza, desarrollado por Joseph Weizenbaum en el MIT, en 1966. Eliza, el programa que da nombre al efecto, se diseñó para simular en forma de parodia la interacción de un terapeuta dando conversación al usuario a través de preguntas preconfiguradas, diseñadas para mantener un diálogo básico entre el usuario y el ordenador.

Los modelos IA avanzados fomentan el efecto Eliza, ya que sus capacidades hacen que parezcan más humanos.

Muchas personas que interactuaron entonces con Eliza llegaban a creer que el programa de algún modo entendía sus problemas y emociones, aunque el programa en realidad solo seguía un conjunto de reglas predefinidas (IF, THEN, PRINT…) para generar respuestas y continuar la conversación.

De modo que, a pesar de que Eliza era simplemente un programa conversacional basado en texto con reglas simples, los usuarios a menudo interactuaban con él como si fuera un terapeuta humano, llegando a confiarle emociones y pensamientos íntimos. Según escribió entonces Weizenbaum, Eliza “inducía un poderoso pensamiento delirante en personas bastante normales”.

‘Her’: un caso extremo del efecto Eliza y una reflexión sobre la interacción humano-IA

En la película ‘Her’ (2013) de Spike Jonze se presenta un escenario en el que un hombre se enamora de un asistente digital de Inteligencia Artificial avanzada, conocido como Samantha.

Esta relación trasciende los límites tradicionales de la interacción humano-máquina y aborda cuestiones como el amor, las relaciones o la soledad. La historia relata cómo una persona puede atribuir cualidades humanas a una máquina, incluso cuando es plenamente consciente de su naturaleza artificial.

En ‘Her’, el efecto Eliza se magnifica precisamente debido a las capacidades avanzadas de Samantha. No solo es un asistente eficaz, sino que también demuestra emociones, aprende y tiene la capacidad de hacer conexiones personales con el protagonista, que llega a considerarla una ‘compañera de vida’. Sería un caso extremo del efecto Eliza.

Reconocer y entender el fenómeno Eliza es fundamental para el desarrollo adecuado de tecnologías basadas en IA.

Sin embargo ‘Her’ sirve como un anticipo de las implicaciones que una IA avanzada puede tener en la interacción humano-máquina. La película muestra una IA tan realista que desafía nuestro concepto actual de lo que es una relación ‘normal’: muestra cómo las líneas entre humanos y máquinas pueden desdibujarse cuando los sistemas de IA avanzan hasta un punto en el que pueden replicar o incluso superar ciertas capacidades humanas.

Medidas para mitigar el efecto Eliza

Como sucedía en la película ‘Her’ el efecto Eliza plantea cuestiones importantes. Por ejemplo, si es ético que una IA induzca emociones en un ser humano, especialmente si esas emociones pueden resultar engañosas o perjudiciales para la persona.

Esto puede suceder con asistentes virtuales como Aura o Siri, y muy particularmente en el caso de los niños, que podrían llegan a formar vínculos emocionales con juguetes interactivos que hacen uso de modelos básicos de IA.

La experiencia del usuario de una IA juega un papel muy influyente en la percepción humana, y por tanto en el efecto Eliza.

Para mitigar el efecto Eliza es imprescindible cuidar la experiencia de usuario y adoptar el enfoque responsabilidad desde el diseño en IA, ayudando a que

  1. El modelo de IA sea accesible y fácil de usar para el usuario, pero sin dar lugar a malentendidos sobre su naturaleza artificial.
  2. El usuario tenga claro cómo funciona y cuáles son las capacidades y limitaciones de esa IA.

Un diseño global adecuado de tecnologías basadas en IA promueve una interacción más informada, consciente y segura con esta tecnología. Para conseguirlo es necesario considerar aspectos como:

  • Transparencia en su diseño y funcionamiento, para que los usuarios sean conscientes de que están interactuando con una IA y no con un ser humano.

  • Establecer límites claros sobre las capacidades y limitaciones de la IA para ayudar a que los usuarios comprendan en todo momento que están interactuando con un programa de ordenador.
  • Proporcionar respuestas coherentes y realistas que ayuden a los usuarios a tener presente en todo momento que están interactuando con una máquina.

  • Educar a los usuarios sobre las capacidades y limitaciones de la IA y proporcionar información sobre cómo funciona, qué tipo de datos utiliza para generar respuestas y cómo se deben interpretar esas respuestas.
  • Las interfaces centradas en el usuario minimizan las posibilidades de que los usuarios atribuyan capacidades cognitivas o emocionales a la IA.

  • Revisar y evaluar regularmente los modelos de IA permite detectar si fomentan el efecto Eliza.

  • Garantizar la protección de la privacidad del usuario para mitigar las consecuencias de seguridad del efecto Eliza.

Usando Midjourney para crear contenido en redes sociales