Una IA avanzada puede influir en nuestra percepción de la tecnología. ¿Cómo mitigarlo?
Recientemente OpenAI anunciaba la incorporación en ChatGPT de nuevas capacidades para ‘ver, escuchar y hablar’. Esto significa que este modelo pasa a ser una IA multimodal: ya no es solo capaz de procesar y generar texto, sino que también puede interactuar con otros tipos de datos, ‘ver’ imágenes, ‘escuchar’ audio, y conversar por voz.
Con esta evolución ChatGPT avanza hacia un sistema más capaz y versátil, lo que incrementa sus aplicaciones potenciales a través del reconocimiento de imágenes, de audio o la generación de audio y de imágenes utilizando Dall-E, también incorporado recientemente.
El mejor uso de la Inteligencia Artificial es el que hacemos cuando somos conscientes de su potencial y también de sus limitaciones.
El ‘efecto Eliza’ y su manifestación moderna
Esta evolución de ChatGPT también tiene un impacto en cómo las personas percibimos y nos relacionamos con esta tecnología, lo que puede provocar o intensificar el efecto Eliza.
El efecto Eliza se refiere al fenómeno de atribuir capacidades humanas a una máquina, incluso cuando sabemos que estamos interactuando con un ordenador.
◾ Ejemplo: escribir ‘por favor’ en ChatGPT antes de una consulta o dar las gracias a Aura cuando te avisa de que va a llover serían casos leves del efecto Eliza.
Este fenómeno se documentó a raíz del programa informático Eliza, desarrollado por Joseph Weizenbaum en el MIT, en 1966. Eliza, el programa que da nombre al efecto, se diseñó para simular en forma de parodia la interacción de un terapeuta dando conversación al usuario a través de preguntas preconfiguradas, diseñadas para mantener un diálogo básico entre el usuario y el ordenador.
Los modelos IA avanzados fomentan el efecto Eliza, ya que sus capacidades hacen que parezcan más humanos.
Muchas personas que interactuaron entonces con Eliza llegaban a creer que el programa de algún modo entendía sus problemas y emociones, aunque el programa en realidad solo seguía un conjunto de reglas predefinidas (IF, THEN, PRINT…)
para generar respuestas y continuar la conversación.
De modo que, a pesar de que Eliza era simplemente un programa conversacional basado en texto con reglas simples, los usuarios a menudo interactuaban con él como si fuera un terapeuta humano, llegando a confiarle emociones y pensamientos íntimos. Según escribió entonces Weizenbaum, Eliza “inducía un poderoso pensamiento delirante en personas bastante normales”.
👩💻 Los programas conversacionales simples como Eliza funcionan a partir de un conjunto predefinido de reglas y patrones programados por los desarrolladores.
○ Estas reglas dictan cómo debe responder el sistema a diferentes entradas del usuario. Por ejemplo, responder ‘Hola, ¿cómo estás?’ si el usuario dice ‘Hola’.
○ Esto limita la complejidad y el recorrido de las conversaciones, y puede dejar al programa sin capacidad para continuar de forma coherente la conversación en caso de que no encuentre ninguna regla aplicable.
En contraste, los modelos IA avanzados como ChatGPT no se rigen por reglas fijas.
○ En su lugar, aprenden a partir de grandes cantidades de datos durante su entrenamiento, lo que les permite generar respuestas basadas en patrones y conexiones identificadas dentro de esos datos.
○ Esto les da la capacidad de generar respuestas más complejas y de manera más flexible y coherente, derivadas de la vasta información con la que fueron entrenados.
‘Her’: un caso extremo del efecto Eliza y una reflexión sobre la interacción humano-IA
En la película ‘Her’ (2013) de Spike Jonze se presenta un escenario en el que un hombre se enamora de un asistente digital de Inteligencia Artificial avanzada, conocido como Samantha.
Esta relación trasciende los límites tradicionales de la interacción humano-máquina y aborda cuestiones como el amor, las relaciones o la soledad. La historia relata cómo una persona puede atribuir cualidades humanas a una máquina, incluso cuando es plenamente consciente de su naturaleza artificial.

En ‘Her’, el efecto Eliza se magnifica precisamente debido a las capacidades avanzadas de Samantha. No solo es un asistente eficaz, sino que también demuestra emociones, aprende y tiene la capacidad de hacer conexiones personales con el protagonista, que llega a considerarla una ‘compañera de vida’. Sería un caso extremo del efecto Eliza.
Reconocer y entender el fenómeno Eliza es fundamental para el desarrollo adecuado de tecnologías basadas en IA.
Sin embargo ‘Her’ sirve como un anticipo de las implicaciones que una IA avanzada puede tener en la interacción humano-máquina. La película muestra una IA tan realista que desafía nuestro concepto actual de lo que es una relación ‘normal’: muestra cómo las líneas entre humanos y máquinas pueden desdibujarse cuando los sistemas de IA avanzan hasta un punto en el que pueden replicar o incluso superar ciertas capacidades humanas.
⚠ Riesgos y amenazas
○ El efecto Eliza puede ser explotado para manipular a los usuarios, haciendo que confíen más en un modelo de IA y compartan información personal o sensible, creyendo que están interactuando con una entidad empática, comprensiva y honesta.
○ Al obtener dicha información se puede violar la privacidad del usuario y utilizar los datos recopilados con fines maliciosos, como la venta de información a terceros, el chantaje o la ingeniería social.
○ También la predisposición a ver a la IA como ‘humana’ puede ser utilizada para influir en las decisiones de los usuarios, guiándolos hacia acciones o elecciones que beneficien a actores interesados o maliciosos, todo bajo el velo de una interacción genuina y bienintencionada.
○ Además, sobrevalorar la capacidad de una IA avanzada que ‘ve’ y ‘escucha’ puede invisibilizar vulnerabilidades frente a ataques que exploten estos canales sensoriales. Por ejemplo, imágenes que ocultan prompts maliciosos que la IA ejecutará ‘sin querer’ al analizar la imagen.
Medidas para mitigar el efecto Eliza
Como sucedía en la película ‘Her’ el efecto Eliza plantea cuestiones importantes. Por ejemplo, si es ético que una IA induzca emociones en un ser humano, especialmente si esas emociones pueden resultar engañosas o perjudiciales para la persona.
Esto puede suceder con asistentes virtuales como Aura o Siri, y muy particularmente en el caso de los niños, que podrían llegan a formar vínculos emocionales con juguetes interactivos que hacen uso de modelos básicos de IA.
La experiencia del usuario de una IA juega un papel muy influyente en la percepción humana, y por tanto en el efecto Eliza.
Para mitigar el efecto Eliza es imprescindible cuidar la experiencia de usuario y adoptar el enfoque responsabilidad desde el diseño en IA, ayudando a que
- El modelo de IA sea accesible y fácil de usar para el usuario, pero sin dar lugar a malentendidos sobre su naturaleza artificial.
- El usuario tenga claro cómo funciona y cuáles son las capacidades y limitaciones de esa IA.
Un diseño global adecuado de tecnologías basadas en IA promueve una interacción más informada, consciente y segura con esta tecnología. Para conseguirlo es necesario considerar aspectos como:
- Transparencia en su diseño y funcionamiento, para que los usuarios sean conscientes de que están interactuando con una IA y no con un ser humano.
La transparencia permite alinear las expectativas del usuario con la realidad.
- Establecer límites claros sobre las capacidades y limitaciones de la IA para ayudar a que los usuarios comprendan en todo momento que están interactuando con un programa de ordenador.
- Proporcionar respuestas coherentes y realistas que ayuden a los usuarios a tener presente en todo momento que están interactuando con una máquina.
Si una IA proporciona respuestas que resultan demasiado humanas o emocionales fomentará al efecto Eliza.
- Educar a los usuarios sobre las capacidades y limitaciones de la IA y proporcionar información sobre cómo funciona, qué tipo de datos utiliza para generar respuestas y cómo se deben interpretar esas respuestas.
- Las interfaces centradas en el usuario minimizan las posibilidades de que los usuarios atribuyan capacidades cognitivas o emocionales a la IA.
Por ejemplo, un tono de voz intencionadamente artificial o neutro ayudará a mitigar el fenómeno.
- Revisar y evaluar regularmente los modelos de IA permite detectar si fomentan el efecto Eliza.
La evaluación continua permite intervenir y hacer cambios en el modelo o en la interfaz si es necesario.
- Garantizar la protección de la privacidad del usuario para mitigar las consecuencias de seguridad del efecto Eliza.
El usuario tendrá la confianza de que, incluso si se produce el efecto, su información personal no se recopilará ni utilizará de manera indebida.