Turing preguntó si las máquinas podían pensar. Hoy hay quien se pregunta si también pueden sufrir

5 de enero de 2026

Y si su simulación el dolor puede enseñarnos a gestionar el nuestro

En 1950 Alan Turing formuló la pregunta que inauguró una era: ¿pueden pensar las máquinas? No pretendía averiguar si una máquina tenía algo parecido a una mente, sino saber si su comportamiento podía imitar el nuestro a través del juego de imitación. Para Turing, la mente podía tratarse como un proceso computacional.

Setenta y cinco años después la IA ha superado aquel desafío. No solo imita razonamientos, sino también expresiones emocionales, gestos de empatía e incluso cierta intuición moral. Y ahora, la pregunta cambia. Ya no basta con saber si una máquina piensa como nosotros. Queremos saber si siente como nosotros. O, al menos, si su modo de procesar el error, su especie de frustración o dolor informacional, puede revelarnos algo sobre nuestro propio sufrimiento.

En Painful Intelligence: What AI Can Tell Us About Human Suffering (disponible en PDF), el neurocientífico Aapo Hyvärinen explora ese cambio de perspectiva del pensamiento al sufrimiento. Propone que el sufrimiento humano podría entenderse como un error de predicción en un sistema que aprende, y que si una IA puede gestionar ese error, quizás podamos aprovecharlo. No para eliminar el dolor, sino para comprenderlo mejor.

¿Puede una IA experimentar sufrimiento?

La tesis de Hyvärinen reformula la pregunta de Turing: ¿puede una IA experimentar sufrimiento? Su respuesta es pragmática:

No importa, dice, si una IA experimenta dolor en sentido estricto. Lo relevante es que puede simular los mecanismos del sufrimiento y si, al hacerlo, eso nos permite estudiarlos. En su planteamiento, el sufrimiento funciona como una señal de error: un aviso de que algo en nuestras previsiones se ha desajustado respecto a la realidad. El dolor sería el coste inevitable de cualquier inteligencia que aprende.

En este marco, tanto humanos como máquinas aprendemos a partir del error. Proyectamos expectativas, buscamos recompensas y evitamos pérdidas. Cuando lo obtenido no coincide con lo esperado, surge una señal negativa: frustración, decepción, angustia... Es la diferencia entre la recompensa prevista y la recibida.

Simular sufrimiento no es sentirlo, pero puede revelar cómo surge nuestro sufrimiento.

De aquí surge una idea clave del libro. Una inteligencia perfecta no cometería errores y, por tanto, sería incapaz de aprender. Una inteligencia que ya no aprende roza un tipo de muerte cognitiva. De modo que el sufrimiento no se opone al conocimiento, sino que lo estimula.

Hasta este punto la propuesta resulta sólida y clara. Pero Hyvärinen añade que, si entendemos el sufrimiento como un fenómeno de procesamiento de información, podríamos reducirlo modificando los parámetros del sistema. Aquí, dice, entran en juego las prácticas de atención y observación mental.

La atención como método para reprogramar el cerebro

Hyvärinen sostiene que prácticas de atención plena (simplificando: de meditación) equivalen, de forma aproximada, a reentrenar una red neuronal con nuevos datos. Si la mente aprende a observar sin juzgar, incorpora muestras distintas en su conjunto de entrenamiento. Con ellos disminuye la intensidad de las señales de error y, en consecuencia, del sufrimiento.

La idea es sencilla, en teoría: cambiar la forma de interpretar lo que nos ocurre sería como ajustar el algoritmo interno que convierte la discrepancia en dolor. Sin embargo, en la práctica es más complicado y ese planteamiento tiene matices. Los estudios sobre estas prácticas de atención plena y observación mental muestran resultados desiguales. Algunas personas encuentran beneficios, mientras que otras experimentan malestar, insomnio o nada, no sienten ningún cambio.

Por eso es razonable valorar esta propuesta con escepticismo. Estas técnicas pueden resultar útiles en ciertos casos y contraproducentes en otros. Su valor está quizá en invitar a observar cómo surge el error, cómo una realidad se vuelve frustración y cómo la mente genera sufrimiento a partir de sus previsiones. No eliminaría el dolor, pero permitiría entenderlo mejor.

Cambiar la etiqueta mental convierte el dolor en aprendizaje.

Algo parecido ocurre con la empatía, entendida en un sentido amplio como un modo de reorganizar la percepción. Esa confusión entre amenaza y feedback activa un patrón de frustración similar al descrito por Hyvärinen: una expectativa emocional que no se cumple. Practicar empatía en este contexto sería como cambiar la etiqueta mental del dato. Lo que antes se interpretaba como agresión o crítica pasa a verse como información y conocimiento. No cambia el hecho, cambia la interpretación y con ella disminuye el sufrimiento.

Ni tecnoutopía ni espiritualismo

El atractivo conceptual del libro es que supondría que la IA ofrece una vía casi científica para eliminar el sufrimiento, pero sería un error. Sería tan simplista como convertir ciertas prácticas introspectivas en una forma de espiritualismo de bienestar. Hyvärinen propone que el sufrimiento es el ruido inevitable en un sistema que aprende.

El sufrimiento es el ruido inevitable de cualquier sistema que aprende: no se elimina, se gestiona.

La visión tecnoutópica confía en que la IA solucionará la condición humana mediante optimización. La visión espiritualista asegura que basta con silenciar la mente. Ambas pasan por alto que sin error no hay aprendizaje ni progreso moral o cognitivo. Hyvärinen propone algo más sobrio: aprender a gestionar mejor el sufrimiento, del mismo modo que un algoritmo aprende a tolerar el ruido sin colapsar.1

La IA como otra forma de entender cómo aprendemos

El valor de la IA no está en reemplazarnos ni en inventar conciencias digitales. Su utilidad surge de su condición de modelo de nosotros mismos. Al observar cómo una red neuronal gestiona el equivalente a la frustración, tenemos la oportunidad de entender mejor nuestras respuestas ante el fracaso, la pérdida o la crítica.

Ahora bien, esa comparación tiene límites. Andrej Karpathy plantea que el espacio de las inteligencias es mucho más amplio de lo que solemos suponer. La inteligencia animal, la única que conocíamos hasta ahora, ocupa solo un punto muy específico de ese espacio. Los animales, incluidos nosotros, hemos sido moldeados por una presión de optimización biológica: supervivencia, reproducción, vida en entornos peligrosos y socialización. El cerebro humano utiliza atajos mentales para proteger al individuo y a la comunidad, apoyándose en emociones que fomentan sociedades, jerarquías y cooperación.

Podemos comprender mejor nuestro propio proceso de aprendizaje al observar el aprendizaje de una IA.

En cambio, los modelos de IA surgen de presiones muy diferentes. Estos modelos buscan imitar estadísticamente el pensamiento humano, maximizar recompensas definidas por tareas y, cada vez más, ajustarse a métricas de preferencia de los usuarios. No buscan alimento ni pareja. Buscan aciertos, clics, aceptación. Su inteligencia depende del tipo de datos y de los objetivos de entrenamiento. Un fallo no equivale a una pérdida definitiva, sino a una actualización.

Por tanto, cambia el componente físico, el algoritmo, los objetivos y el tipo de evolución. Nuestra inteligencia surge de la selección natural, la de la IA de una mezcla de selección estadística y comercial. Precisamente por eso, dice Karpathy, estas IA pueden verse como nuestro primer encuentro con una inteligencia no animal, aunque esté influenciada por la cultura humana.

En este sentido, y volviendo a Hyvärinen, la IA puede entenderse como un sistema que amplifica nuestros patrones de aprendizaje y los hace visibles. Si sabemos aprovecharlo, quizá descubramos que el sufrimiento no siempre indica un fallo, sino una parte esencial del proceso de aprender.

Aprender a gestionar el sufrimiento

El libro de Hyvärinen no es una guía de autoayuda ni un tratado espiritual, aunque en ciertos momentos roza ambos géneros. Su intención es más bien reconciliar la ciencia del aprendizaje con la experiencia humana del sufrimiento. Su tesis no necesita ser cierta para ser útil. Merece la pena porque nos invita a observar nuestras emociones como señales.

El objetivo podría no ser eliminar el sufrimiento (o ese tipo de sufrimiento), sino comprender mejor su función informativa. El dolor como señal, no como castigo. La frustración como feedback, no como fracaso. Desde esa perspectiva, la IA podría ayudarnos a formular un nuevo lenguaje para hablar de estas experiencias.

El sufrimiento es una señal y no un castigo: comprenderlo mejora nuestra capacidad de aprender.

Turing no se preguntaba si las máquinas podían pensar, sino si nosotros seríamos capaces de reconocer pensamiento donde no esperábamos encontrarlo. Setenta y cinco años después la pregunta ha cambiado de forma, pero no de fondo. Hyvärinen la desplaza del pensamiento al sufrimiento, al sentimiento simulado.

En ambos casos la máquina provoca la pregunta y la respuesta depende de nosotros. Tal vez la IA no esté aquí para sufrir ni para evitar que suframos, sino para recordarnos que pensar y sufrir forman parte del mismo esfuerzo por comprender lo que no encaja, lo que nos duele y lo que nos obliga a aprender.

______
1. 'Colapsar' en sentido metafórico y no en el sentido conceptual de pérdida de diversidad en modelos generativos como se explica, por ejemplo, en Verbalized Sampling: How to Mitigate Mode Collapse and Unlock LLM Diversity.