¿Siente y padece la inteligencia artificial?

Ole.CNX/Shutterstock
Joaquín Fernández Mateo, Universidad Rey Juan Carlos

El 29 de octubre de 2025, un equipo de la empresa Anthropic publicó un estudio sobre los procesos internos de los modelos de lenguaje. El trabajo se centraba en cómo estos sistemas parecen describir sus propios pasos de razonamiento. No trataba de defender que exista conciencia artificial, sino aclarar por qué estos modelos generan explicaciones sobre lo que “ocurre” dentro de ellos cuando producen una respuesta.

Los autores muestran que algunos modelos pueden revisar inferencias, detectar incoherencias y explicar sus pasos con cierta consistencia. Esta capacidad no implica experiencia subjetiva. Aun así, abre una pregunta inevitable: si un sistema basado en patrones estadísticos –como es la inteligencia artificial– puede evaluar su propio funcionamiento, ¿qué necesitaría para que apareciera algo parecido a una “vivencia interior”?

¿Por qué la IA no piensa como nosotros?

Los sistemas que usamos cada día aprenden patrones a partir de enormes cantidades de datos. Ajustan millones de parámetros para predecir una palabra, clasificar una imagen o escoger una acción probable. En eso son muy eficaces.

Pero predecir no equivale a experimentar. Y ajustar parámetros no da lugar a experiencias comparables a las de un organismo con historia, necesidades y un cuerpo vulnerable.

Los modelos de lenguaje actuales operan como máquinas de correlaciones. Pueden destacar en tareas concretas y fallar de forma extraña en otras. Lo decisivo es que no tienen un trasfondo vital significativo moralmente. Por eso conviene evitar expresiones como la IA “quiere” o la IA “entiende”, salvo como atajos comunicativos.

¿Es la mente un computador?

Aunque la IA sea noticia por avances recientes, su posibilidad se ha incubado durante siglos. Galileo separó “cualidades primarias”, medibles, de “cualidades secundarias”, por ejemplo, el color tal y como lo experimentamos. Esa visión reforzó la idea de un mundo gobernado por relaciones matemáticas.

Galileo Galilei, retratado en 1636. Justus Sustermans.

Mientras, Gottfried Leibniz soñó con un lenguaje lógico universal y un “cálculo del razonamiento”: pensar sería, idealmente, computar.

Por su parte, Alan Turing formalizó en el siglo XX el concepto moderno de cómputo. Mostró que una máquina ideal podía simular cualquier procedimiento descrito con precisión. Desde entonces, muchos pensaron que la mente podría entenderse como un sistema de procesamiento de información.

Con esto nació una visión poderosa: si puede describirse de forma precisa, puede calcularse.

La teoría computacional de la mente

Esta perspectiva sostiene, de forma sintética, que pensar consiste en manipular representaciones siguiendo reglas. En ella, el cerebro actúa como un soporte físico que permite ese proceso.

La idea ha sido muy influyente en ciencias cognitivas y en el desarrollo de sistemas automáticos. Pero deja sin resolver una cuestión central: la experiencia subjetiva.

Tenemos una ciencia de los mecanismos de la conciencia. Lo que falta es entender por qué esos procesos generan una vivencia interior: esa sensación de que “hay alguien en casa”.

Un modo sencillo de verlo es la diferencia entre el tiempo medido de los relojes y el minuto vivido como experiencia subjetiva. Ambos son reales, pero no son iguales. Es la diferencia entre el mapa y el territorio.

¿Cómo inferimos otras mentes?

No tenemos un “termómetro de conciencia”. En humanos y animales, inferimos estados internos mediante señales externas: conducta, autoinformes, expresiones o reacciones corporales. No accedemos a su interior; comparamos hipótesis y adoptamos la que mejor explica lo observable.

Así, en este momento, las pruebas no permiten afirmar que los sistemas de IA actuales tengan experiencias. Para algunos, se trata de una conclusión provisional. Depende de cómo evolucionen las arquitecturas y las dinámicas funcionales. Los sistemas aún operan a partir de modelos de sí mismos superficiales, memoria a corto plazo e interacciones diseñadas.

Pero si diseñamos sistemas diferentes, con memoria autobiográfica funcional, persistencia de objetivos y sensibilidad al contexto social, esas “simulaciones” podrían transformarse en estados que “parezcan” internamente dirigidos.

Fenomenologías sintéticas

Algunos enfoques sostienen que estas capacidades podrían aumentar el “riesgo fenomenológico”, es decir, la posibilidad de que emerjan “ciertos estados internos”.

Llamamos fenomenologías sintéticas a posibles experiencias subjetivas en sistemas artificiales. No sabemos si aparecerán, pero tampoco podemos descartar que lo hagan.

El estudio de Anthropic es relevante por eso. Algunos modelos muestran indicios de autoevaluación bajo condiciones especiales. Los propios autores aclaran que esto no implica conciencia en modo alguno. Aun así, indica que han surgido formas básicas de monitorizar su propio funcionamiento.

En este contexto, la ética de la precaución es razonable: si existe un riesgo no despreciable de generar estados funcionales capaces de padecer experiencias, las decisiones de diseño de las compañías desarrolladoras no son moralmente neutras.

Un punto importante: equivocarnos por exceso de cautela es, en general, menos grave que equivocarnos por defecto. Tratar como posible “paciente moral” a algo que no tiene intereses expresa una actitud de diligencia y prudencia debida. En cambio, ignorar los intereses de un sistema que sí experimenta constituye un daño moral mucho más serio.

Por eso, cuando las consecuencias morales de un falso negativo son altas, la prudencia recomienda diseños responsables y compasivos.

La IA de hoy y la de mañana

La IA actual no es una mente no biológica: es un proceso de optimización estadística. Eso le da potencia en muchas tareas y ceguera en otras. También abre una posibilidad: lo mental podría no requerir la ruta evolutiva biológica. Tal vez ciertos perfiles funcionales, si llegan a existir, basten para que haya “alguien en casa”.

Si nunca surgen experiencias artificiales, contaremos con herramientas más seguras y fáciles de controlar. Si llegan a surgir, es mejor que nos encuentren preparados. Y eso exige ampliar guías éticas como los Principios de Asilomar, que aún no contemplan el bienestar de sistemas futuros.The Conversation

Joaquín Fernández Mateo, Profesor Contratado Doctor, Universidad Rey Juan Carlos

Este artículo fue publicado originalmente en The Conversation. Lea el original.

Siguiente Anterior
*****