← Volver al mapa

Problema del símbolo fundante

Stevan Harnad
ÉpocaSegunda mitad siglo XX · 1990
RegiónNorteamérica · Canadá / EE. UU.
DisciplinaComputación/IA

Explicación

El «symbol grounding problem» (problema del fundamento o anclaje de los símbolos) fue formulado de modo clásico por Stevan Harnad en 1990, en su artículo homónimo. Es uno de los problemas más importantes de la inteligencia artificial y la filosofía de la mente: ¿cómo adquieren los símbolos en un sistema (ya sea un ordenador o un cerebro) su significado? ¿Cómo «apuntan» a cosas del mundo, más allá de relaciones formales entre otros símbolos?

Harnad lo plantea con un ejemplo: imagine alguien que aprende chino sólo usando un diccionario chino-chino (sin traducción a una lengua que ya entienda). Cada palabra remite a otras palabras, que remiten a otras palabras, en un círculo cerrado de símbolos sin conexión con el mundo. ¿Podría tal persona llegar a entender chino, o estaría siempre «en el cuarto chino» de Searle, manipulando símbolos sin comprensión? Intuitivamente, no se puede aprender significado sólo de relaciones entre signos; hay que anclar los signos a experiencias, percepciones, acciones en el mundo real.

Los sistemas clásicos de IA simbólica (Newell, Simon, años 50-80) operaban puramente con símbolos: un programa manipulaba estructuras simbólicas según reglas lógicas. Pero los símbolos no estaban «fundados»: no significaban nada por sí mismos; sólo significaban lo que los diseñadores y usuarios externamente les atribuían. Esto hacía que los sistemas fueran frágiles y superficiales: podían hacer inferencias formales impresionantes pero no entendían de qué hablaban.

Harnad propuso una solución híbrida: los símbolos deben estar fundados en «representaciones icónicas» (análogas a percepciones sensoriales) y «categóricas» (que agrupan instancias similares). Un sistema debería percibir el mundo (iconos), categorizar sus percepciones (categorías), y sólo entonces usar símbolos referentes a esas categorías. Esto requiere IA encarnada (embodied AI) y robótica: sistemas con sensores y actuadores que interactúan con el mundo real.

Rodney Brooks (MIT, con su «robótica basada en comportamiento», desde los 80) y muchos otros en IA encarnada han trabajado en esta dirección. El supuesto es que la inteligencia verdadera requiere cuerpo, interacción con el mundo, aprendizaje perceptual, no sólo procesamiento simbólico. El enfoque ha dado frutos interesantes pero también mostrado limitaciones (los robots encarnados pueden ser muy buenos en navegación pero aún limitados en razonamiento abstracto).

Para la teoría de la consciencia, el symbol grounding problem tiene implicaciones profundas. Si la comprensión genuina requiere fundamento perceptual-motor, entonces sistemas puramente simbólicos (incluyendo probablemente los grandes modelos de lenguaje, que sólo procesan texto) podrían carecer de comprensión real, pese a su aparente fluidez. Pero el debate sigue abierto: ¿es la inmensa exposición a texto que contiene descripciones de experiencias suficiente para un fundamento indirecto? ¿Las arquitecturas multimodales (texto + imagen + audio + video) logran algún fundamento? Estas cuestiones son centrales para evaluar si los sistemas de IA actuales pueden tener comprensión o consciencia genuinas, o sólo su simulación superficial.

Puntos fuertes

  • Formulación precisa de una limitación profunda de la IA simbólica pura.
  • Marco que explica por qué la IA encarnada es filosóficamente necesaria.
  • Base para hibridar representaciones simbólicas y subsimbólicas.
  • Criterio práctico para distinguir comprensión de imitación.
  • Diálogo fructífero con Searle y con la robótica cognitiva.

Principales críticas

  • El criterio de 'fundar' es vago: ¿cuánto acoplamiento sensorial basta?
  • Presupone que transducción garantiza semántica (cuestionable).
  • LLMs entrenados con enorme corpus parecen rozar una semántica sin fundante clásico.
  • No resuelve directamente el problema duro: la consciencia fenoménica.

Conexiones con otras teorías