← Volver al mapa

Arquitectura SOAR

Allen Newell, John Laird, Paul Rosenbloom
ÉpocaSegunda mitad siglo XX · 1983
RegiónNorteamérica · Estados Unidos
DisciplinaComputación/IA

Explicación

SOAR (State, Operator, And Result) es una arquitectura cognitiva general desarrollada desde los años 80 por John Laird, Allen Newell y Paul Rosenbloom. Newell (1927-1992), uno de los pioneros de la IA junto con Herbert Simon, dedicó los últimos años de su vida a formular una «teoría unificada de la cognición» plasmada en su libro homónimo (1990), con SOAR como realización computacional.

SOAR se basa en una visión del cognitivismo clásico: toda cognición puede modelarse como búsqueda de problemas (problem-solving search) en espacios de estados (state spaces). En cada momento, el agente está en un estado particular, aplica un operador (operator) para transformarlo, y obtiene un resultado (result) que es un nuevo estado. La inteligencia consiste en seleccionar hábilmente operadores apropiados para navegar el espacio de estados hacia metas deseables.

Componentes principales: memoria de producción (conjunto de reglas condición-acción), memoria de trabajo (estado actual, metas, expectativas), arquitectura de decisión (ciclo de decisión que selecciona el siguiente operador), aprendizaje por «chunking» (cuando se resuelve un subproblema, SOAR «comprime» la solución como una nueva regla, adquiriendo conocimiento operativo). Esto permite que SOAR mejore con la experiencia.

SOAR ha sido aplicado en dominios diversos: juegos (ajedrez, damas), tareas de control, simulaciones militares (agentes tácticos), modelado cognitivo psicológico (reproduciendo patrones humanos en tareas experimentales), tutores inteligentes. Con el tiempo se ha extendido con componentes adicionales: memoria episódica, memoria semántica, aprendizaje por refuerzo, procesamiento espacial, interacción emocional.

Recientemente, SOAR se ha explorado también para dotar de algunas capacidades de «consciencia funcional» a agentes artificiales: modelado de auto-atención, monitorización de metas propias, detección de impasses (situaciones donde no hay progreso y se requiere reflexión meta-cognitiva), generación de explicaciones sobre el propio comportamiento. Estas capacidades se asemejan a algunos aspectos funcionales de la consciencia humana (atención dirigida, metacognición, autoobservación), aunque no hay consenso sobre si producen consciencia fenoménica real.

Para la teoría de la consciencia, SOAR es un ejemplo paradigmático de arquitectura cognitiva que intenta capturar la inteligencia general en términos computacionales. Es relevante para debatir qué aspectos funcionales de la mente humana puede reproducir una máquina, y también para identificar qué aspectos parecen escapar al paradigma clásico (consciencia fenoménica, emociones vividas, intencionalidad genuina). SOAR y arquitecturas similares (ACT-R, CLARION, LIDA, que veremos más adelante) son plataformas útiles para probar hipótesis concretas sobre cómo funciona la cognición humana y sobre qué podría tomar para una IA consciente. Aunque el campo ha evolucionado hacia aprendizaje profundo (que es muy diferente del cognitivismo clásico en filosofía y métodos), las arquitecturas cognitivas siguen siendo relevantes como síntesis posibles entre neurociencia, psicología cognitiva e IA.

Puntos fuertes

  • Arquitectura unificada empíricamente productiva durante décadas.
  • Predicciones cuantitativas sobre curvas de aprendizaje.
  • Integración creciente de módulos emocionales y episódicos.
  • Análogo computacional del espacio de trabajo global.
  • Base para investigación sobre consciencia funcional en IA.

Principales críticas

  • Excesivamente simbólica; dificultad con percepción rica.
  • El chunking como único mecanismo de aprendizaje es limitado.
  • No aborda el problema duro de la consciencia.
  • Supuesto de optimalidad racional en decisiones humanas cuestionable.

Conexiones con otras teorías