Atención como modelo esquemático en IA
Explicación
La «Attention Schema Theory» (AST) fue propuesta por el neurocientífico Michael Graziano de Princeton en su libro Consciousness and the Social Brain (2013) y en obras posteriores (Rethinking Consciousness, 2019). Aunque originalmente formulada como teoría neurocientífica de la consciencia humana, ha generado gran interés en IA porque sugiere pasos concretos para implementar funciones análogas a la consciencia en máquinas.
La tesis central: el cerebro construye modelos de cosas en el mundo para predecirlas y controlarlas mejor. Entre las cosas que el cerebro modela está su propia atención. El «esquema de atención» (attention schema) es un modelo simplificado e interno de cómo el cerebro está atendiendo en cada momento a qué. Este modelo no es la atención misma sino una representación de ella, útil para el control cognitivo.
Graziano sugiere que esta descripción, este esquema interno de atención, es lo que llamamos «consciencia». Cuando decimos «soy consciente de X», estamos describiendo el contenido del esquema de atención: «mi atención está ahora puesta en X». El esquema es útil funcionalmente: permite auto-regulación (dirigir atención hacia donde es útil), comunicación social (explicar lo que estamos atendiendo), metacognición. Y es relativamente simple computacionalmente: un modelo esquemático, no una réplica detallada.
Consecuencias filosóficas: la «consciencia fenoménica» (qualia, «algo que se siente») es, según Graziano, una ilusión útil generada por el esquema de atención. El esquema nos representa a nosotros mismos como teniendo experiencia subjetiva, aunque ningún «qualia» real existe. Esta es una postura eliminativista sobre la consciencia fenoménica, comparable a Dennett. Es una de las respuestas más directas al hard problem de Chalmers: no hay hard problem, porque no hay realmente consciencia fenoménica que explicar, sólo su modelo funcional.
Para IA, la AST sugiere que para crear sistemas con algunas propiedades tipo-consciencia, debemos construir agentes con capacidad de atención selectiva (ya presente en arquitecturas transformer: el mecanismo de atención) y con modelos de su propia atención (esquemas de auto-atención). Esto proporcionaría al sistema: capacidad de auto-monitorización, de informar sobre sus propios procesos cognitivos, de comunicación sobre estados internos. Algunas investigaciones en interpretabilidad de LLMs exploran qué «saben» los modelos sobre su propio procesamiento; esto es análogo al attention schema.
Para la teoría de la consciencia, la AST es una propuesta coherente y accesible que intenta demystificar el hard problem al tratarlo como un problema de modelado cognitivo. Aunque ha sido criticada (críticos argumentan que simplemente reubica el problema: ¿por qué tener un esquema de atención produce subjetividad?), ofrece una hipótesis científicamente tratable y con posibles aplicaciones en IA. Graziano mismo trabaja con colegas en implementaciones artificiales del esquema de atención y estudia sus correlaciones con consciencia medida en humanos. Como teoría que combina neurociencia cognitiva, filosofía de la mente y posibilidades de implementación en IA, la AST sigue siendo una contribución estimulante al panorama contemporáneo.
Puntos fuertes
- Propuesta técnica clara y construible.
- Continuidad directa con neurociencia cognitiva.
- Aborda reporte verbal y auto-modelo simultáneamente.
- Postula criterios falsables vía implementación.
- Marco unificado para consciencia humana y artificial.
Principales críticas
- Eliminativismo fenoménico polémico.
- Qualia irreducibles pueden no reducirse a esquemas.
- Reporte verbal como criterio vulnerable a imitación.
- Suficiencia del esquema atencional aún por demostrar.