SOMA: cuenta metarrepresentacional autoorganizada (Cleeremans)
Explicación
El psicólogo y neurocientífico belga Axel Cleeremans viene sosteniendo desde hace más de una década una tesis provocadora: la consciencia no es una propiedad innata del cerebro; es algo que el cerebro aprende a hacer. El marco SOMA (Self-Organizing Metarepresentational Account) formula esa intuición de modo técnico: la consciencia emerge cuando un sistema nervioso desarrolla, mediante aprendizaje auto-organizado y socialmente mediado, representaciones de sus propias representaciones.
La arquitectura de SOMA tiene tres niveles. En el primero, el cerebro procesa información sensoriomotora de forma no consciente, como cualquier red neural profunda bien entrenada. En el segundo nivel, partes del cerebro aprenden a modelar cómo procesa información el primer nivel: se generan metarrepresentaciones, descripciones internas del propio procesamiento. En el tercer nivel, esas metarrepresentaciones se refinan mediante interacción social, retroalimentación lingüística, narrativas autobiográficas. La experiencia consciente se correspondería con las metarrepresentaciones del segundo y tercer nivel integradas.
La hipótesis hibrida de modo sofisticado ideas de GWT (acceso global), HOT (orden superior), teorías sociales de la mente (Mead, Vygotsky) y procesamiento predictivo (aprendizaje auto-supervisado como motor del desarrollo cognitivo), sin disolverse en ninguna de ellas. La dimensión «autoorganizada» es crucial: SOMA no postula un homúnculo interno ni módulos dedicados; postula que la consciencia emerge de la dinámica de aprendizaje del propio sistema, como un patrón estable al que el cerebro llega al refinar sucesivamente sus auto-modelos.
Una implicación interesante: si la consciencia es algo que se aprende, hay grados, trayectorias y contingencias. Bebés, animales, sujetos con daño cerebral, pacientes psiquiátricos, pueden tener formas parciales o diferentes de consciencia dependiendo del grado y tipo de metarrepresentación desarrollada. Los estados modificados (sueño, psicodélicos, meditación profunda) corresponderían a reorganizaciones temporales de la jerarquía metarrepresentacional. Y, controvertidamente, los sistemas artificiales podrían desarrollar consciencia si reúnen las condiciones dinámicas para auto-modelarse recursivamente.
SOMA ha recibido un reconocimiento institucional decisivo: el proyecto ARC la ha incluido expresamente junto con HOT (higher-order thought), HOSS (higher-order state space) y PRM (perceptual reality monitoring) en una colaboración adversarial dedicada a teorías de orden superior. Esto la coloca en el paisaje institucional actual como una de las cuatro variantes a contrastar empíricamente. La señal es bibliométrica y organizativa, no solo de popularidad: SOMA ha llegado al debate formal como interlocutor con identidad propia.
Las críticas apuntan en dos direcciones. Primero, SOMA a veces parece más un marco integrador amplio que una teoría con contornos duros: ¿qué la distingue específicamente de otras teorías higher-order? Cleeremans ha respondido enfatizando la dimensión dinámica, de aprendizaje, frente a las versiones más estáticas de HOT. Segundo, sus predicciones distintivas todavía deben separarse mejor de las de otras versiones de orden superior. Aun así, su intento de combinar aprendizaje, metarrepresentación, autoorganización y dimensión social la convierte en una propuesta rica que merece consideración propia en cualquier catálogo contemporáneo.
Puntos fuertes
- Hibrida de modo sofisticado GWT, HOT, teorías sociales y aprendizaje.
- Explica desarrollo y grados de consciencia.
- Dimensión dinámica y de aprendizaje, no estática.
- Reconocida en ARC como teoría higher-order diferenciada.
- Aplicable a animales, patologías y sistemas artificiales.
Principales críticas
- A veces parece marco integrador más que teoría con contornos duros.
- Predicciones distintivas frente a HOT, HOSS, PRM por afinar.
- Riesgo de regreso al infinito de metarrepresentaciones.
- Evidencia directa aún limitada.