← Volver al mapa

Cognitivismo computacional

George Miller, Jerome Bruner, Ulric Neisser, Herbert Simon
ÉpocaSegunda mitad siglo XX · 1956
RegiónNorteamérica · Estados Unidos
DisciplinaPsicología

Explicación

El cognitivismo computacional surgió en los años 50-60 como reacción al conductismo y en paralelo al desarrollo de la informática. Su hipótesis central: la mente puede entenderse como un sistema de procesamiento de información, análogo a un ordenador. Pensar es manipular representaciones internas según reglas formales. Percibir, recordar, razonar, decidir y hablar son distintos tipos de procesamiento simbólico que pueden modelarse con algoritmos.

Figuras clave fueron Herbert Simon, Allen Newell (con sus sistemas de producción y la Teoría General de la Resolución de Problemas), George Miller (memoria de corto plazo «7 ± 2» ítems), Ulric Neisser (manual fundacional Cognitive Psychology, 1967), Noam Chomsky (gramática generativa) y Jerry Fodor (El lenguaje del pensamiento, 1975). Todos compartían la idea de que explicar conducta requiere postular representaciones y computaciones internas, no solo asociaciones ambientales.

La metáfora de la mente como ordenador es productiva. Permite modelar experimentalmente fenómenos como memoria, atención, percepción, toma de decisiones. Permite construir programas que simulan cognición (IA clásica, sistemas expertos). Ha inspirado modelos de arquitectura cognitiva (ACT-R, SOAR) que integran memoria, aprendizaje y resolución de problemas en sistemas unificados. La psicología cognitiva es hoy la corriente dominante en la investigación experimental sobre la mente.

Respecto a la consciencia, el cognitivismo adopta un enfoque funcional: la consciencia es un cierto tipo de procesamiento de información con propiedades particulares (disponibilidad global, reporte, monitoreo). La teoría del global workspace de Baars se inscribe en esta tradición. El problema duro (el porqué del qualia) tiende a considerarse derivativo o ilusorio: una vez explicada la función, la experiencia sería parte de esa función, sin residuo explicativo adicional.

Las críticas van por varios frentes. Fenomenólogos y filósofos (Dreyfus, Searle, Chalmers) argumentan que ni la semántica del lenguaje ni la experiencia subjetiva pueden reducirse a manipulación sintáctica de símbolos. El famoso argumento de la Habitación China de Searle ilustra la distinción entre seguir reglas y comprender. La cognición encarnada, enactiva y situada ha desafiado la idea de que el pensamiento es procesamiento descorporalizado, señalando la importancia del cuerpo y del entorno.

Pese a esas críticas, el cognitivismo sigue siendo marco de referencia en psicología experimental y en muchas áreas de neurociencia cognitiva. Los modelos computacionales se han sofisticado (redes neuronales profundas, cognición bayesiana, procesamiento predictivo) y conviven con enfoques encarnados y dinamicistas. La gran pregunta abierta es si basta con procesamiento de información para explicar la consciencia, o si hay un residuo que requiere teorías adicionales.

Puntos fuertes

  • Restaura el estudio científico de procesos mentales tras el invierno conductista.
  • Modelos cuantitativos contrastables experimentalmente.
  • Diálogo fructífero con IA, lingüística y neurociencia.
  • Base de la teoría del espacio de trabajo global.

Principales críticas

  • Metáfora del computador puede ser engañosa: el cerebro no es un PC simbólico.
  • Dificultad para integrar emoción, cuerpo y contexto.
  • Crítica enactivista: la cognición no es procesamiento de representaciones internas, sino acoplamiento dinámico.
  • Persiste el problema duro: ¿por qué el cómputo se siente desde dentro?

Conexiones con otras teorías