← Volver al mapa

Habitación china

John Searle
ÉpocaSegunda mitad siglo XX · 1980
RegiónNorteamérica · Estados Unidos
DisciplinaFilosofía

Explicación

John Searle propuso en 1980 uno de los experimentos mentales más citados de la filosofía de la mente: la habitación china. Imagine a un hablante monolingüe de inglés encerrado en una habitación, con un manual detallado de reglas que relacionan caracteres chinos. Le pasan por debajo de la puerta preguntas en chino y él, siguiendo el manual, produce respuestas en chino que los hablantes nativos consideran perfectas. ¿Entiende chino?

La intuición de Searle es que no: el hablante manipula símbolos mecánicamente sin entender ninguno. Y sin embargo, desde el exterior, se comporta como si entendiera perfectamente. El sistema satisface el test de Turing. Si la mera manipulación de símbolos según reglas pudiera generar comprensión genuina, el hablante debería entender. Como no entiende, la manipulación simbólica no es suficiente para la cognición auténtica.

El blanco del argumento era lo que Searle llamó «IA fuerte»: la tesis de que un programa computacional con las reglas apropiadas literalmente tendría mente, comprensión e intencionalidad. Para Searle, la habitación muestra que esto es falso: la sintaxis (manipulación de símbolos según reglas) no basta para la semántica (comprensión de significados). Se necesita algo más.

Searle propone que ese algo más son los «poderes causales del cerebro», propiedades biológicas específicas que los sistemas de silicio no replican. Es su naturalismo biológico: la mente es causada por procesos neurobiológicos, no por organización computacional en cualquier sustrato. Los ordenadores simulan la cognición sin encarnarla, igual que una simulación meteorológica no hace llover realmente.

Las respuestas son abundantes. La replica del sistema: aunque el hablante individual no entienda chino, el sistema como un todo (hablante + manual + habitación) sí entiende. La réplica del robot: si la habitación estuviera conectada a sensores y actuadores, podría tener genuina intencionalidad. La réplica del cerebro simulado: si simulamos cada neurona individualmente, ¿en qué momento aparece o desaparece la comprensión?

Cuarenta años después, la habitación china sigue siendo discutida, especialmente a raíz de los modelos de lenguaje grandes (LLMs) como ChatGPT. ¿Entiende un LLM lo que dice? ¿Es una habitación china gigantesca o algo nuevo? El experimento mental de Searle no zanja el debate pero lo enmarca con precisión, y obliga a cada defensor de mente artificial a especificar qué tipo de comprensión exige y cómo se logra.

Puntos fuertes

  • Memorable, comprensible y filosóficamente fértil.
  • Articula la diferencia entre sintaxis y semántica.
  • Críticamente eficaz contra la IA fuerte ingenua.
  • Catalizador de respuestas refinadas.

Principales críticas

  • Réplica del sistema: el comprendedor es el sistema completo, no Searle.
  • Réplica del robot: la encarnación cambia el cuadro.
  • Apela a intuiciones que pueden ser engañosas con sistemas suficientemente complejos.
  • Incompatible con el computacionalismo bien especificado.

Conexiones con otras teorías