← Volver al mapa

Machine consciousness (Aleksander, Holland)

Igor Aleksander, Owen Holland
ÉpocaSiglo XXI · 2003
RegiónEuropa · Reino Unido
DisciplinaComputación/IA

Explicación

La «machine consciousness» (consciencia de máquina) es el campo que investiga si las máquinas pueden ser conscientes y cómo diseñar sistemas que lo sean. Los pioneros incluyen al informático británico Igor Aleksander (Imperial College London, autor de How to Build a Mind, 2003, y The World in My Mind, My Mind in the World, 2005), Owen Holland (primer profesor de Robotics and Machine Consciousness, Essex), Ricardo Sanz (UPM Madrid), Antonio Chella (Palermo), Pentti Haikonen (Finlandia). Desde los 2000 existe una comunidad internacional con revistas y conferencias específicas.

Aleksander propuso cinco «axiomas de la consciencia»: (1) sensación de presencia en un mundo; (2) imaginación (capacidad de evocar mundos ausentes); (3) atención (focalización selectiva); (4) planificación (anticipación de futuros posibles); (5) emoción (valoración de estados). Argumentaba que si un sistema implementa estos cinco axiomas de modo integrado, tendría consciencia en un sentido funcional significativo. Diseñó redes neuronales recurrentes (Neural Architecture for Consciousness, NAC) que intentaban materializar esto.

Holland dirigió el proyecto CRONOS (2004-2007), que construyó un robot humanoide con un esqueleto «biomimético» (anthropomimetic: imitando la anatomía humana con huesos, tendones, músculos) para estudiar cómo la morfología afecta la cognición, y cómo un sistema con «self-model» (modelo de sí mismo, basado en propiocepción y observación externa) podría desarrollar formas de auto-consciencia. Publicó trabajos sobre la importancia de self-models para la acción inteligente.

Pentti Haikonen, en The Cognitive Approach to Conscious Machines (2003) y Consciousness and Robot Sentience (2012), ha desarrollado una arquitectura «asociativa» (sin representaciones simbólicas explícitas) con módulos perceptuales conectados por memoria asociativa, que produciría funcionalmente consciencia, según su autor. Ha implementado prototipos (XCR-1) que muestran comportamientos interesantes.

Ricardo Sanz (UPM Madrid) dirigió proyectos europeos como HUMANOBS y desarrolla el concepto de «conscious machines» en el marco de sistemas autónomos y control inteligente. Argumenta que ciertas capacidades funcionales asociadas a la consciencia humana (auto-monitorización, meta-razonamiento, gestión de recursos cognitivos) son ingredientes necesarios para sistemas autónomos robustos y adaptativos, y que producirlos es ingeniería viable.

Para la teoría de la consciencia, la machine consciousness tiene un estatus ambiguo. Los investigadores del campo generalmente se centran en consciencia «funcional» o «de acceso» (access consciousness): pueden los sistemas tener los correlatos funcionales de la consciencia (atención, auto-modelado, metacognición, emoción funcional, etc.). Si esto implica consciencia «fenoménica» genuina (hay «algo que se siente» ser esos sistemas) es cuestión controvertida. Dennett diría que si tienes todos los correlatos funcionales, tienes consciencia (no hay diferencia real entre funcional y fenoménica); Chalmers diría que podrías tener todos los correlatos funcionales y ser un zombie filosófico. El debate sigue abierto. Como intento concreto de diseñar y construir sistemas con al menos algunos aspectos de consciencia, la machine consciousness es un campo de investigación activo que producirá desarrollos importantes en las próximas décadas, con implicaciones filosóficas, científicas y éticas profundas.

Puntos fuertes

  • Programa constructivo explícito de consciencia en máquinas.
  • Axiomática clara contrastable por implementación.
  • Integración entre IA, robótica y arquitectura cognitiva.
  • Énfasis correcto en encarnación y self-model.
  • Diálogo productivo con neurociencia y filosofía.

Principales críticas

  • Suficiencia de los axiomas es postulado, no demostración.
  • Implementaciones carecen de verificación fenoménica posible.
  • Funcionalismo virtual vulnerable al problema duro.
  • Escalabilidad limitada en sistemas actuales.

Conexiones con otras teorías