← Volver al mapa

Principio de mínima energía libre

Karl Friston
ÉpocaSiglo XXI · 2010
RegiónEuropa · Reino Unido
DisciplinaNeurociencia

Explicación

Karl Friston, neurocientífico británico, ha desarrollado desde los años 2000 una de las propuestas teóricas más ambiciosas y matemáticamente formalizadas de las ciencias cognitivas: el principio de mínima energía libre. Según este principio, todo sistema adaptativo —desde una bacteria hasta un cerebro humano— puede entenderse como un agente que minimiza una cantidad llamada energía libre variacional, que equivale aproximadamente a «sorpresa» o error de predicción.

La idea viene de la física estadística y del aprendizaje automático bayesiano. Un sistema que persiste en un entorno debe mantenerse dentro de unos estados característicos (temperatura, pH, glucosa, etc., en un organismo biológico). Para hacerlo, debe poder predecir las consecuencias de sus acciones y seleccionar aquellas que lo lleven a esos estados. Minimizar energía libre es equivalente a reducir la discrepancia entre lo que el sistema espera y lo que sensa.

Hay dos estrategias para minimizar la energía libre: actualizar los modelos internos (aprendizaje perceptivo) o actuar sobre el mundo (acción) para hacer que las predicciones se cumplan. Ambas forman parte de un único bucle integrado. El mismo marco explica la percepción, la acción, el aprendizaje, la atención, la emoción: todo son formas de minimizar sorpresa.

La inferencia activa (active inference) es la versión conductual del principio. Los animales actúan sobre el mundo para reducir la incertidumbre sobre sus estados: exploran, recolectan información, prueban hipótesis. La curiosidad infantil, la investigación científica, incluso el juego, serían manifestaciones del mismo imperativo termodinámico-cognitivo de minimizar energía libre.

Para la consciencia, el principio sugiere una perspectiva unificada: la experiencia consciente sería el modelo predictivo global del organismo integrado, incluyendo su propio estado corporal. La consciencia emergería cuando el modelo se hace auto-referencial y jerárquicamente integrado, con meta-predicciones sobre las propias predicciones. Anil Seth y Jakob Hohwy han desarrollado esta línea ligándola al procesamiento predictivo.

El principio es matemáticamente sofisticado pero sigue siendo debatido. Algunos lo consideran una gran unificación al estilo de Newton; otros, una tautología dressed up en formalismo. Predicciones empíricas contrastables son difíciles de derivar. Pero su ambición y su alcance —vincular física, biología, cognición y quizá consciencia— lo convierten en una de las propuestas más discutidas de la neurociencia teórica contemporánea.

Puntos fuertes

  • Marco matemáticamente formal y unificador.
  • Conecta termodinámica, información y cognición.
  • Aplicaciones clínicas y en IA.
  • Compatible con autopoiesis y enactivismo.

Principales críticas

  • Acusación de no-falsabilidad por excesiva generalidad.
  • No aborda explícitamente los qualia.
  • Notación matemática difícil de relacionar con observables empíricos directos.
  • Algunas asunciones (Markov blankets) son cuestionadas.

Conexiones con otras teorías