lunes, 22 de abril de 2013

Inteligencia, entropía, ¿por qué no?


He leído un artículo en el que, por lo visto, consiguen explicar comportamientos que se pueden considerar ‘inteligentes’ en sistemas físicos elementales.
La verdad es que tras leer el artículo, que ha aparecido en Physical Review Letters y ha levantado polvareda mediática en los medios de habla inglesa, me parece un trabajo que puede tener cierta relevancia a la hora de explicar ciertos comportamientos adaptativos pero que no consigo ver la fundamentación física del mismo. 
La clave del asunto, la entropía causal
La entropía no es más que una medida del número de configuraciones de los componentes microscópicos de un sistema que dan lugar a la misma apariencia macroscópica. A mayor número de configuraciones microscópicas para un macroestado dado, mayor es su entropía.
Los científicos Wissner-Gross y Freer proponen otra forma de entropía. En vez de contar cuantas configuraciones microscópicas tiene un sistema en un macroestado determinado en un instante de tipo fijado, lo que proponen es considerar cuantas configuraciones microscópicas podría tener el sistema en su evolución futura partiendo de una dada. Es decir, en este concepto de entropía no están interesados en los microestados en un tiempo dado sino en los microestados que podría tener el sistema si lo dejamos evolucionar en el tiempo. A esta entropía la han denominado, entropía causal.
En la termodinámica tradicional se nos dice que la entropía es una función de estado, es decir, su valor solo depende del estado inicial y final del sistema sin importar el camino que haya seguido en su evolución. Aquí, en este trabajo, pudiera parecer que la entropía depende de la forma en la que evoluciona el sistema, pero solo lo parece porque en la definición que ellos dan (ecuación 2 del artículo) suman (integran) para todos los posibles caminos en los que evolucionaría el sistema. De esta forma, la información acerca de un camino determinado se pierde.
Cuando uno define esta entropía luego se puede preguntar si esto tendrá algún efecto en la evolución del sistema. Es ya conocido el hecho de que hay fenómenos físicos que están dirigidos por lo que se conoce como fuerzas entrópicas.
Estas fuerzas aparecen como resultado de que un sistema tiene la tendencia a aumentar su entropía. Por ejemplo, son comunes en la física de los polímeros que pierden su configuración lineal para tomar configuraciones más complicadas aumentando así su entropía.
Como nota técnica:  estas fuerzas entrópicas aparecen como el gradiente de la entropía, y algunas parámetros.

¿Qué pasa si calculamos fuerzas entropícas con la entropía causal?

Pues parece que si aplicamos este concepto a sistemas simples aparecen comportamientos sorprendentes.
Partícula en una caja
Si nos disponemos a estudiar una partícula en una caja que la dejamos moverse desde una posición inicial arbitraria, esta tendrá tendencia a ir hacia el centro de la caja y quedarse en sus inmediaciones. ¿Por qué? Pues porque esta es la posición que maximiza los posibles caminos que podría tomar en una evolución futura.
Vemos como si estudiamos solo una partícula esta se queda alrededor del centro de la caja alejada de las paredes. Con esto incrementa su entropía causal, es decir, aumentan los posibles caminos que podría tomar en un futuro.
Un péndulo
Al estudiar un péndulo con esta nueva definición de entropía lo que resulta es que tiene la tendencia a ponerse vertical en contra de lo que ocurre usualmente y estabilizarse en esa posición.
Esto podría ser una posible primera explicación al hecho del por qué los humanos se ‘decidieron’ por ser bípedos, con lo molesto y dificultoso que es.
Más ejemplos
Los autores del artículo han desarrollado un programa – ENTROPICA -  que realiza simulaciones en las que se busca el máximo de entropía causal.
 Han determinado que los sistemas cooperan, usan herramientas, etc.
Lo mejor de esto es que estos comportamientos pasan simple y únicamente porque así maximizan su entropía causal, según los autores no se le da ninguna orden al programa para que simule de esa manera, no tiene ningún objetivo marcado, las cosas suceden así ‘espontáneamente’.

¿Inteligencia?

En mi opinión este artículo muestra una forma de modelizar la evolución de los sistemas de forma que se consiguen comportamientos que no son usuales en física.  Es cierto que para sistemas abiertos en los que hay flujos de materia, energía e información con el exterior este procedimiento podría ser muy útil.  Pero veo muy difícil que esta idea pueda explicar la aparición del lenguaje, o del pensamiento abstracto o de las obras de literatura o arte en general.  Para mí que más que inteligencia lo que están modelizando es estabilización de fenómenos  en contra de las leyes físicas que se oponen a ese comportamiento (a la gravedad, por ejemplo, no lo agradan mucho los seres bípedos).
Esto no es menospreciar el artículo, de hecho hasta me parece bien en los tiempos que corren que se inflen los títulos y conclusiones porque de algo hay que comer, pero supongo que su interés radicará más en campos como la robótica y la inteligencia artificial.
De todas formas, es un artículo interesante que seguro que levanta mucho interés y genera muchos titulares divertidos.

El artículo

Uno de los autores ha puesto el artículo en su página web de acceso libre:
(nótese que en el título no aparece nada de inteligencia )
Nos seguimos leyendo…