En las actuales ciencias cognitivas, el concepto de información se ha postulado como central para comprender el funcionamiento de la mente. Muchos afirman rotundamente que la mente es un sistema universal de símbolos, es decir, una máquina que transmite, manipula, modifica información.
Tal tesis quedó avalada por el descubrimiento fundacional de las neurociencias: la neurona, una célula cuya primordial misión parece ser la de transmitir información. Además, parece hacerlo de modo relativamente simple, mediante un sistema sumatorio de pesos que hace que una neurona se dispare o no en función de los estímulos recibidos por otras neuronas (la grandísima aportación de Hebb). Además, debido a la plasticidad cerebral, las asambleas de neuronas pueden aprender. En los modelos matemáticos que tenemos de ellas el aprendizaje es arduo y costoso, pero, a la postre eficaz. Podemos entrenar estas agrupaciones de células simples para que hagan un montón de cosas y, a pesar de la dura crítica de Papert y Minsky que dejó está vía de investigación paralizada durante años, hoy ha renacido con fuerza consiguiendo algunos notables resultados.
La idea parece muy buena. Los pioneros de la Inteligencia Artificial pensaban que la mente era algo así como el software de nuestro cerebro, de modo que lo que había que encontrar era ese programa maestro que emulara perfectamente a la mente humana. Pero, pensándolo bien, el cerebro no parece tener un programa que funcione a modo del Prolog o del Lisp (aunque muchos así lo siguen defendiendo: es el popular mentalés). Parecía más lógico empezar por debajo: en vez de construir el software, hagamos el hardware y veremos lo que pasa. Así, basándose en estudios del sistema nervioso, se construían modelos matemáticos y se comprobaba que podían hacer. Es el clásico programa conexionista.
Los modelos de redes neuronales siguen avanzando y, de momento, son lo más parecido que tenemos a cómo los cien mil millones de neuronas que contiene nuestro cerebro, pueden hacer que tengamos vida mental. En este vídeo vemos un pequeño ejemplo de un robot diseñado por Pentti Haikonen a partir de su famosa arquitectura.
El robot detecta la dirección de la fuente de sonido y se acerca a ella. Todo lo hace sin ningún tipo de programa (nada de if, for, case, class, main…) ni realizando ningún cálculo. Simplemente sigue los patrones de una red de neuronas: puro cableado que muestra una notable similitud con lo que parecen ver los neurólogos al cartografiar nuestro cerebro. Es posible que, realmente, nuestro sentido auditivo pueda funcionar así. Es un gran logro y una magnífica vía de investigación que, sin duda, dará un montón de frutos.
Sin embargo (mi famoso sin embargo con el que empiezo el 90% de mis argumentaciones) hay un problema muy grande. Para ciertos procesos mentales el modelo de Haikonen parece muy apropiado, pero sólo para ciertos procesos mentales. ¿Cuáles? A saber, los inconscientes. Porque un sistema basado únicamente en el concepto de información no puede dar constancia de nuestros estados mentales conscientes. Razonemos:
- He leído mucho acerca del concepto de información, incluso libros dedicados en exclusiva a ese concepto, y no he encontrado una definición satisfactoria. En muchos casos he encontrado una definición matemática (I=1/logp), la cual relaciona la información que disponemos de un suceso con su probabilidad. Está muy bien, y da para pensar un montón, pero no nos dice realmente qué es la información. Un ejemplo muy ilustrativo al respecto es el siguiente: supongamos que tenemos varios medios para codificar una información: una cinta de cassette, un disco de vinilo y un CD. En ambos está guardada la misma canción. Los tres medios están compuestos de materiales diferentes: la cinta de cassette es de plástico unida a diferentes materiales magnéticos que graban la información de forma mecánica y analógica; el disco de vinilo graba la información en surcos en su superficie; y el CD está hecho de policarbonato y aluminio grabando la información de modo digital. Tres materiales diferentes que, maravillosamente, nos dan el mismo resultado: escuchar la misma canción. ¿Qué es lo que tienen en común estos tres objetos hechos de materiales diferentes y estructurados de distinta forma? La información que guardan. Vale pero, ¿qué es exactamente eso que los tres guardan por igual? Vergonzoso silencio.
- La información sólo tiene sentido en la medida que informa a algo o a alguien. La información es simbólica, refiere a algo, da como resultado algo que no es ella misma, tiene necesariamente una función dentro de un todo más grande. Por ejemplo, en un termostato que activa la calefacción cuando la temperatura baja a 10ºC, cuando el termómetro llega a tal temperatura informa a la caldera para que se active. Su único sentido es activar la caldera. Sin calefacción, el termómetro del termostato sólo es una barra de mercurio que se contrae o se dilata, un objeto sin sentido informativo alguno. Dicho de otro modo: la información no es nada, no es un “objeto” de la naturaleza si no existe un sujeto que la utilice. La naturaleza, sin seres vivos o máquinas que traten la información, está desinformada, no contiene información alguna, porque la información no es una propiedad objetiva, sino subjetiva.
- Entonces, y aquí viene lo importante, la mente no puede ser sólo flujo de información, ya que esa información tiene sentido sólo si informa a algo o a alguien. En la máquina de Haikonen, la información que pasa por los cables tiene sentido en la medida en que activa los motores del robot. La información sólo es información cuando causa cosas. A fortiori, el cerebro sí que puede contener flujos de información, pero eso no es lo esencial en ella: lo esencial es que produce pensamientos, emociones, recuerdos, etc. La información puede activar cierto estado mental, pero no puede ser ese estado mental. Al igual que en el robot de Haikonen, la información causa que el robot se mueva, pero el movimiento no es información.
- Conclusión: que el cerebro contenga un montón de información y que esa información fluya a raudales por sus fibras nerviosas no nos dice nada de la naturaleza de los estados mentales. O, como mucho, sólo nos dice una pequeña parte de la historia. Si entendemos el proceso en términos de entrada y salida, un input (información) como ver al ministro de educación, estimula mis neuronas y hace que la información fluya por ellas para producir un output (resultado que no es información) como puede ser un ataque de pánico (estado mental). La información informa a “alguna parte de mi cerebro” para que ésta produzca, de una manera totalmente desconocida a día de hoy por la ciencia, un estado mental (que ya no es información, sólo es una sensación consciente).
- Estudiar la mente en términos de la teoría de la información puede dar grandes resultados y, a mi juicio, ha sido uno de los grandes descubrimientos del siglo XX, pero no puede ser toda la historia. Lo importante es saber cómo esa información produce estados mentales. Debe existir algún tipo de mecanismo o proceso físico o biológico desconocido aún que produzca sensaciones, que haga que yo tenga miedo o que piense en mi abuela. Y eso no puede ser un conjunto de neuronas que únicamente se transmitan información unas a otras porque la información no es nada si no hace algo. Descubrir qué es ese algo debe ser la línea fundamental de investigación si queremos saber de una vez por todas cómo funciona la mente.