Una de las más espectaculares promesas de la IA fuerte es lo que llamamos mind uploading: la posibilidad de descargar nuestra mente en la memoria de un ordenador.
Es una original propuesta de inmortalidad, dado que una memoria computacional física puede ser reparada en todas sus partes siendo potencialmente eterna. En un momento del futuro, toda la humanidad (o un selecto grupo de elegidos) podría ser volcada dentro de enormes memorias informáticas, dando el salto a un mundo virtual en donde la felicidad completa, antes sólo prometida postmortem, será alcanzada. El potencial especulativo de esta afirmación es enorme: ¿Podrían unirse varias mentes en una creando la emergencia de una supermente colectiva? ¿Qué siente alguien viviendo dentro de un computador? ¿Podríamos apagar y volver a encender las mentes almacenadas?
Entre los muchos presupuestos necesarios para que la mind uploading sea posible se encuentra la independencia de substrato: nuestra mente puede funcionar exactamente igual independientemente de la base física que la sostenga. Lo importante sería replicar la estructura del sistema que nos permite pensar, no su material, de modo que si podemos copiar la estructura de nuestras intrincadas redes neuronales (wetware) en chips de silicio, dichos chips tendrán las mismas funciones que nuestro cerebro. Este dualismo soluciona, por ejemplo, el viejo enigma del barco de Teseo: ¿Cuántas piezas hay que cambiar a un barco para que ese barco ya no sea el mismo sino otro diferente? Desde la independencia de substrato diríamos que el cambio de piezas es indiferente para la identidad de cualquier ente. Lo esencial es su estructura, por lo que si el barco mantiene la estructura inicial seguirá siendo el mismo a pesar de no tener nada de su materia inicial. La misma idea parece subyacer en las palabras de Sebastian Seung y su concepto de conectoma.
Cuando Seung dice que somos nuestro conectoma está queriendo decir que nuestras funciones cognitivas superiores son el resultado (o se identifican. Ignoro la postura que Seung tiene en este tema) de una complejidad estructural. Entonces, lo de menos es la base física, cualquiera vale, lo importante es meramente la complejidad estructural. Seung tiene la esperanza de que algún día se desvele el misterio y sepamos toda la exponencial cantidad de conexiones sinápticas. Sin embargo, esto encierra un grave problema que creo que no suele tenerse en cuenta y que reside, precisamente, en dar por sentada la independencia de substrato.
La conciencia, nuestros sentimientos y nuestros recuerdos surgen de esa intrincada red neuronal de un modo absolutamente desconocido a día de hoy. Los científicos, especialmente neurólogos e ingenieros de AI, tienen poca paciencia y quieren hacer un modelo del cerebro dejando de lado ese desconocimiento. Así, elaboran modelos matemáticos partiendo únicamente de la idea cajaliana de que las neronas son herramientas de transmisión de información que funcionan de modo discreto disparando pulsos eléctricos. Los diferentes modelos neuronales (desde los primeros intentos de McCulloh y Pitts, los perceptrones de Rosenblatt, hasta las redes de Hopfield o las máquinas de Boltzmann) parten de la base de que lo único que hacen las neuronas es lanzar o no pulsos eléctricos, de manera que su actuación puede formalizarse fácilmente en código binario. Los diferentes modelos intentan hacer el mayor número de operaciones (operaciones lógicas, memoria asociativa o reconocimiento de patrones) partiendo de esta hipótesis. Como en la realidad podemos encontrar elementos físicos biestables (cosas que puedan estar en dos estados diferentes el tiempo suficiente: el magnetismo de las memorias informáticas), podemos construir redes neuronales artificiales. Es curioso que nadie haya caído (o sí, vete tú a saber) en que en este planteamiento hay una contradicción inicial muy básica: si las neuronas sólo transmiten información, ¿cómo van a poder generar consciencia? ¿Es que la consciencia es sólo un pulso eléctrico o un transporte de información? No, responderían aireados, la consciencia surge de la complejidad de interconexiones eléctricas, no de las propiedades de los pulsos eléctricos entendidos individualmente. Pero, ¿qué significa realmente que algo pueda surgir de su complejidad estructural?
No significa nada, pues aquí está el error. Yo puedo hacer que mi computadora sea muy compleja en el sentido de que cada vez pueda resolver un número mayor de problemas matemáticos (de hecho los problemas con los que se enfrentan los ingenieros de redes neuronales artificiales son exclusivamente de índole matemático), pero no puedo hacer otra cosa. No, podríamos replicar, si yo conecto mi red neuronal artificial, por ejemplo, a un brazo robótico, podría emular los movimientos de un brazo humano. Los problemas matemáticos se traducen en replicar acciones humanas. Cierto, algunos problemas son de este tipo. Sin embargo, ¿cómo se espera resolver matemáticamente el problema de la conciencia? La conciencia es una entidad real, “física” en el sentido de estar en el mundo como lo está un mueble. No digo que la conciencia sea una cosa, pero sí que será un proceso o, de alguna manera, la propiedad de un sistema físico. Lo poco que sabemos es que la conciencia emerge (o se identifica, o es causada o lo que queramos decir aquí) de un determinado sistema físico: el cerebro. Un sistema, por otra parte, con unas propiedades fisico-químicas muy concretas. Entonces parece razonable pensar que las propiedades físico-químicas del cerebro tendrán mucho que ver con el fenómeno de la conciencia, del mismo modo que las propiedades físico-químicas del estómago tienen mucho que ver con la digestión. ¿En qué se basan entonces para decir que nuestra mente es un conectoma, una complejidad estructural independiente del substrato donde se realice? ¿Es que acaso hemos comprobado alguna vez que otra química diferente a la del carbono dé lugar a algún tipo de conciencia? ¿Es que acaso podemos encender fuego únicamente con un modelo matemático de la combustión?
Nada surge meramente de lo complejo, igual que nada es exclusivamente una estructura. Los ingenieros de AI piensan que si tenemos un mapa muy detallado de lo que es una gallina escrito en un papel, ya tenemos realmente una gallina. No, para hacer una gallina hacen falta átomos de gallina. Y quizá, los átomos de gallina tienen unas propiedades tales que sólo con átomos de gallina podemos hacer gallinas, y no con cualquier otro substrato que se nos antoje estructuralmente similar. La independencia de substrato es una tesis que suele aceptarse con demasiada ligereza.
vonneumannmachine