Cómo organiza el cerebro todo lo que ve


Estas secciones de un mapa semántico-espacial muestra la manera en que distintas categorías de objetos vivos y no vivos que vemos están relacionados entre ellos en un “espacio semántico” cerebral. (crédito: Shinji Nishimoto, An T. Vu, Jack Gallant/Neuron)


¿Cómo le damos sentido a las miles de imágenes que inundan nuestras retinas cada día? Científicos de Universidad de California, Berkeley, descubrieron que nuestro cerebro está diseñado para organizar todas las categorías de objetos y acciones que vemos, y han creado el primer mapa interactivo de la manera en que el cerebro realiza este agrupamiento.

Espacio semántico continuo

El resultado -logrado a través de modelos computacionales de información del cerebro reunida mientras los sujetos veían vídeos- es lo que los investigadores llaman “espacio semántico continuo“.
Algunas relaciones entre categorías tienen sentido (humanos y animales comparten el mismo “vecindario semántico”) mientras que otras (pasillos y cubetas) son menos obvios. Los científicos hallaron que personas distintas comparten una organización semántica similar.

“Nuestro método abre una puerta que rápidamente conducirá a un mejor y más detallado entendimiento de como está organizado el cerebro. Ahora mismo, nuestro visor en línea del cerebro proporciona la vista más elaborada que hemos tenido de la función visual y la organización de un cerebro humano”, indicó Alexander Huth, autor principal del estudio publicado el miércoles 19 en la revista Neuron.

Una comprensión más clara de la manera como el cerebro organiza la entrada visual ayudará al diagnóstico médico y tratamiento de enfermedades cerebrales. Estos descubrimientos podrían también utilizarse para la creación de interfases cerebro-máquina, particularmente para sistemas de reconocimiento facial y de imágenes. Entre otras cosas,por ejemplo, mejorarían el reconocimiento de mercancías al momento de pagar en una tienda (por parte de la caja registradora).

“Nuestro descubrimiento sugiere que el escaneo cerebral podría pronto utilizarse para etiquetar imágenes que alguien ve, y podría ayudar a las mismas computadoras a reconocer de mejor manera las imágenes”, dijo Huth, quien ha producido un sitio interactivo para explicar los hallazgos.

Se ha pensado por largo tiempo que cada categoría de objetos o acciones que una persona ve  -personas, animales, vehículos, casas, muebles y movimientos-  está representada en una región separada de la corteza visual. En este estudio, los investigadores descubrieron que las categorías están en realidad representadas en mapas entrecruzados altamente organizados que cubren hasta un 20 por ciento del cerebro, incluyendo la corteza frontal y la corteza somatosensorial.

Para realizar el experimento, la actividad del cerebro de 5 investigadores fue grabada vía resonancia magnética funcional (fMRI) al tiempo que observaban vídeos durante dos horas. La exploración o escaneo cerebral midió simultáneamente el flujo sanguíneo en miles de lugares en todo el cerebro.