CEO DE CTRL-LABS: TENDREMOS INTERFACES NEURONALES EN MENOS DE 5 AÑOS


Puede ser un poco difícil comprender qué está haciendo exactamente Ctrl-labs con la tecnología. Eso es irónico, dado que Ctrl-labs quiere dejar que su cerebro use directamente la tecnología traduciendo la intención mental en acción. Hablamos con Thomas Reardon, CEO de Ctrl-labs, en Web Summit 2019 a principios de este mes para comprender exactamente cómo funciona la interfaz cerebro-máquina.

Fundada en 2015, Ctrl-labs es una startup con sede en Nueva York que desarrolla una pulsera que traduce las señales musculoneurales en comandos interpretables por máquina. Pero no por mucho tiempo: Facebook adquirió Ctrl-labs en septiembre de 2019. La adquisición aún no se ha cerrado, por lo que Reardon no ha hablado con nadie en el gigante de las redes sociales desde que firmó el acuerdo. Sin embargo, estaba ansioso por contarnos más sobre la tecnología de interfaz neuronal para que pudiéramos entender por qué Facebook (y la industria tecnológica en general) está interesado.
Neurocontrol: interrogando neuronas individuales en la médula espinal

En resumen, Ctrl-labs quiere que interactuemos con la tecnología no a través de un mouse, un teclado, una pantalla táctil, nuestra voz o cualquier otra entrada que hayamos adoptado. Reardon y su equipo esperan que en unos pocos años podamos utilizar neuronas individuales, no pensamientos, para controlar directamente la tecnología.

"Madre de todos los problemas de aprendizaje automático"
Reardon ha dicho muchas veces que su compañía está abordando a la "madre de todos los problemas de aprendizaje automático". También utilizó esa frase algunas veces en la conferencia. El CEO de Apple, Tim Cook, describió previamente a los autos autónomos como "la madre de todos los proyectos de inteligencia artificial". Todos entienden por qué los automóviles autónomos son tan complejos, por lo que tuvimos que preguntarle a Reardon qué es exactamente lo que Ctrl-labs encuentra tan difícil.

"Esta idea de poder decodificar la actividad neuronal en tiempo real y traducir eso en control", dijo Reardon a VentureBeat. “Entonces, tu cuerpo lo hace. Cada serie de neuronas en cascada son capas diferentes, digamos en la corteza, y luego envían salida a la médula espinal. Cada conjunto de neuronas está interpretando el conjunto anterior. Y en una escala de tiempo de milisegundos, convertir eso en una acción final ".

Primero tienes que capturar toda esa actividad, y luego tienes que reutilizarla. "Estamos tratando de hacer eso con una máquina en el otro extremo", continuó. “Solo la parte de decodificación requiere muchos algoritmos personalizados muy inteligentes para hacer en tiempo real. Hacerlo si pudiéramos registrar todos esos datos y luego volver y analizarlos durante semanas, así es como se hace la neurociencia. La mayoría de estas cosas se hacen en lo que llamamos post facto. Hacemos un análisis de los datos después del hecho y tratamos de entender "¿Cómo genera un comportamiento la actividad de una neurona o neuronas?" Ese es el objetivo central de toda la neurociencia. Actividad neuronal: comportamiento final, ¿cómo los conecto? ¿Cuál es el código de estas neuronas? Intentar hacerlo en tiempo real efectivamente no se hace ".

En resumen, no hay un sistema de naturaleza más complicado que el cerebro humano. Es increíblemente difícil crear algoritmos que puedan descubrir la intención sin perforar un cráneo humano. Decodificar la actividad de las neuronas motoras individuales para controlar las máquinas es el último desafío del aprendizaje automático. Todo lo demás palidece en complejidad.

"Es fácil ponerse nervioso acerca de algunos de los avances de DeepMind y cómo pueden hacer cosas de juego", dijo Reardon. "Lo real es hacerlo en tiempo real humano".

Electromiografia
En diciembre de 2018, Ctrl-labs mostró su prototipo Ctrl-kit. Se compone de dos partes: una caja del tamaño aproximado de un reloj grande lleno de radios inalámbricas, y un componente atado con electrodos que se ubican más arriba en el brazo. El dispositivo de pulsera Reardon me mostró que se conecta a través de Bluetooth a una PC o teléfono inteligente para su procesamiento.

Antes de poder llegar a la parte donde las intenciones se convierten en acciones, es importante comprender lo que está detectando el dispositivo Ctrl-labs en una muñeca humana. "Esto se llama electromiografía de superficie (EMG)", explicó Reardon. “Se trata de electrodos de detección diferencial. Su neurona motora envía un pequeño pico llamado potencial de acción. Viaja por un axón que perfora el músculo. Se extiende y toca un montón de fibras en el músculo, de cientos a miles. Cuando chispea, cada una de esas fibras en el músculo tiene una gran chispa en respuesta. La chispa de la neurona motora es increíblemente pequeña, invisible. No puedes escucharlo eléctricamente, es muy pequeño. Pequeños nanoamperios diminutos a picoamperios de corriente. Sus fibras musculares tienen cantidades masivas de actividad eléctrica. El otro hecho es que existe este campo eléctrico masivo que cada una de las fibras de su músculo está generando. Esto está recogiendo ese campo ".

Para traducir la intención mental en acción, el dispositivo EMG mide los cambios en el potencial eléctrico causados ​​por los impulsos que viajan desde el cerebro a los músculos de las manos. "Lo bueno, porque somos neurocientíficos, que descubrimos es" ¿Cómo tomo la electroactividad del músculo y descubro cuál fue la electroactividad de la neurona que creó esa actividad? ". Y eso es lo que hemos hecho. Podemos recrear la actividad de estas neuronas motoras espinales a partir de la respuesta eléctrica del músculo ".

Balbuceo del motor
Reardon dice que puede aprender a usar una pulsera Ctrl-labs en aproximadamente 90 segundos para realizar una tarea con su cerebro. Entonces, ¿qué está pasando exactamente entre usted y el dispositivo EMG en esos 90 segundos?

"Estamos aprovechando lo que hiciste cuando eras un bebé", dijo Reardon. "Hiciste lo que se llama" balbuceo motor "como un bebé. Descubriste "Oye, cuando hago esto con una neurona, hace que esto suceda aquí". Y creas un mapa neuronal en tu cuerpo y un mapa neuronal en la salida. Tú lo sabes. Un bebé no puede hacer esto. Les lleva bastante tiempo agarrar un objeto con habilidad. Se llama 'habilidad, alcance y comprensión' ".

"Estás conectado para eso", continuó. “Es para lo que estás más conectado que para cualquier otra cosa. Más que discurso. Más que matemáticas. Más que incluso entender el lenguaje. Lo que realmente hace bien es aprender a moverse, en particular las manos y luego la boca. Puedes hacerlo de una manera muy fina y hábil. Con movimientos increíblemente sutiles con muy poca actividad neuronal. Un bebé tarda mucho en superarlo. Pero siempre estás haciendo eso en el mundo. Nunca dejas de hacer eso. Básicamente construyes este mapa motor bruto de ese primer año y medio ".

Para ilustrar su punto, Reardon puso una taza de agua sobre la mesa. Luego me pidió que le mostrara mi cuerpo tomando un sorbo. Yo si.

"Es la jodida cosa más difícil que harás en tu vida", dijo.

Le pregunté a Reardon si esencialmente estaba diciendo que esta acción es difícil de enseñarle a un robot. Después de todo, el camino exacto de mi mano es diferente cada vez. "Es muy difícil enseñar a un robot", dijo. "El número de grados de libertad que están involucrados, tanto en su capacidad de salida (27 grados de libertad en el brazo) como en esta cosa misma. Has tomado un sorbo de algo, 10,000, 100,000, un millón de veces en tu vida. Pero cada vez que lo haces, es diferente. Hazlo otra vez. Ahora es una nueva tarea. Peso diferente Textura diferente en el cristal, etc. Lo estás haciendo en tiempo real ".

Aprovechando la retro-alimentación del motor
Ctrl-labs está tratando de aprovechar cómo aprendemos a usar nuestros propios cuerpos. Se está volviendo a utilizar esa capacidad para permitirnos controlar la tecnología.

"Tienes esta capacidad fenomenal para hacer la adaptación motora", explicó Reardon. “Tienes el mapa general de la tarea. "Tengo que agarrar este vaso y moverlo a mi boca y no meterlo en mi cara". Pero lo hiciste, y no hubo carga cognitiva. No eres como "Tengo que parar y concentrarme en esto". Lo acabas de hacer. Tiene tanta capacidad en ese circuito de retroalimentación del motor que no está explotada por la forma en que usamos las máquinas hoy en día. En el fondo, lo que estamos tratando de hacer un túnel y abrir para las personas es aprovechar esa capacidad de aprender y desplegar habilidades motoras en segundos. Tienes una idea general de cómo hacerlo y la adoptas muy rápido. Y lo haces increíblemente bien ".

Al final del día, su cerebro hace una cosa y solo una cosa, según Reardon: activa y desactiva los músculos. Los humanos son increíblemente buenos para usar su cerebro para aprovechar los músculos de una manera dinámica, adaptándose a circunstancias específicas cada vez. Esto requiere una inmensa cantidad de cálculo, sin crear una sensación de carga cognitiva. Es por eso que esta es la madre de los problemas de aprendizaje automático. Ctrl-labs está tratando de capturar cómo aprenden los humanos.

Dinosaurio de salto
Google Chrome tiene un juego Dino sin conexión incorporado que puedes jugar cuando no tienes conexión a Internet (también puedes acceder al juego escribiendo chrome: // dino / en tu barra de direcciones). Ctrl-labs ha utilizado este juego para mostrar su tecnología anteriormente, incluso en Web Summit, por lo que seguimos volviendo a él como un ejemplo en nuestra entrevista.

Digamos que tiene una pulsera Ctrl-labs y está tratando de aprender a hacer que el dinosaurio salte usando su mente. Al principio, lo haces presionando un botón. La pulsera detecta la actividad eléctrica de sus músculos. Presionas el botón y el dinosaurio salta. Sigues empujando y sigue saltando. Con el tiempo, dejarás de presionar los botones y solo usarás tu mente. El dinosaurio aún salta cuando lo intentas.

Hay una salsa especial en el lado del software que hace que esto funcione. No puedes simplemente presionar botones y luego no presionar botones sin un poco de ayuda. "Al principio es porque lo hacemos saltar según la clave", explicó Reardon. "Y luego lo marcamos lentamente para que la clave no sea lo que lo hace saltar. Es la actividad eléctrica lo que lo hace saltar ".

"Todo lo que has hecho con una máquina en el mundo en el pasado lo hacías moviéndote", dijo Reardon. “Literalmente todo requería un movimiento. Y lo que estamos tratando de hacerte es desaprender el movimiento, pero preservar la intención ".

El movimiento que realiza no tiene que estar definido. Ctrl-labs no tiene que declarar que es, digamos, que el dedo medio de su mano derecha toca un botón. El movimiento real puede ser cualquier cosa. Es completamente arbitrario. Puede ser tu pulgar presionando el botón o tu oreja moviéndose. Pero esa no es la parte loca.

Modulación de fuerza
"Aquí está lo bueno. No tengo que decirte que pares. Lo que comienzas a darte cuenta es que el dinosaurio va a saltar tanto si presionas el botón como si no ”, dijo Reardon. "Cuando dije" esto es en lo que su cerebro es realmente bueno ", su cerebro está tratando de resolver este problema de" ¿cuál es la acción mínima que puedo crear para causar una reacción? "Y eso es lo que su cerebro aprende. Esa tarea de adaptación que estás haciendo es la modulación de fuerza. Estás tratando de hacer la menor cantidad de actividad neuronal para generar contracciones musculares para agarrar el vaso y traerlo de vuelta. Y siempre intentas minimizarlo por completo. No puedes hacer esto. No puedes dejar de hacerlo; es imposible."

A medida que su cerebro ve que no hay conexión entre el movimiento que está haciendo y el resultado, deja de hacer el movimiento completo. Una vez que tienes al dinosaurio saltando con tu mente y alguien te pregunta qué estás haciendo, no puedes decirlo. Comenzó moviendo algo, pero ahora lo está haciendo sin moverse. Ctrl-labs está pirateando nuestra capacidad innata de ejercer un esfuerzo mínimo para lograr una acción.

Pronto podría realizar mini sesiones de capacitación para aprender a controlar las acciones de software individuales con su mente. Te pones un dispositivo portátil y se te pide que toques la pantalla para hacer algo en una aplicación o un juego. Aproximadamente 90 segundos después, lo estás haciendo sin tocar la pantalla. Todo humano puede hacer esto, dice Reardon.

"Es uno de los pequeños trucos más extraños", dijo. “Funciona de manera muy confiable. Y puedes seguir construyendo cosas. Tratamos de mostrarlo como una cosa muy simple, pero usted sigue construyéndolos en cientos de claves. Es una experiencia bastante extraña cuando la tienes la primera vez. Es divertido."

Mecanografía
Hablando de teclas, dado que estamos hablando de un dispositivo de entrada definitivo, escribir es un lugar obvio para comenzar. Una cosa es hacer que un dinosaurio salte con tu mente; es otra muy distinta escribir con la mente. Hemos visto escribir demostraciones de Ctrl-labs antes, pero la que se mostró este mes fue fundamentalmente diferente, según Reardon. En lugar de escribir como lo conoce hoy, ya sea presionar teclas físicas o teclas virtuales con autocorrección, Ctrl-labs quiere permitirle formar palabras directamente.

“En este caso, teníamos la capacidad de controlar el modelo de lenguaje al mismo tiempo. Lo llamamos "formación de palabras", por lo que no está escribiendo. Estás formando palabras en tiempo real y se te salen de la mano. Le ofrece una variedad de opciones entre palabras y rápidamente aprende cómo llegar a la palabra que desea formar. En lugar de escribir una tecla a la vez [para formar palabras] ".

¿Y cuál es la principal atracción para escribir de esta manera? Velocidad. Se trata de velocidad.

“En última instancia, queremos que puedas hacer palabras al ritmo del habla. Con cierta presunción de que la velocidad del habla probablemente sea aproximadamente el límite cognitivo de la producción del lenguaje, de la creación del lenguaje, al que estamos muy bien adaptados, pero obviamente la escritura no lo es. Si hablaras muy, muy rápido, ¿podrías escribir a 250 palabras por minuto? Nadie puede hacer eso hoy. Queremos poder hacer que todos hagan eso. Realmente no habría diferencia entre cómo se produce el habla oral y cómo se produce este flujo de texto controlado ".

Para ser claros, Ctrl-labs aún no ha logrado esto. Su demo solo mostraba unas 40 palabras por minuto de velocidad de escritura. Cualquiera puede aprender a escribir más rápido en un teclado. Sin embargo, dejando a un lado la velocidad, claramente hay muchas aplicaciones para escribir sin un teclado, pantalla táctil o micrófono.

AR, VR y plataformas emergentes
"Obviamente, tienen un gran valor en lo que llamaré las plataformas emergentes", dijo Reardon. "Ya sea la computadora que usa en la muñeca o la computadora que usa en la cara, ambas necesitan una interfaz de texto completamente nueva. Entre otras cosas, estamos apostando de manera bastante masiva. Diría que apostamos a la compañía por la idea de que el discurso no iba a ser la forma en que controlaba las máquinas. Va a ser parte de la solución, pero no es la solución completa. Es una solución que usará de forma poco frecuente y episódica. Probablemente esto se muestre mejor por la forma en que las personas usan Alexa hoy en día. Es realmente útil, pero un contexto muy limitado en el que es útil. Controlamos máquinas con texto, y en realidad escribimos y creamos texto hoy, y el habla es una mala forma de autor ”.

AR y VR son objetivos obvios para aplicaciones potenciales porque hoy no tienen buenas experiencias de control. Por lo tanto, no sorprende que Facebook planee incorporar Ctrl-labs en su división Reality Labs. Se estima que Ctrl-labs es la mayor adquisición de Facebook desde que adquirió Oculus por $ 2 mil millones en marzo de 2014. La robótica es otra área que mencionó Reardon, aunque no está claro si eso se seguirá bajo Facebook.

Escribir con la mente es solo uno de los muchos ejemplos que Ctrl-labs ha demostrado que intrigó a Facebook lo suficiente como para comprar la compañía. Pero, de nuevo, es cómo la compañía logró la escritura, no la escritura en sí misma, lo que es impresionante.

Una sola neurona
Cuando Ctrl-labs trabaja con neurocientíficos, la primera pregunta siempre es si las señales provienen de neuronas individuales. ¿Ctrl-labs está enmascarando su tecnología con otros trucos? La demostración de dinosaurios está destinada a mostrar en tiempo real que la compañía puede decodificar una sola neurona. La persona no se mueve en absoluto y, sin embargo, el dinosaurio está saltando.

Eso plantea la pregunta: ¿para qué se usaba esa neurona antes?

En respuesta a esta pregunta, Reardon compartió cierta frustración con la discusión sobre las interfaces cerebro-máquina de hoy. Eso incluye "las cosas locas e invasivas que están haciendo Elon Musk y Neuralink que pueden tener un valor profundo para las personas que no tienen habilidades motoras". Claro, hay personas que han perdido ciertas habilidades motoras, y existe la oportunidad de darles eso funcionar de nuevo. Pero luego la discusión se convierte rápidamente en el uso de neuronas para controlar cosas fuera de su cuerpo y controlar las IA directamente.

Intenciones, no pensamientos
"El problema es que cada neurona en tu cerebro ya está haciendo algo", explicó Reardon. "No es como si hubiera un banco de neuronas alineadas esperando para ser utilizadas y el objetivo de las interfaces cerebro-máquina es ir a escucharlas". En cambio, tienes estas neuronas que ya están haciendo cosas. Entonces, ¿estás tratando de decodificar un pensamiento y convertirlo en algo de acción? No conozco a un neurocientífico vivo que pueda decirme qué es un pensamiento. Es por eso que tuvimos este enfoque único sobre tratar realmente de hablar de intenciones en lugar de pensamientos. Estamos realmente centrados en eso. Intentamos centrarnos en permitirle controlar las cosas que desea controlar. Debes intentar lo que estás haciendo ".

Nuevamente, en la demostración de dinosaurios, el usuario está controlando la neurona de una manera muy intencionada. "Él no piensa" Oye, estoy considerando saltar aquí ". Él dice" Salta. Saltar. Salta ". Quiere saltar. Eso hace que una neurona motora en su columna vertebral realmente se dispare ".

Esa neurona motora es la que controla probablemente una colección de 1,000 a 10,000 fibras en el músculo cubital. Al menos, eso es lo que es para el sujeto en el video. De nuevo, podrías usar un músculo diferente.

Avances
"La parte difícil no es solo escuchar a una neurona y permitirte usar esa neurona para controlar algo de una manera nueva", dijo Reardon. "Es para que aún puedas usar esa neurona. El trabajo realmente duro que hemos hecho es distinguir entre ‘¿Está usando esa neurona para moverse, para controlar su cuerpo? ¿O lo está utilizando para controlar la máquina? "Tenemos algunos, creo, avances bastante impresionantes para distinguir entre diferentes tipos de actividad neuronal de la misma neurona".

¿Cómo sabes que es solo una neurona?

"Hemos pasado por pruebas exhaustivas", dijo Reardon. "No puedo describir aquí. Pero cosas que se publicarán mientras hacemos nuestra publicación académica de este trabajo. Pero hemos hecho la prueba usando técnicas un poco más tradicionales para mostrar que esta es una neurona activada. En nuestro mundo, esto se denomina unidad motora, que es un conjunto de fibras que corresponden a una neurona singular. En realidad, es algo difícil de probar, pero sentimos que lo hemos probado con cierto rigor científico ".

Cuando Ctrl-labs publique su prueba, pasará por una revisión por pares estándar. Reardon aclaró que parte de este avance neuronal único ya se ha publicado, pero el último aún no.

¿Cuando?
Nos hicieron salir de la sala cuando planteé mi última pregunta: ¿cuándo estarán disponibles comercialmente las interfaces neuronales? "Eso es para el futuro", dijo Reardon.

Aproximadamente, ¿estamos hablando dentro de 10 años? "No, es mucho antes que eso".

¿Dentro de cinco años? "Creo que son antes de las cinco".

Entonces, ¿compraremos un dispositivo como este en menos de cinco años a partir de ahora? "O será parte de otro dispositivo, pero sí".

¿Tal vez mi próximo teléfono? "Tal como lo encarnamos, es algo que llevas puesto".

FUENTE: https://www.ctrl-labs.com