Fue recibida como la noticia más importante de la inteligencia artificial desde que Deep Blue derrotara a Gari Kaspárov al ajedrez hace casi 20 años. Google AlphaGo ha ganado tres de los cuatro primeros partidos contra el maestro Lee Sedol en un torneo de Go, lo que demuestra la espectacular mejora de la IA. Nunca antes nos había parecido tan cercano ese fatídico día en el que las máquinas se volverán más inteligentes que los humanos, y sin embargo no llegamos a comprender las implicaciones de este acontecimiento que marcará una época. De hecho tenemos arraigada una serie de errores de concepto serios (e incluso peligrosos) sobre la inteligencia artificial. Elon Musk, el cofundador de SpaceX, nos advirtió hace unos meses de que la IA podría acabar tomando el mundo —lo que provocó un aluvión de comentarios tanto de condena como de apoyo. Para tratarse de un evento futuro tan monumental, existe una sorprendente cantidad de desacuerdo sobre si sucederá o no, o qué forma adquirirá. Esto es especialmente preocupante si tenemos en cuenta los enormes beneficios que obtenemos de la IA y los posibles riesgos. A diferencia de cualquier otra invención humana, la IA tiene el potencial de cambiar la forma de la humanidad, pero también de destruirnos. Es difícil saber qué creer. Sin embargo, empieza a surgir una imagen más clara gracias al trabajo pionero de los científicos de la computación, los neurocientíficos y los teóricos de la IA. Estos son los conceptos erróneos y los mitos más comunes sobre la IA.


MITO:
“Jamas crearemos un simil de la inteligencia humana"
Realidad: Ya tenemos máquinas que igualan o superan la capacidad humana en juegos como el ajedrez o el Go, en la compraventa del mercado de valores y en las conversacionesLos ordenadores y los algoritmos que los impulsan sólo pueden mejorar, y será cuestión de tiempo que estas máquinas destaquen en cualquier actividad humana. Gary Marcus, psicólogo de investigación en la Universidad de Nueva York, dijo que “prácticamente todos” los que trabajan en IA creen que las máquinas nos superarán algún día. “La única diferencia entre los entusiastas y los escépticos es el marco de tiempo”Futuristas como Ray Kurzweil dicen que podría ocurrir dentro de un par de décadas, mientras que otros creen que podría llevar siglos. Los escépticos de la IA no resultan convincentes cuando dicen que es un problema tecnológico sin solución y que hay algo intrínsecamente único en los cerebros biológicosNuestros cerebros son máquinas biológicas, pero son máquinas al fin y al cabo; existen en el mundo real y se adhieren a las leyes básicas de la físicaNo hay nada que sea imposible de conocer sobre ellos.


MITO:
“La IA tendrá conciencia”
Realidad: Una suposición común en torno a la inteligencia artificial es que va a adquirir conciencia, es decir, que acabarán pensando como lo hacemos los humanosEs más, críticos como Paul Allen, cofundador de Microsoft, creen que aún nos queda por lograr una Inteligencia Artificial Fuerte (o AGI) que sea capaz de realizar cualquier tarea intelectual que un ser humano puede hacer porque carecemos de una teoría científica de la concienciaPero, como señala Murray Shanahan, ingeniero de robótica cognitiva del Imperial College de Londres, debemos evitar confundir estos dos conceptos. “La conciencia es sin duda un tema fascinante e importante, pero no creo que sea necesaria para una inteligencia artificial de nivel humano” explica Shanahan. “Para ser más precisos, utilizamos la palabra conciencia para referirnos a una serie de atributos psicológicos y cognitivos que vienen incluidos en los seres humanos”. Es posible imaginar una máquina muy inteligente que carezca de algunos de estos atributosCon el tiempo, podemos construir una IA que sea extremadamente inteligente, pero incapaz de experimentar el mundo de una manera consciente de sí misma, subjetivaMurray Shanahan mencionó que podría ser posible acoplar tanto la inteligencia como la conciencia en una máquina, pero que no debemos perder de vista el hecho de que son dos conceptos distintos. Aunque una máquina pase el test de Turing —en el que un ordenador se vuelve indistinguible de un ser humano—, eso no quiere decir que sea conscientePara nosotros, una IA avanzada puede dar la sensación de conciencia, pero no será más consciente de sí misma que una piedra o una calculadora.


MITO:
“No debemos temer a la IA”
Realidad: En enero, Mark Zuckerberg, el fundador de Facebook, dijo que no debíamos temer a la IA porque hará una cantidad increíble de cosas buenas para mejorar el mundoTiene razón a medias: estamos posicionados para obtener enormes beneficios de la IA —desde los coches autónomos hasta la creación de nuevos medicamentos—, pero no hay garantías de que todas las instancias de la IA serán benignas. Un sistema altamente inteligente podría saberlo todo acerca de una tarea determinada, como por ejemplo resolver un problema financiero o hackear un sistema enemigo, pero fuera de estos ámbitos especializados ser ignorante e inconscienteEl sistema DeepMind de Google es competente en el Go, pero no tiene capacidad o raciocinio para investigar fuera de este dominio. El virus Flame virus se utiliza para el ciberespionaje en países de Oriente MedioImagen: Wired Muchos de estos sistemas podrían no estar desarrollados siguiendo las consideraciones de seguridadUn buen ejemplo es el virus Stuxnet, un gusano desarrollado por los militares de Estados Unidos e Israel para infiltrarse y atacar las plantas nucleares iraníesDe alguna manera (ya sea deliberada o accidental), este malware acabó infectando una planta de energía nuclear de Rusia. También está Flame, un programa utilizado para el ciberespionaje en Oriente MedioEs fácil imaginar cómo las futuras versiones de Stuxnet o Flame podrían propagarse más allá de sus objetivos e infligir incontables daños en infraestructuras sensibles.

MITO:
“La súper IA será demasiado inteligente como para cometer errores”
Realidad: Richard Loosemore, matemático del Wells College, cree que los escenarios del Día del juicio final provocados por una inteligencia artificial son imposiblesSu razonamiento es que una IA lo bastante sofisticada será capaz de detectar fallos en su propio diseño y modificarse a sí misma para ser seguraDesafortunadamente, seguirá trabajando para el propósito por el que fue creada. Peter McIntyre y Stuart Armstrong, ambos del Instituto para el Futuro de la Humanidad en la Universidad de Oxford, no están de acuerdoAmbos creen que una IA sí que es capaz de cometer errores o simplemente puede ser demasiado necia como para saber lo que se espera de ella. “Por definición, una superinteligencia artificial (SIA) es un agente con un intelecto muy superior al de los mejores cerebros humanos en prácticamente cualquier campo”, escribe McIntyre. “Sabrá exactamente lo que esperamos de ella”McIntyre y Armstrong creen que una IA sólo llevará a cabo aquellas funciones para las que está programada, pero si se vuelve lo bastante inteligente, podría ser capaz de deducir en qué difieren esas acciones del espíritu de la ley o de la intención de los seres humanos que la crearon. McIntyre compara el futuro de los seres humanos con el de los ratonesUn ratón tiene el impulso de comer y buscar refugio, pero ese impulso a menudo entra en conflicto con los humanos, que quieren una morada libre de ratones. “Al igual que nosotros somos lo bastante inteligentes como para entender las metas de los ratones, un sistema superinteligente podría saber qué es lo que queremos y que al mismo tiempo le dé completamente igual”.

MITO:
“Un simple parche solucionará el problema de controlar la IA”
Realidad: Asumiendo que podamos crear una IA más inteligente que nosotros, aún tendremos un reto muy serio conocico como “Problema del control”Los futurólogos y teóricos de la IA no logran explicar cómo seremos capaces de contener y controlar una SIA una vez exista, o cómo lograr que sea amistosa con los seres humanos. Recientemente, investigadores del Instituto Tecnológico de California sugirieron inocentemente que una IA podría aprender los valores y convenciones sociales de los seres humanos simplemente leyendo cuentosProbablemente será mucho más complicado que eso. “Se han propuesto muchos trucos sencillos que solucionarían el problema del control de la IA”, explica ArmstrongAlgunos ejemplos incluyen programar la SIA de manera que tenga el impulso de satisfacer a los seres humanos, o que funcione única y exclusivamente como una herramientaTambién podríamos integrar en su programación conceptos como el amor o el respetoPara prevenir que la IA tenga una visión del mundo demasiado simplista, podría ser programada para apreciar la diversidad intelectual, cultural y social. Sin embargo, estas soluciones son demasiado simplesTratan de encajar toda la complejidad de los gustos y disgustos humanos en una única definición cómodaIntentan reducir todas las complejidades de los valores humanos en una única palabra, frase o ideaBasta con pensar en la increíble dificultad de establecer una definición coherente y práctica de términos como “respeto”. “Eso no significa que esos parches o trucos sean completamente inútilesMuchas de ellas sugieren líneas de investigación muy interesantes y pueden contribuir a dar con la solución definitiva”, asegura Armstrong. “Pero no podemos confiar en su eficacia sin trabajarlos mucho más y explorar todas sus implicaciones”.

MITO:
“Seremos destruidos por una superinteligencia artificial”
Realidad: No hay ninguna certeza de que una IA vaya a destruirnos ni de que finalmente encontremos métodos para contenerla y controlarlaEl teórico de la inteligencia artificial Eliezer Yudkowsky dice: “La IA no te odia ni te ama, pero estás hecho de átomos que puede usar con otros propósitos”. En su libro: Superintelligence: Paths, Dangers, Strategies, el filósofo de la Universidad de Oxford Nick Bostrom escribe que una superinteligencia artificial, una vez terminada, puede suponer un peligro mayor para el ser humano que cualquier otro inventoPensadores tan prominentes como Elon Musk, Bill Gates, o Stephen Hawking (el cual ya ha advertido que la IA puede ser el peor error de nuestra historia) también han dado la voz de alarma. McIntyre explica que, en la mayor parte de metas que una superinteligencia artificial pueda tener, hay buenas razones para eliminar a los humanos de la ecuación. “Una IA puede llegar a la conclusión (bastante correcta) de que no queremos que maximice el beneficio de una compañía por encima de los consumidores, el medio ambiente o los animales”, dice McIntyre. “En ese momento, la IA tiene un ben incentivo para asegurarse de que los humanos no la interrumpen o interfieren con su objetivo, incluyendo que la apaguemos o que queramos cambiar sus metas”. A menos que los objetivos de una SIA se correspondan exactamente con los nuestros, McIntyre explica que el sistema tendría buenas razones para no darnos la opción de detenerla, y teniendo en cuenta que su inteligencia supera ampliamente la nuestra, no tenemos mucho que hacer. Pero no hay nada garantizadoNadie puede saber con seguridad qué forma tomará la Inteligencia Artificial, ni como podría poner en riesgo a la humanidadComo Musk ya ha señalado, la IA puede usarse para controlar, regular o monitorizar otras IA, o podríamos dotarlas de valores humanos o con la imposición de ser amistosa con nosotros.

MITO:
“La superinteligencia artificial será amistosa”
Realidad: El filósofo Immanuel Kant creía con firmeza que la inteligencia se correlacionaba con la moralidadEn su ensayo “Singularidad: un análisis filosófico”, el neurocirujano David Chalmers tomó la famosa idea de Kant y la aplicó al auge de la superinteligencia artificial. Si esto es correcto..Podemos esperar que una explosión de la inteligencia artificial conduzca también a una explosión de la moralPodemos esperar que los sistemas (superinteligentes) serán supermorales además de superinteligentes, así que podemos asumir que serán benignos. La idea, sin embargo, de que la inteligencia artificial avanzada estará “iluminada” intelectualmente y será inherentemente buena no acaba de concordarComo Armstrong indicaba, hay muchos criminales de guerra inteligentesUna relación entre la inteligencia y la moralidad no parece existir entre los humanos, así que cuestiona la asunción directa de que también aparecerá en otras formas de inteligencia. “Los humanos muy inteligentes que se comportan de manera inmoral tienden a causar dolor en una escala muchísimo mayor que sus pares menos inteligentes” afirma. “La inteligencia simplemente les proporciona la habilidad de ser malos de manera más inteligente, no de transformarse en buenas personas”. Como McIntyre explica, la habilidad de un agente de conseguir un objetivo no tiene que ver con si es un objetivo inteligente o no para empezar. “Tendríamos que ser muy afortunados para que nuestros sistemas de inteligencia artificial estuviesen dotados de manera única con la capacidad de crecer de manera moral al tiempo que crecen intelectualmenteConfiar en la suerte no es la mejor de las políticas para algo que podría determinar nuestro futuro”.

MITO:
“Los riesgos de la IA y la robótica son los mismos”
Realidad: Este error es particularmente común (buenos ejemplos aquí y aquí), uno perpetuado por películas de Hollywood poco rigurosas como Terminator. Si una superinteligencia artificial como Skynet de verdad quisiese destruir la humanidad, no usaría una serie de androides equipados con metralletasEn su lugar utilizaría medidas más eficientes como, por ejemplo, liberar una plaga biológica o instigar una plaga autorreplicante de nanobotsO podría, sin más, destruir la atmósferaLa Inteligencia Artificial es potencialmente peligrosa no por lo que implica para el futuro de la robótica sino por cómo podría invocar su presencia y devastar el mundo.

MITO:
“La IA en la ciencia ficción describe con fidelidad cómo será en el futuro”
Realidad: Sí, la ciencia ficción ha sido usada por autores y futuristas para hacer predicciones durante años, pero el horizonte que dibuja la posible presencia de una superinteligencia es más oscuroEs más, la naturaleza no humana de la IA hace que sea imposible para nosotros saber, y por tanto predecir, su forma y características. Para que la ciencia-ficción nos entretenga como humanos, la mayoría de IAs necesitan ser similares a nosotros. “Hay todo un espectro de mentes fascinante, incluso dentro de los seres humanosEres diferente a tu vecinoEsta variación, con todo, no es nada comparado con todas las mentes diferentes posibles que pueden llegar a existir” amplía McIntyre. La mayoría de ciencia-ficción existe porque necesita contar una historia con fuerza, no para ser científicamente correctasPor tanto, el conflicto en la ciencia ficción tiende a estar entre entidades que rara vez son equiparadas. “Imagina cómo de aburrida sería una historia” dice Armstrong “donde una IA sin conciencia, felicidad u odio elimina a todos los humanos sin ningún tipo de resistencia para conseguir un objetivo que es, de por sí, poco interesante”.

MITO:
“Es terrible que las IAs acaben por robarle el trabajo a humanos”
Realidad: La capacidad de la IA de automatizar muchas de las cosas que hacemos por un lado y su potencial de destruir la humanidad, por otro, son cosas muy diferentesSegún Martín Ford, autor de Rise of the Robots: Technology and the Threat of a Jobless Future, a menudo están mezclados y confundidosEs correcto pensar en un futuro lejano y en las implicaciones que sobre él puede tener la IA, pero sólo si no nos distrae de los problemas a los que tendremos que enfrentarnos en las siguientes décadasEl más importante de ellos es la automatización en masa. No hay duda de que la inteligencia artificial está destinada a eliminar y reemplazar mucho de los trabajos actuales, desde el trabajo en fábricas a otros más sofisticadosAlgunos expertos predicen (PDF) que la mitad de los trabajos en Estados Unidos son susceptibles de ser automatizados en el futuro. La cuestión es que nada de esto implica que seremos incapaces de manejar la disrupción que supondráEstá claro que eliminar mucha de nuestra carga de trabajo, tanto física como mental, es un objetivo casi utópico para nuestra especie. “Durante las siguientes dos décadas la IA va a destruir muchos trabajos, pero eso es algo bueno” Miller explicaCamiones autónomos podrían reemplazar a los transportistas, por ejemplo, lo cual abarataría los bienes provocando que fuese más barato comprar bienes “Si eres un conductor de camiones, está claro que pierdes, pero todos los demás ganan porque pueden comprar más con lo mismoEse dinero de los que sí ganan se podrá gastar en otros bienes y servicios que generarán nuevos trabajos para más humanos”. Con toda probabilidad, la inteligencia artificial producirá nuevos modos de creación de riqueza, al tiempo que liberan a los humanos para realizar otras cosasY los avances en la IA estarán acompañados de otros en diferentes áreas, sobre todo en fabricaciónEn el futuro será más sencillo, y no más difícil, satisfacer nuestras necesidades básicas.




Un algoritmo de odometría visual utiliza eventos de cambio de brillo de baja latencia de un sensor dinámico de Vision (DVS) y los datos de una cámara normal para proporcionar valores de brillo absolutos. La fotografía muestra el marco de la cámara, y la foto de la izquierda muestra las actividades de DVS (que se visualiza en rojo y azul), además de la escala de grises de la cámara.


Algoritmo que aprovechan los datos de un nuevo sensor podría hacer que los robots autónomos sean más ágiles.


Una de las razones por las que aún no tenemos demasiados coches de auto-conducción y mini-helicópteros de entrega de compras en línea es que los vehículos autónomos tienden a no funcionar bien bajo presión. Un sistema que puede perfectamente volar paralelo a un parque a 5 mph, puede tener problemas para evitar obstáculos a 35 mph.

Parte del problema es el tiempo que toma para recibir e interpretar datos de la cámara. Un vehículo autónomo utilizando una cámara estándar para controlar su entorno podría tomar alrededor de una quinta parte de un segundo para actualizar su ubicación. Eso es lo suficientemente bueno para las condiciones normales de funcionamiento, pero no lo suficientemente rápido para manejar lo inesperado.

Andrea Censi, un científico de investigación en el Laboratorio del MIT para los sistemas de información y de decisión, piensa que la solución podría ser la de complementar las cámaras con un nuevo tipo de sensor llamado ("neuromorphic") un sensor basado en eventos que puede tomar mediciones un millón de veces por segundo.

En la Conferencia Internacional de Robótica y Automatización, Censi y Davide Scaramuzza de la Universidad de Zurich presentaron el primer algoritmo de estimación de estado -el tipo de algoritmo que el robots utiliza para calibrar su posición- para procesar los datos de los sensores basados ​​en eventos. Un robot que ejecutase su algoritmo podría actualizar su ubicación en cada milésima de segundo más o menos, lo que le permite realizar maniobras mucho más ágiles.

"Una cámara normal, tiene una serie de sensores, y luego hay un reloj", explica Censi. "Si usted tiene una cámara de 30 cuadros por segundo, cada 33 milisegundos el reloj se congelan todos los valores, y los valores se leen en orden" Con un sensor basado en eventos, por el contrario, "cada píxel actúa como un sensor independiente ", dice Censi. "Cuando hay un cambio en la luminancia - ya sea en la dirección positiva o negativa - es mayor que un umbral, el pixel dice, veo algo interesante 'y comunica esta información como un evento. Y entonces se espera hasta que se vea otro cambio".

En la animación, para medir la velocidad de la plataforma se realiza un seguimiento mediante la fusión de los eventos desde el sensor basado en eventos (aquí se muestra en rojo y azul) y los fotogramas de una cámara normal. (Cortesía de los investigadores.)
Evento destacado

Cuando un algoritmo de estimación de estado estándar recibe una imagen de una cámara montada en un robot, primero se identifican "características": gradaciones de color o tono que se necesita para ver fronteras entre objetos. A continuación, se selecciona un subconjunto de esas características que considera poco probable que cambie mucho con nuevas perspectivas.

Treinta milisegundos más tarde, cuando la cámara dispara de nuevo, el algoritmo lleva a cabo el mismo tipo de análisis y comienza a trabajar para que coincida con las características entre las dos imágenes. Este es un proceso de ensayo y error, que puede tomar de 50 a 250 milisegundos, dependiendo de cómo ha cambiado drásticamente la escena. Una vez que se corresponden las características, el algoritmo puede deducir de sus cambios de posición hasta qué punto el robot se ha movido.

El algoritmo de Censi y de Scaramuzza complementa datos de la cámara con los eventos notificados por un sensor basado en eventos, que fue diseñado por su colaborador Tobi Delbrück del Instituto de Neuroinformática en Zurich. La primera ventaja del nuevo algoritmo es que no tiene que identificar las características: Cada evento es intrínsecamente un cambio en la luminancia, que es lo que define una característica. Y debido a que los eventos son reportados tan rápidamente - cada millonésima de un segundo - el problema de la concordancia se hace mucho más simple. No hay tantas características candidatas a tener en cuenta ya que el robot no se puede haber movido muy lejos.

Por otra parte, el algoritmo no intenta hacer coincidir todas las características de una imagen a la vez. Para cada caso, se genera un conjunto de hipótesis acerca de hasta qué punto el robot se ha movido, lo que corresponde a varias funciones candidatas. Después de que suficientes acontecimientos se han acumulado, simplemente selecciona la hipótesis de lo que se convierte en una imagen util con mayor frecuencia.

En experimentos con robots con una cámaras y sensores basado en eventos, su algoritmo resultó ser tan preciso como los algoritmos de estimación de estado existentes.
En la animación, la resolución temporal de sensores basados en eventos es tan rápida que se puede ver la rotación de las hélices a Quadrotor. (Cortesía de los investigadores.)
Una de las inspiraciones para el nuevo trabajo, dice Censi, fue una serie de experimentos recientes hechos por Vijay Kumar de la Universidad de Pennsylvania, que demuestran que los helicópteros Quadrotor (helicópteros robóticos con cuatro conjuntos de rotores) podría realizar maniobras muy ágiles. Pero en esos experimentos, Kumar medio la ubicación de los robots utilizando una batería de cámaras externas que capturaron 1.000 exposiciones por segundo. Censi cree que su algoritmo de Scaramuzza permitiría un quadrotor con sensores a bordo para replicar los resultados de Kumar.

Ahora él y sus colegas tiene un algoritmo de estimación de estado fiable, dice Censi, el siguiente paso es desarrollar un algoritmo de control correspondiente (un algoritmo que decide qué hacer sobre la base de las estimaciones del estado). Este es el objeto de una continua colaboración con Emilio Frazzoli, profesor de aeronáutica y astronáutica del MIT.

"Este trabajo es muy interesante", dice Roland Siegwart, profesor de sistemas autónomos en el Instituto Federal Suizo de Tecnología de Zurich. "Es, que yo sepa, la primera vez que un sensor de visión dinámica neuromorphic [DVS] se ha integrado y evaluado en una plataforma de robot móvil."

"El DVS ofrece un nuevo tipo de modalidad de detección con gran ancho de banda," continúa Siegwart. "Esto tiene bastante potencial para los movimientos del robot de alta velocidad específicos, tales como maniobras dinámicas con quadrotors con la percepción y el control sólo de a bordo."

Pero queda por ver si los sensores neuromórficos probarán ser los medios más eficientes para hacer las odometría advierte. "Tengo algunas dudas si una combinación de un DVS con una cámara estándar puede superar, en calidad y precio, un sistema que se integra perfectamente con una unidad de medición inercial [una tecnología bien establecida que utiliza acelerómetros y giroscopios para medir el movimiento] con una cámara ".



Científicos del MIT acaban de presentar la nueva versión de su robot Cheetah. El pasado año, este guepardo mecánico ya daba sus primeros pasos sobre una cinta transportadora y sujeto a un cable. Ahora ay es capaz de correr libremente y, lo que es mejor, sobrepasar obstáculos y dar unos considerables saltos.
La segunda versión del Cheetah no es el robot cuadrúpedo más rápido. De momento apenas supera los 16 kilómetros por hora (o los 22 km/h con alimentación por cables). Hay otros proyectos como el robot con forma de velociraptor del Instituto Avanzado de Ciencia y Tecnología de Corea del Sur (KAIST) que ya alcanzan los 42 km/h.

En lo que el Cheetah si es único es en un nuevo algoritmo desarrollado por el MIT que controla los movimientos de las patas y calcula en tiempo real la fuerza que debe ejercer cada extremidad en el momento de tocar el suelo. Este algoritmo le permite economizar energía, correr por encima de obstáculos, y saltar obstáculos de hasta 33 centímetros de altura.

El sistema se basa en un motor eléctrico desarrollado por los propios investigadores del MIT en un proyecto que también cuenta con la colaboración de la agencia DARPA. Los científicos confían en poder pulir el sistema para que el robot corra libremente a velocidades de 48 km/h.
22.08.2011
En su cuenta de Twitter, R2 ha comentado al detalle la operación en la que ha recibido su primera recarga energética a gravedad cero. Además también ha compartido las fotografías de la maniobra a través de Facebook.

Se trata de una operación complicada en la que han tenido que conectar al robot por control remoto desde la Tierra a la fuente de energía.

"¡Estos electrones sientan bien! Un pequeño paso para el hombre, y un gran salto para los hombres de hojalata" ha "escrito" R2 a través de Twitter en cuanto se ha completado la operación.

Hasta ahora, las operaciones de R2 se han visto limitadas al módulo Destiny de la Estación Espacial Internacional (ISS), pero el equipo del robonauta espera que en la Expedición 29 de la ISS los movimientos del robot se extiendan a otras zonas del complejo.

El objetivo principal de R2 es encargarse en un futuro de las posibles reparaciones que necesite la Estación Espacial.

El primer androide en el espacio

En febrero de 2011 R2 se convirtió en el primer robot humanoide en viajar al espacio a bordo del transbordador Discovery.

Este robot puede usar las mismas herramientas que utilizan los humanos y levantar pesos sin problemas. Además puede imitar sin problemas los movimientos de los humanos.

Los movimientos de R2 recuerdan a los androides de ciencia ficción como Terminator o los robots de Battlestar Galáctica, por no mencionar su nombre, similar al popular R2D2 de La Guerra de las Galaxias.

La estancia de R2 en la ISS es indefinida, y de momento no hay fecha de regreso a la Tierra.

Google cada vez aprenderá y sabrá más de nosotros, y deberíamos aceptarlo de una vez.
Su nuevo sistema de inteligencia artificial, llamado PlaNet, está diseñado para identificar exactamente dónde has tomado una fotografía sin que se lo digas, y mientras más la usemos más aprenderá de nosotros y mejorará.

Como reportan desde el MIT Technology Review, la I.A. fue diseñada por un equipo liderado por el experto en informática Tobias Weyand. El funcionamiento de PlaNet es más fácil de entender de lo que imaginamos: simplemente al “ver” una foto la analizará píxel a píxel y comparará sus datos con la enorme base de datos que la respalda, la cual está compuesta actualmente por más de 90 millones de fotografías geoposicionadas, y este número no hará más que crecer en el futuro.

Al comparar patrones, detalles y referencias en la imagen que analice logrará identificar la ubicación en la que fue capturada la foto con una precisión impresionante. Durante sus primeras pruebas, cuando la base de datos solamente contaba con 2.3 millones de imágenes, logró identificar el país de origen donde fue tomada la foto en un 28.4% de los casos, y el continente en un 48%. Ahora, con 90 millones de imágenes de respaldo, los números prometen ser mucho mayores.

Todavía no hay planes exactos de que este sistema escape de los laboratorios de Google y llegue a formar parte de alguno de sus productos, pero sin duda que ese día llegará, y más nunca podremos disimular que estamos en un lugar falso en nuestras fotos de Instagram. [vía MIT Technology Review]


La inteligencia artificial (IA) resolverá tarde o temprano los grandes problemas del mundo… pero se necesitarán humanos inteligentes para lograrlo.

Quoc Le, ingeniero de software de Google Brain, es uno de ellos.

Google Brain se centra en el "aprendizaje profundo", parte de la inteligencia artificial. La concibe como una clase sofisticada de aprendizaje mecánico, como la ciencia de lograr que las computadoras aprendan a través de los datos.

El aprendizaje profundo usa varias capas de algoritmos (llamadas redes neurales) para procesar imágenes, texto y sentimientos de forma rápida y eficiente.

La idea es que las máquinas puedan llegar a tomar decisiones como lo hacen los humanos. Sin embargo, aún estamos lejos de ese punto, según un texto que Andrew Ng, cofundador de Google Brain, publicó recientemente en el sitio web Quora.

Google Brain inició operaciones en 2011 y originalmente era una iniciativa de la hermética y futurista división Google X. Ahora ha evolucionado y es parte del departamento de investigación de la empresa. Aunque Google publica investigaciones de Brain, se sigue reservando la estructura organizacional del equipo. Google no revela cuántas personas forman parte del equipo actualmente y argumenta que los equipos son cambiantes.

Le, de 34 años, tiene un doctorado en Ciencias Computacionales por la Universidad de Stanford, Estados Unidos, y ha estado trabajando en Google Brain desde hace cuatro años y medio.

"Hay pocas personas en el mundo que de verdad entienden cómo hacer que las máquinas aprendan y piensen", dijo Le, originario de Vietnam. "El aprendizaje profundo sigue siendo nuevo".

Pero conforme se desarrolla el aprendizaje profundo, la gente se emociona cada vez más por su potencial para resolver grandes problemas como la educación o el cambio climático. Por ejemplo: a través de sensores remotos, se puede dar seguimiento a información ambiental de todo el mundo.

En este momento, esa información sigue sin procesarse en gran medida, pero el aprendizaje profundo podría servir para entender patrones y dar soluciones.

"Confío en que el aprendizaje profundo no se estancará en el futuro cercano y que seguirá creciendo rápidamente", escribió Ng en Quora. Ng ahora trabaja como jefe de científicos en Baidu.

Alphabet, la empresa matriz de Google, integró tecnología de Google Brain en algunos de sus servicios: tecnología de reconocimiento del habla en sus sistemas operativos Android y capacidades mejoradas de búsqueda de fotos que surgieron en Brain.

Google abrió el acceso de TensorFlow, su código de aprendizaje profundo, en un intento por acelerar el desarrollo de la inteligencia artificial. En 2014 compró DeepMind Technologies por 650 millones de dólares en un intento por reforzar su departamento de IA.

Según el sitio CB Insights, las empresas emergentes que trabajan en el aprendizaje profundo y en la inteligencia artificial, han recaudado más de 950 millones de dólares en los pasados cinco años.

Olcan Sercinoglu, exmiembro de Google Brain, dirige una de ellas. Sercinoglu es ingeniero de software y dejó Google Brain en 2014 para fundar Scaled Interference, empresa que busca que el aprendizaje mecánico llegue al público en general gracias al softwareinteligente. Aún no pone a la venta su producto, pero a unos meses de incorporarse, Sercinoglu recaudó 13.6 millones de dólares de parte de inversionistas como Tencent Holdings, SV Angel y Khosla Ventures.

El atribuye a Google Brain (que es famosa por su trabajo de vanguardia) el haber podido cerrar una ronda tan exitosa.

"Creo que el haber trabajado en Google Brain fue un factor muy importante", dijo; agregó que el aprendizaje profundo y las redes neurales son solo un aspecto de la tecnología que su empresa está desarrollando.

Sercinoglu tiene 34 años y pasó casi un año trabajando en el equipo de Google Brain, aunque estuvo casi 10 años en otros departamentos de Google. Hizo una pasantía en la empresa en 2001 al mando de Jeff Dean. Dean, investigador sénior de Google, era uno de los investigadores originales del equipo de Google Brain.


Científicos de EE.UU. han determinado, midiendo con precisión el tamaño de las sinapsis neuronales, que la capacidad de memoria del cerebro es 10 veces mayor de lo que se creía, y está en niveles de petabyte, es decir, Internet entera. El descubrimiento podría abrir la vía de supercomputadores precisos y de bajo consumo.

Un estudio realizado en Canadá ha revelado que de la fuerza de las conexiones entre diversas áreas cerebrales puede depender nuestra habilidad para aprender nuevos idiomas. Demuestra que habría una capacidad innata en este sentido, aunque los científicos señalan que es una capacidad que se puede desarrollar aunque no se tenga, gracias a la plasticidad cerebral. Por Sandra Romero.

Las células interpretan las señales químicas de forma colectiva, lo que aumenta enormemente su precisión. Con esa información, deciden adónde moverse. Eso sí, la precisión sigue estando limitada en el espacio y el tiempo. Además, las células se comunican solo con las que están pegadas a ellas.

La Ingenieria médica de EE.UU. ha conseguido que una persona mueva los dedos por separado con una prótesis robótica controlada por la mente. Hasta ahora, las prótesis de este tipo movían los dedos en 'garra', como cogiendo una pelota de tenis.

Mientras espero el metro, me doy cuenta de que algo está mal en el suelo del andén. El patrón de las baldosas de gres oscuras, lisas, está interrumpido a metro y medio del borde por una línea de baldosas blancas con surcos que discurre paralela al andén. Luego vuelven las baldosas lisas hasta el borde, donde hay un par de bandas de goma. No tienen ningún sentido esas baldosas blancas, es un cambio estético absurdo. Un cambio que se repite en todas las estaciones.

Científicos húngaros y alemanes publicarón en 2003 un estudio que paso desapercibido para la comunidad y hoy es reflotado en este blog. Los especialistas filmaron decenas de “olas” en los estadios de fútbol y aplicaron un análisis de la propagación de ondas a partir de una perturbación inicial. Lo sorprendente de la cuestión es que se trata de un comportamiento sencillo, espontáneo y reproducible, de una situación en la cual miles de personas consiguen un alto grado de coordinación y cooperación para lograr un objetivo sencillo, sin acuerdo previo.

El estudio divide al fenómeno en dos fases:

1. el inicio de la ola (perturbación), en el cual un número reducido de personas se levantan en forma simultánea

2. la de propagación.

La fase inicial fue analizada en el programa Brainiacs, en donde evaluaron in situ la cantidad mínima de personas necesarias para que la perturbación sea suficiente para dar inicio a la segunda fase. Algunos datos interesantes del estudio son:

1. Estado o “humor” de la multitud: la gente debe estar en una situación intermedia, sentados pero en un estado excitable como para responder a la perturbación.

2. La propagación se inicia hacia ambos lados pero solo “sobrevive” hacia un solo lado (quiebre de la simetría espontánea). Los elementos hallados para explicar el fenómeno son dos: la naturaleza asimétrica de la percepción humana y una tendencia a la propagación en el sentido de las agujas del reloj (en el 75% de los casos). Agrego esta pregunta: los estudios fueron hechos en el hemisferio norte. ¿Será al revés en el sur?

3. La velocidad de propagación se mantiene sorprendentemente lineal.

para entender mejor el concepto desarrollaron un algoritmo de simulación:
Imagen animada de un fragmento de la simulación

Simulación a gran escala de la propagación de la “ola”

El estudio utiliza modelos que se interrelacionan con casos específicos como la propagación de incendios forestales o el crecimiento de tejidos orgánicos. De la misma manera, los resultados son aplicables a situaciones de desplazamiento de personas, como las estaciones de trenes, e incluso para modelos de propagación de información o memes.

Existe en un simulador en linea donde probar alteraciones del fenomeno