Un coche autónomo circula tranquilamente mientras su dueño dormita. De repente, un peatón cruza la vía a gran velocidad pese a que no hay paso de cebra. El robot solo tiene dos alternativas: o frena en seco y recibe el impacto del automóvil que viene detrás o protege a su ocupante y atropella al peatón. Una difícil decisión que ha de tomar en tan solo unos segundos.
La mayoría de fabricantes de coches sin conductor no han desvelado aún qué harían sus vehículos ante una disyuntiva como esa, si bien desde Mercedes afirmaron que, si el robot solo puede salvar una vida, sería preferiblemente la de su dueño. Además, tampoco se sabe con exactitud qué ocurriría si el fatal desenlace del accidente obliga a un juez a buscar culpables. ¿Cómo se defenderá un coche autónomo ante un tribunal para probar su inocencia? ¿Qué argumentos tendrá un robot policía si dispara a un inocente mientras intentaba abatir a un criminal?
Por eso, un grupo de expertos británicos en robótica han defendido en un estudio que los autómatas deberían disponer de una caja negra, similar a la de las aviones, para averiguar cómo se han producido los accidentes en los que estén involucrados. Y no han sido los únicos.
Al fin y al cabo, si los robots van a cuidarnos, vigilarnos o transportarnos por tierra, mar e incluso aire, parece lógico que tengan que dar explicaciones tras los percances que protagonicen al relacionarse con mortales.
Un registro como el de los aviones
Tras una investigación, el regulador estadounidense equivalente a la DGT determinó que la compañía capitaneada por Elon Musk no era la responsable del mortal accidente, ya que el conductor no había tomado las medidas necesarias para evitar la colisión.
Según los investigadores británicos, la mejor forma de hacerlo sería obligar a las compañías de robótica a seguir el ejemplo de la industria de la aviación. La razón por la que los aviones comerciales son seguros no es exclusivamente su buen diseño, sino también los complejos procesos de certificación de esa seguridad o los métodos ‘sólidos y transparentes’ de investigación tras producirse un desafortunado accidente.
No en vano, los registros de datos del vuelo o las grabaciones de las conversaciones de la tripulación recogidas en las cajas negras son determinantes en cualquier catástrofe aérea.
Alemania y la Unión Europea, a favor de las cajas negras
Un informe aprobado por el Parlamento Europeo aconseja que los autómatas estén equipados con una caja negra que registre las operaciones que han realizado y los pasos que les han llevado a formular esa decisión.
Así, las máquinas se lo pensarán dos veces antes de cometer una imprudencia: sus fabricantes sabrán que sus acciones están siendo escrupulosamente registradas.
Alemania, una de las grandes potencias automovilísticas, ha sido una de las primeras en mover ficha a este respecto. El país germano acaba de aprobar una ley que obliga a que los ecuánimes coches autónomos dispongan de una caja negra que registre los detalles del viaje y anote si es la máquina o su dueño humano quien está al volante en cada momento.
¿Qué les pasa a los robots por la mollera? Los incidentes entre individuos de metal o de carne y hueso no son los únicos que justifican la necesidad de las cajas negras. También se han producido desgracias protagonizadas por robots en las que ningún humano ha resultado herido.
Por ejemplo, K5, el rechoncho robot vigilante de la empresa Knightscope, se suicidó lanzándose a una fuente sin dejar una nota con los motivos que le habían llevado a tomar tal decisión. La compañía, de hecho, asegura estar investigando por qué este K5, que patrullaba en un centro comercial, metió la pata arrojándose al pilón.
Pero ¿hasta qué punto puede razonar su comportamiento una máquina? A medida que la inteligencia artificial da nuevos pasos, los algoritmos más avanzados son cada vez más difíciles de entender.
De hecho, paradójicamente, se usa también el término ‘caja negra’ para aludir a la dificultad de comprender cómo funciona el aprendizaje profundo o ‘deep learning’, una rama de la inteligencia artificial (IA), que permite a las máquinas extraer sus propias enseñanzas a partir de numerosos ejemplos.
Una situación que está haciendo que algunos expertos intenten abrir la caja negra de estos algoritmos para entender cómo aprenden por su propia cuenta en una suerte de neurociencia de la IA que aún está dando sus primeros pasos.
FUENTE: