LA IA DEL MIT CALIFICA EL EGOÍSMO DEL CONDUCTOR PARA HACER QUE LOS VEHÍCULOS AUTÓNOMOS SEAN MÁS ASERTIVOS


¿Puede la conciencia social mejorar la robustez de los automóviles autónomos? Eso es lo que un equipo de investigadores del MIT Computer Science and Artificial Intelligence Laboratory se propuso descubrir en un estudio reciente. Crearon un sistema que clasifica el comportamiento de otros conductores con respecto a su egoísmo; en otras palabras, si los conductores tienen menos probabilidades de actuar de manera altruista hacia otros automóviles. En las pruebas, dicen que su algoritmo predijo mejor cómo se comportarían los conductores en un factor del 25%.

"Crear un comportamiento más humano en los vehículos autónomos (AV) es fundamental para la seguridad de los pasajeros y los vehículos circundantes, ya que comportarse de manera predecible permite a los humanos comprender y responder adecuadamente a las acciones del AV", dijo el estudiante graduado y autor principal de la investigación. Wilko Schwarting en un comunicado.

El modelo del equipo se basa tanto en la teoría de juegos como en el concepto psicológico de la Orientación del valor social (SVO), que indica el grado en que alguien es egoísta ("egoísta") versus cooperativo ("prosocial"). Para diseñarlo, modelaron escenarios en los que los conductores intentaron maximizar su utilidad, en los que el modelo aprendió a predecir a partir de fragmentos de movimiento si los conductores eran cooperativos, altruistas o egoístas. Con el tiempo y de esta manera, la IA llegó a comprender cuándo es apropiado exhibir diferentes comportamientos de conducción.

En escenarios que involucran fusión y giros a la izquierda, por ejemplo, los conductores dejan que otros autos se unan en un carril u optan por no hacerlo. (Los autos que se fusionan se consideran más competitivos que los que no se combinan). El modelo de los investigadores, entonces, podría optar por ser más asertivo para asegurarse de que puede hacer un cambio de carril en el tráfico pesado. En otros casos, como cuando se enfrenta a completar un giro a la izquierda sin protección, el modelo puede esperar a que se acerque un automóvil con un conductor más prosocial antes de tomar medidas.

Los investigadores dicen que su sistema aún no es lo suficientemente robusto como para implementarse en vías públicas, pero planean aplicar su modelo a peatones, bicicletas y otros agentes en entornos de manejo. Además, tienen la intención de investigar otros sistemas robóticos que actúan entre humanos, como los robots domésticos, e integrar SVO en los algoritmos generales de predicción y toma de decisiones.

"Trabajar con y alrededor de los humanos significa descubrir sus intenciones para comprender mejor su comportamiento", dice Schwarting, autor principal del nuevo artículo que se publicará esta semana en el último número de las Actas de la Academia Nacional de Ciencias (PNAS). ) “Las tendencias de las personas a ser colaborativas o competitivas a menudo se extienden a cómo se comportan como conductores. En este artículo buscamos entender si esto era algo que realmente podríamos cuantificar ”.