UN NUEVO SISTEMA DE INTELIGENCIA ARTIFICIAL ANTIRROBO RESUME VARIOS DE LOS PROBLEMAS DE SESGOS ATRIBUIDOS A LOS ALGORITMOS

Una startup estadounidense de inteligencia artificial llamada Standard Cognition ha anunciado que está probando una tecnología desarrollada para permitir comprar en tiendas sin necesidad cajeros ni de detenerse a pagar de ninguna manera: sólo llegar, coger el producto deseado y salir. Al estilo de los supermercados Amazon Go.

Y todo gracias al uso de cámaras y algoritmos para controlar de cerca los movimientos de los clientes y su interacción con los productos de los estantes. Pero lo relevante de la noticia no es la tecnología en sí, ni las nuevas dinámicas de consumo que podría favorecer, ni nada por el estilo.

No: lo relevante es su modo de prevenir el robo en tiendas. Los algoritmos de IA de Standard Cognition pueden, según explica la compañía, reconocer "signos reveladores" en los movimientos y actitudes de los clientes, su velocidad, sus miradas o movimientos. Todos estos factores se comunican inmediatamente al personal de la tienda. Pero, ¿cómo ha llegado a reconocerlos?

El problema de los datos de entrenamiento El machine learning es especialmente efectivo reconociendo patrones: si se le ofrecen grandes cantidades de datos reales de ejemplo, es capaz de "aprender" qué tienen en común dichos datos y aplicar dicho "aprendizaje" a reconocer nuevos datos relacionados.

Standard Cognition decidió aportar a su IA, como método para ayudarla a reconocer robos, las grabaciones de miles de robos protagonizados por un centenar de actores contratados, refinando el sistema hasta obtener una tasa de precisión superior al 99%.

Las reacciones en Twitter no se han hecho esperar:

"Personas inocentes serán arrestadas, encarceladas, acusadas y posiblemente presionadas para declarase culpables, por culpa, tan sólo, de la idea que un actor tenía sobre cómo podría ser un robo"



Buena suerte a cualquiera que pasee, mire o se comporte como lo hicieron esos actores".


"Hacer que los actores finjan estar robando y usar eso para entrenar tus datos es el equivalente a entrenar un sistema de reconocimiento de criminales con imágenes de villanos de dibujos animados".
Ya se han abordado varias veces polémicas sobre los sesgos de algoritmos de IA, y la respuesta suele ser casi siempre la misma: el sesgo no está en el algoritmo, sino en la calidad de los datos. En muchos casos, el mal funcionamiento de los algoritmos de identificación es atribuible al uso de pocos datos en el entrenamiento (y a veces millones pueden ser pocos), o a no usar datos extraídos de la realidad.

Pero... ¿acaso el riesgo de sesgo desaparecería sólo con usar muchos vídeos de robos reales? No: aún entonces, es posible mostrar sesgo en la selección y privilegiar, por ejemplo, vídeos que muestran únicamente a delincuentes vinculados a determinados grupos sociales.

FUENTE