¿CÓMO CREA LA SOCIEDAD UNA GUÍA DE ÉTICA PARA LA INTELIGENCIA ARTIFICIAL?

Acuñada la cuarta revolución industrial, el avance de la inteligencia artificial y el aprendizaje automático trae una interesante discusión a la mesa. Debido a que la inteligencia artificial es tan completa y abarca varias industrias, nos encontramos haciendo preguntas oscuras como "¿Necesitamos legalizar la vigilancia predictiva de la inteligencia artificial?" O "¿Cómo solucionamos los sesgos de los algoritmos que determinan las promociones laborales?"

Al surgir estas preguntas, la clave que queda sin respuesta es la ética. ¿Cómo nos aseguramos de que las tecnologías de IA estén diseñadas éticamente?
Para responder a esta pregunta, hay esencialmente cuatro aspectos que dictan el resultado: el dilema, el impacto, la adopción y la institucionalización. Estos componentes formulan lo que se considera ético porque muestra quién está a bordo, cómo todos apoyan la ética, cómo reconocemos la ética y, lo más importante, por qué confiamos en esta ética.

1. El dilema
Reconocer los dilemas que la IA puede plantear es el primer bloque de construcción para desarrollar una guía de ética. No hace mucho tiempo, la industria automotriz se enfrentó a una reacción mundial negativa por el tema de la vida y la muerte con los autos sin conductor. El mundo aprendió que las elecciones morales no son universales y los resultados de situaciones difíciles caen en manos de quienes construyeron la máquina. Como los vehículos autónomos serán parte del futuro de la industria automotriz, es necesario que los gobiernos aborden los posibles impactos de estos vehículos en la carretera. Como ejemplo, NCSL proporciona datos en tiempo real sobre la legislación estatal sobre vehículos autónomos en los EE. UU.

Este mismo concepto puede aplicarse a la inteligencia artificial. Mirándolo desde un alcance más amplio, el principal problema con la IA radica en sus capacidades de pensamiento y aprendizaje. Las máquinas no piensan como humanos porque no tienen juicios personales. Las máquinas se basan en un programa y solo piensan en cómo se les dice que piensen. El desafío de usar datos no supervisados, semi-supervisados ​​o supervisados ​​es qué datos incluimos o excluimos, cómo los algoritmos escritos impactan los resultados, y determinar nuestra guía para entrenar los datos y emitir un juicio. ¿Ves cuál es el dilema?

2. El impacto
Después de este dilema, debemos centrarnos en el impacto que la ética de la inteligencia artificial puede tener en las empresas, los consumidores, las organizaciones y los órganos de gobierno. Al eliminar las pautas, la IA existente que no cumple con esos estándares tendrá que ser reconfigurada. Esto crea dos problemas:

  • Si la IA es demasiado avanzada, es posible que las empresas no puedan revertirla a un punto en el que pueda cumplir con las pautas sin comprometer los avances que hicieron.
  • La reconfiguración de la IA para cumplir con los estándares conducirá a la pérdida de algunas funcionalidades y probablemente a la pérdida de algunos negocios.
Hemos aprendido mucho a través de revoluciones industriales en torno a los derechos humanos básicos y los valores sociales. Si bien las empresas pueden establecer comités para formar modelos algorítmicos basados ​​en reglas, esto generalmente protege a las organizaciones y puede permitir una conducta poco ética. Es esencial tener una discusión sobre la aplicación de la ética de la IA en la ley para la buena funcionalidad de la sociedad.

Eche un vistazo a la directriz de ética de la UE sobre IA confiable que se lanzó este año. La directriz tiene algunos componentes, como la privacidad, la imparcialidad, la gobernanza y el bienestar ambiental que las empresas como Amazon, Uber y Google no pueden cumplir de inmediato. Estas compañías probablemente cobrarán un peaje.

3. Adopción
El tercer componente es la adopción de pautas por parte de las organizaciones para ganar la confianza y lealtad del público. Esto creará una base sólida para el futuro del aprendizaje automático. Según un estudio reciente de Capgemini, el 62% de los consumidores dijeron que confiarían más en una empresa cuyas interacciones de inteligencia artificial percibieran como éticas. Muchos consumidores entienden las posibles consecuencias derivadas del uso de IA, como renunciar a la privacidad, pero con las organizaciones que adoptan una directriz ética, se sienten más seguros de la exposición. En la actualidad, las empresas pueden usar herramientas basadas en inteligencia artificial para comprender mejor a sus consumidores con un detector de riesgo y advertencia temprana. Incluso Trustpilot y sus herramientas de inteligencia artificial bastante modestas requieren un debate constante sobre qué datos incluir y excluir, cómo capacitarlos y qué información proporcionar a clientes o consumidores.

4. Institucionalización
Luego sigue la integración real de la ética a través de la institucionalización. Esto viene en forma de instituciones (gobiernos, ONG, académicas) que brindan ética desde arriba hacia abajo para garantizar que se cumplan todos los requisitos de las pautas.

Por ejemplo, China aprobó recientemente un grupo de asesoramiento ético para la edición de genes humanos en un esfuerzo por regular la industria genética biológica. La Organización Mundial de la Salud también presentó un plan para crear un registro de genes humanos, donde puede rastrear la investigación para asegurarse de que los científicos se desempeñen éticamente. La participación de las instituciones legitima la ética a escala global y crea un camino directo para que los futuros desarrolladores de IA practiquen.

La mejor manera de impulsar la institucionalización puede tomarse de ejemplos pasados ​​de nuevas tecnologías como la edición de genes, las redes sociales, los bots, etc. Primero, la industria necesita crear un cuerpo central para gobernar la ética y evaluar las integraciones de inteligencia artificial, al mismo tiempo que tiene el poder responsabilizar a las empresas infractoras. En segundo lugar, las empresas deben contratar juntas de revisión para garantizar que toda la IA siga el protocolo de ética internamente. Por último, un departamento de capacitación en la academia debe enseñar a los estudiantes las pautas de inteligencia artificial y cómo desarrollar el aprendizaje automático sin infracciones.

A medida que la IA y sus tecnologías continúan evolucionando a un ritmo sorprendente, y a medida que encontramos usos nuevos e innovadores para ellas, es más importante que nunca que las organizaciones incorporen los principios y atributos de confianza en sus datos y ecosistema de IA desde el principio. Aquellos que adopten prácticas líderes en diseño ético y gobernanza estarán mejor equipados para mitigar riesgos, salvaguardar contra resultados dañinos y, lo más importante, mantener la confianza esencial que sus partes interesadas buscan mientras usan AI para servir a los consumidores.

Ramin Vatanparast