Wikipedia y el lado oscuro de sus robots editores



Gran parte del trabajo de edición en Wikipedia es demasiado aburrido y repetitivo para los humanos, así que lo hacen robots automatizados. Siempre había sido difícil llevar un control de la edición automática, hasta ahora.
 
Wikipedia bots

 
En poco más de una década Wikipedia ha pasado de un ser experimento de internet a un fenómeno de crowdsourcing global. En la actualidad esta enciclopedia en línea proporciona acceso gratuito a más de 30 millones de artículos en 287 idiomas.

Menos conocido resulta Wikidata, un banco de información diseñado para compartir datos básicos que se puedan usar en las distintas versiones de Wikipedia. Por lo tanto Wikidata juega un papel crucial a la hora de engrasar el flujo de información entre estas comunidades en línea.

Gestionar todos estos datos es un trabajo difícil. Requiere una labor de edición y pulido importante, la mayor parte de ella formada por tareas mecánicas y repetitivas como formatear enlaces y fuentes, pero también añadir datos básicos.

Así que gran parte de este trabajo se automatiza. Entre bambalinas, robots automatizados escanean las páginas de Wikipedia y Wikidata continuamente puliendo el contenido para consumo humano.

Lo que nos lleva a una pregunta importante. ¿Cuánta actividad robótica hay? ¿Qué hacen estos robots y cómo se puede comparar con la actividad humana?

El trabajo de investigación hecho por el investigador Thomas Steiner de la oficina de Google en Hamburgo (Alemania), ofrece una respuesta. Steiner ha creado una aplicación que sigue la actividad editora en las 287 versiones de Wikipedia y en Wikidata. Y publica los resultados en tiempo real para que cualquiera pueda ver exactamente cuántos robots y humanos están editando alguno de estos sitios en cualquier momento.

Por ejemplo, a la hora de escribir esto, en todas las versiones de Wikipedia hay 10.407 ediciones llevadas a cabo por robots y 11.148 por wikipedistas humanos. Los porcentajes se reparten al 49/51 entre robots y humanos.

Pero si observamos los datos más atentamente, aparecen variaciones interesantes. Por ejemplo, ahora mismo sólo el 5% de las ediciones en la versión en inglés de Wikipedia las están haciendo robots. En comparación, el 94% de las ediciones en la versión vietnamita están hechas por robots.

Y en Wikidata, el 77% de las 15.000 ediciones las están haciendo robots.

La página de Steiner también destaca los robots más activos. Hace mucho que Wikipedia y Wikidata reconocen el daño que pueden llegar a hacer los robots y por lo tanto tienen reglas estrictas respecto a su comportamiento. Wikidata incluso elabora una lista de robots con tareas aprobadas.

Lo curioso de las ediciones automáticas en Wikidata es que los robots más activos no están en esta lista. Por ejemplo, a la hora de escribir este artículo, un robot llamado Succubot está haciendo 5.797 ediciones a entradas de Wikidata y aún así parece ser desconocido para Wikidata. ¿Qué está haciendo este robot?

La página de Steiner da a los administradores una ventana útil para observar este comportamiento aparentemente sospechoso. La verdad es que cualquier actividad con intenciones malvadas suele detectarse rápidamente y quien la lleva a cabo es bloqueado. Pero este tipo de vigilancia seguirá siento tremendamente útil.

Es más, Steiner ha hecho el código abierto para que cualquiera pueda usarlo para estudiar el comportamiento de robots y humanos con mayor detalle.

Una conclusión interesante es que los robots empiezan a ser mucho más capaces de producir artículos de todo tipo. El primer robot para Wikipedia, que se desarrolló en 2002, creaba entradas automáticas para los pueblos y ciudades de Estados Unidos usando una plantilla de texto sencilla.

Hoy hay agregadores automatizados que producen artículos sobre resultados financieros y deportivos usando plantillas sencillas: El "equipo A" venció al "equipo B" por "X tantos" hoy en un partido jugado en el "estadio Y". Sólo hay que cortar y pegar la información correspondiente a cada lugar.

No cuesta ver que esto se podría sofisticar muchísimo. Y mientras que este tipo de escritura automatizada puede ser tremendamente útil, sobre todo para Wikipedia y sus conocidos problemas con la mano de obra, también se podría usar de forma maliciosa.

Así que es muy probable que en el futuro adquieran más importancia las formas de hacer un seguimiento de los cambios automatizados en los textos.