Semalt: un hombre que editó tres millones de artículos de Wiki

En el transcurso de este artículo, Oliver King, el Gerente de Éxito del Cliente de Semalt , le contará sobre el software de Svenker Johansson que creó con éxito millones de artículos en Wikipedia, y cómo se convirtió en uno de los editores más famosos y prolíficos de este sitio web de enciclopedia. . Este profesor de física sueco es ampliamente conocido como Lsj. Ha creado Lsjbot, un editor automatizado de Wikipedia, que ha ayudado a Svenker a crear muchos artículos de Wikipedia para su versión sueca.

Hasta ahora, Lsjbot ha podido crear tres millones de artículos en una variedad de versiones de Wikipedia y acumuló más de diez millones de ediciones individuales. Johansson dice que la tarea principal es crear artículos sobre diferentes especies de animales y plantas, y la mayoría de sus ediciones están relacionadas solo con esa tarea. Hubo momentos en que Wikipedia tenía solo unos pocos bots, pero Johansson afirma que son cada vez más importantes hoy en día y deberían ser parte de la maquinaria de Google y Wikipedia.

Sin embargo, hay límites a lo que podemos hacer con los bots. Los bots son importantes porque ayudan a mantener mucho trabajo y a crear varios artículos en Wikipedia. Su versión en inglés tiene millones de artículos publicados, y los bots se utilizan para reparar el vandalismo en gran medida. En cualquier parte del mundo, se encuentran reparando y actualizando las cosas antiguas, archivando las discusiones existentes, cambiando las categorías de los artículos de Wikipedia y agregando marcas de fecha precisas a los informes manuales de problemas.

¿Los robots escriben la historia de la NASA?

Uno de los principales peligros de este enfoque son los artículos que terminan con la historia de la NASA. Mucha gente cree que los bots han creado esos artículos y muchos programas automáticos participaron en su publicación. En 2008, un algoritmo conocido como ClueBot II escribió con éxito quince mil artículos de Wikipedia sobre asteroides. Simplemente reescribió los datos públicos y convirtió la información de la base de datos de la NASA a artículos de Wikipedia. Estos artículos fueron editados por los bots, que cambiaron sus etiquetas y los vincularon entre sí para obtener vínculos de retroceso . Estos bots incluso cambiaron las versiones en inglés de los artículos de Wikipedia a versiones en chino. En 2012, esta creación se deshizo, y los seres humanos hicieron todo el trabajo.

Bots o robots pasan por procesos especiales de aprobación

Erik Moller, subdirector y colaborador de la Fundación Wikimedia, responsable de supervisar el sitio web, ha proporcionado algunos ejemplos sobre Cluebot. Él dice que una política integral rige el uso de robots o bots en Wikipedia. Le dijo a The Guardian que no todos los bots son elegibles para trabajar en esta enciclopedia gigante debido a sus propiedades, características y opciones limitadas. La mayoría de los bots pasan por el duro procedimiento de aprobación donde los humanos hacen las determinaciones de si las tareas que realizan son significativas o no. Los bots que raramente realizan el trabajo innecesario se rechazan instantáneamente o se cierran de por vida.

Moller también reconoce que los datos estructurados de Wikipedia y sus proyectos se mantienen de diversas maneras, lo que ayuda a mantener las cosas actualizadas y reduce la posibilidad de errores humanos en la actualización e importación manual de los números.

Wikipedia es uno de los sitios web que tiene muchos artículos. Johansson ha defendido la práctica de crear millones de artículos solo, diciendo que hizo un uso racional de robots y bots y que las autoridades superiores los aprobaron antes de usarlos en Wikipedia.