Semalt: Ein Mann, der drei Millionen Wiki-Artikel bearbeitet hat

Im Verlauf dieses Artikels wird Oliver King, der Semalt Customer Success Manager, Ihnen die Software von Svenker Johansson vorstellen, mit der Millionen von Artikeln auf Wikipedia erfolgreich erstellt wurden, und wie er zu einem der bekanntesten und produktivsten Herausgeber dieser Enzyklopädie-Website wurde . Dieser schwedische Physiklehrer ist weithin als Lsj bekannt. Er hat Lsjbot erstellt, einen automatisierten Wikipedia-Editor, der Svenker dabei geholfen hat, viele Wikipedia-Artikel für seine schwedische Version zu erstellen.

Bisher konnte Lsjbot drei Millionen Artikel in einer Vielzahl von Wikipedia-Versionen erstellen und über zehn Millionen Einzelbearbeitungen vornehmen. Johansson sagt, dass die Hauptaufgabe darin besteht, Artikel über verschiedene Tier- und Pflanzenarten zu erstellen, und die meisten seiner Änderungen beziehen sich nur auf diese Aufgabe. Es gab Zeiten, in denen Wikipedia nur wenige Bots hatte, aber Johansson behauptet, dass sie heutzutage immer wichtiger werden und Teil der Maschinerie von Google und Wikipedia sein sollten.

Es gibt jedoch Grenzen, was wir mit den Bots machen können. Bots sind wichtig, weil sie viel Arbeit leisten und verschiedene Artikel auf Wikipedia erstellen. Die englische Version enthält Millionen veröffentlichter Artikel, und Bots werden verwendet, um Vandalismus weitgehend zu reparieren. Überall auf der Welt reparieren und aktualisieren sie alte Inhalte, archivieren vorhandene Diskussionen, ändern die Kategorien von Wikipedia-Artikeln und fügen den manuellen Problemberichten genaue Datumsstempel hinzu.

Schreiben Roboter die Geschichte der NASA?

Eine der Hauptgefahren dieses Ansatzes sind die Artikel, die mit der Geschichte der NASA enden. Viele Leute glauben, dass Bots diese Artikel erstellt haben und viele automatische Programme an ihrer Veröffentlichung beteiligt waren. Im Jahr 2008 wurde ein Algorithmus namens ClueBot II erfolgreich fünfzehntausend Wikipedia-Artikel über Asteroiden geschrieben. Es hat einfach die öffentlichen Daten umgeschrieben und Informationen aus der NASA-Datenbank in Wikipedia-Artikel konvertiert. Diese Artikel wurden von den Bots bearbeitet, die ihre Tags änderten und sie für Backlinks miteinander verknüpften. Diese Bots haben sogar die englischen Versionen von Wikipedia-Artikeln in chinesische Versionen geändert. Im Jahr 2012 wurde diese Schöpfung rückgängig gemacht und die Menschen haben die ganze Arbeit gemacht.

Bots oder Roboter durchlaufen spezielle Genehmigungsprozesse

Erik Moller, stellvertretender Direktor und Mitarbeiter der Wikimedia Foundation, die für die Überwachung der Website verantwortlich ist, hat einige Beispiele für Cluebot geliefert. Er sagt, dass eine umfassende Richtlinie den Einsatz von Robotern oder Bots auf Wikipedia regelt. Er sagte dem Guardian, dass nicht alle Bots aufgrund ihrer begrenzten Eigenschaften, Merkmale und Optionen zur Arbeit an dieser riesigen Enzyklopädie berechtigt sind. Die meisten Bots durchlaufen das strenge Genehmigungsverfahren, bei dem die Menschen feststellen, ob die von ihnen ausgeführten Aufgaben sinnvoll sind oder nicht. Bots, die selten unnötige Arbeit verrichten, werden entweder sofort abgelehnt oder ein Leben lang heruntergefahren.

Möller räumt auch ein, dass die strukturierten Daten von Wikipedia und seinen Projekten auf verschiedene Weise gepflegt werden, was dazu beiträgt, die Dinge auf dem neuesten Stand zu halten und das Risiko menschlicher Fehler beim manuellen Aktualisieren und Importieren der Zahlen zu verringern.

Wikipedia ist eine der Websites mit vielen Artikeln. Johansson hat die Praxis verteidigt, allein Millionen von Artikeln zu erstellen, und erklärt, dass er Roboter und Bots sinnvoll eingesetzt und von den höheren Behörden genehmigt hat, bevor er sie auf Wikipedia verwendet.

mass gmail