Home / Allgemein / Hate Speech: Mit Algorithmen gegen digitale Hetze

Hate Speech: Mit Algorithmen gegen digitale Hetze

Täglich veröffentlichen Millionen von Menschen Beiträge und Kommentare auf Facebook, Twitter und Co. Einige davon haben vor allem ein Ziel: andere Menschen zu beleidigen, zu diffamieren und gegen sie zu hetzen. In der Flut dieser Beiträge fällt es schwer, den Überblick zu behalten. Abhilfe soll hier hier ein Programm von Wirtschaftsinformatikern der Martin-Luther-Universität Halle-Wittenberg (MLU) schaffen, mit dem sich Hate Speech automatisch erkennen lässt.

„Das Programm analysiert die Kommentare und sucht nach Wörtern und Wortgruppen, die in einer Datenbank hinterlegt sind“, so Uwe Bretschneider, der am Lehrstuhl für E-Business der MLU an seiner Promotion arbeitet. Das könnten zum Beispiel Schimpfwörter oder Aufforderungen zu Gewalt sein. Die Datenbank lässt sich beliebig anpassen. Wird ein Beitrag mit Hate Speech erkannt, kann dieser entweder automatisch gelöscht werden oder einem Moderator zur Kontrolle vorgelegt werden. Das alles ist erstmal nichts Neues: Andere Informatiker haben ähnliche Verfahren entwickelt, mit denen sich Texte auf bestimmte Begriffe durchsuchen lassen. „Für Hate Speech ist es aber zusätzlich wichtig zu wissen, gegen welche Personen sich eine bestimmte Aussage richtet“, sagt Bretschneider. Deshalb hat der Wirtschaftsinformatiker sein Programm noch um einen Zwischenschritt ergänzt: Es analysiert die Kommentare im Kontext der Diskussion auf Facebook und erkennt dadurch den Adressaten einer Aussage; Bretschneider unterscheidet insbesondere zwischen Aussagen gegen Geflüchtete, Politiker oder Medien.

„Es ist kein Zensur- oder Überwachungsalgorithmus“

Der Nutzen eines solchen Algorithmus hängt davon ab, wie gut und wie genau er Hate Speech erkennt. Das überprüfte Bretschneider mit Hilfe gleich mehrere Datensätze: Er sammelte Mitteilungen des Kurznachrichtendienstes Twitter, Beiträge aus Foren im Internet sowie Kommentare von öffentlich einsehbaren Facebook-Seiten. Diese Daten wertete er zunächst händisch aus, um eine Vergleichsgröße für seine Software zu haben. Im Anschluss ließ er den Algorithmus die gleichen Datensätze analysieren. Das Ergebnis: 70 Prozent der vom System erkannten Treffer waren korrekt, etwa 40 Prozent aller in Frage kommenden Kommentare blieben unerkannt. Das mag zunächst ernüchternd klingen, könnte die Arbeitszeit für Moderatoren aber schon deutlich reduzieren.

Einen Zensur- oder Überwachungsalgorithmus habe er nicht entwickelt, sagt Bretschneider: „Es sollte nie darum gehen, das Recht auf freie Meinungsäußerung zu unterdrücken oder bestimmte Meinungen zu verbieten.“ Lediglich die Art und Weise, wie diese Meinungen geäußert werden, könne und dürfe man überprüfen. Den Rest müsse eine Demokratie aushalten.

Share

Leave a Reply