top of page

Wie erkennt man am besten Hassrede im Internet?

Wieso Hassrede im Internet uns nicht kalt lies.


Autor: Dr. Rahul Alexander Kaul




Das Thema Hassrede polarisiert: Während die einen das Ende der Meinungsfreiheit befürchten, so fürchten die anderen, ohne ausreichenden Schutz veramt der Austausch im Netz zur permanenten Anfeindung bis aufs Blut.

Als wir die Idee für das Projekt Hassrede Detektor (Hate Speed Detektor, HSD) entwickelt haben, war gerade die bayerische Kommunalwahl in vollem Gange.


Die Anonymität in den Medien enthemmte so weit, dass nicht mal mehr vor Morddrohungen gegen die Kandidaten oder deren Angehörigen zurückgeschreckt wurde.

Die Anonymität in den Medien enthemmte so weit, dass nicht mal mehr vor Morddrohungen gegen die Kandidaten oder deren Angehörigen zurückgeschreckt wurde. Die Schlagzeilen waren im Verlauf des Jahres davon geprägt, dass nach und nach immer mehr Lokalpolitiker ihre Kandidatur zurückgezogen hatten oder von einer erneuten Aufstellung absahen aufgrund dieser Anfeindungen in sozialen Medien.


Die Vorgeschichte

Zu der Zeit hatten wir kurz zuvor mit einem Team aus drei Werkstudentinnen erfolgreich an einem Kaggle Wettbewerbteilgenommen, um mit Hilfe einer vortrainierten Sprach-KI basierend auf dem damals erfolgreichsten Modells BERT in englischsprachigen Kommentaren Hassrede, toxic language use, zu erkennen.

Der Wettbewerb war der zweite Teil in einer Serie, nachdem im ersten Teil ein einfaches Flag Hassrede Ja/Nein nicht zum Erfolg geführt hatte. Besonders pikant daran war, dass die Algorithmen fälschlicher Weise die betroffene Gruppe selbst als Reizwort zum Erkennen von Hassrede erlernt hatten . Daher musste ein neuer, verbesserter Ansatz her.


Ein neuer, verbesserter Ansatz musste her.


In der zweiten Runde, hatten die Initatoren zwei Verfeinerung eingeführt:

Zum einen hatten die Kommentatoren, die das Label für den Machine Learning Ansatz beigesteuert hatten, unterschieden zwischen

  • sexuellen,

  • rassistischen,

  • geschlechtsspezifischen Anfeindungen oder

  • verbalen Angriffen gegen Gruppen oder Individuen.

Zum anderen gab es eine ausgefeiltere Metrik, um den Erfolg des Modells zu messen.

Anders als bisher wurde das Modell am besten bewertet, dass in allen Kategorien gute Ergebnisse erzielte - anstatt z.B. in der häufigsten Kategorie. So wollte man den Algorithmen den unbeabsichtigen Vorurteile, unintended bias, austreiben.


Von der Mission zur Vision

Die Teilnahme am Wettbewerb schärfte nicht nur unsere Fähigkeiten im Umgang mit den neuartigen Sprachalgorithmen; es sensibiliserte uns auch dafür, dass selbst die Experten sich uneins darüber waren, was eigentlich Hassrede war.

Das Wissen, dass wir uns in diesem Zeitraum angeeignet hatten, und die Möglichkeiten der neuen Werkzeuge rund um die Transformer-Modelle, legte nahe zu verproben, ob wir diese Möglichkeiten auch im deutschprachigen Diskussionraum einsetzen könnten.

Mit der Hochschule München hatten wir einen langjährigen Partner an der Seite, der die Idee passend für einen Forschungsantrag fand und das nötige Netzwerk hatte, um einen Industriepartner in der Medienbranche, in diesem Fall die Ippen Gruppe, mit an Bord zu holen. Zu dritt bildeten wir ein Netzwerk aus verschiedenen Experten für

  • den Aufbau eines annotierten Sprach Corpus (HM),

  • dem Wissen, um die Feinheiten der Verwendung von Sprache als Waffe (Ippen Digital) und

  • dem Skalieren von Machine learning Modellen für industrietaugliche Anwendungsfälle (BIVAL GmbH).

Uns verband ein gemeinsames Ziel: das gemeinsame Diskutieren im öffentlichen Raum wieder sicher für alle Beteiligten zu machen!


Angespornt vom medialen Echo der damaligen Kommunalwahl stellten wir einen Antrag, den HateSpeech Detektor in die Tat umzusetzen.

Erste Schritte

Parallel zum Forschungsantrag vergab die Hochschule München schon ein Masterarbeitsthema, um überhaupt erstmal die Begrifflichkeit zu klären.

So präzisierten wir, dass wir nicht nur Hassrede, sondern vor allem auch den verletztenden Einsatz von deutscher Sprache erkennen können wollten: ein kühnes Unterfangen!

Damals konnten wir kaum ahnen, welche Entwicklungen uns noch bevorstanden politisch - mit Epidemien, Lock-Downs und Kriegen in unmittelbarer Nachbarschaft - und technologisch - mit einer Explosion an Werkzeugen rund um den Einsatz von KI, der nur noch getoppt wurde, durch die Omnipräsenz des Themas KI in allen Medien nach dem fulminanten Medienrummel rund um den Release ChatGPT der Firma OpenAI.

Darüber hinaus wurde das eigentliche Thema - der Einsatz von verletzender Sprache und wie man diesen erkennt - etwas aus den Schlagzeilen in den Hintergrund verdrängt. An Aktualität hat es jedoch in keinster Weise verloren. Denn nicht nur die Fälle, die zur Anzeige gebracht werden , häufen sich. Auch die Anzahl an Postings - mit und ohne verletztende Sprache - werden zusehends mehr .

Die Top 3 Gründe der weltweit 4.76 Mrd Nutzer von sozialen Medien (~90 aller Nutzer) sind trotz aller neuen multimedialen Plattformen:

  • das Verschicken von privaten Nachrichten (55% der User)

  • das Reagieren auf Beiträge anderer (43%) und

  • das Kommentieren von Beiträgen anderer (38%).

Sprache und das Sprachverständnis sind also weiterhin in 2024 die wichtigsten Werkzeuge der sozialen Medien.

Sprache und das Sprachverständnis sind auch 2024 die wichtigsten Einflußfaktoren in den sozialen Medien.

Ausblick

Zum Glück werden die Werkzeuge, die heute (und demnächst) zur Verfügung stehen, immer ausgereifter, um nicht nur die offensichtlichen Anfeindungen, sondern auch die subtileren Angriffe zu erkennen.

Wie diese Verfahren genau funktionieren?

Darauf gehen wir in den kommenden Beiträgen ein… bleiben Sie dran, es bleibt spannend!


2 Ansichten0 Kommentare

Aktuelle Beiträge

Alle ansehen

Comments


bottom of page