Andreas Rathgeb, CGI

Andreas Rathgeb

Senior Vice President Consulting Services

Dass in Social Media oder Internetforen ein extrem rauer Umgangston herrschen kann, ist allgemein bekannt und wird vielfach beklagt. Hate Speech, auf Deutsch auch Hassrede, ist eine Form von digitaler Gewalt, die überall auf der Welt zu einem großen Problem geworden ist. Was früher am Stammtisch besprochen wurde, kann sich jetzt dank Social Media in Windeseile verbreiten. Die vermeintliche Anonymität in der digitalen Welt senkt die Hemmschwelle, Hassnachrichten zu verfassen. Gleichzeitig fördern die Algorithmen der Netzwerke aufmerksamkeitsstarke Inhalte, die die Gemüter erregen. Der im Netz verbreitete Hass kann im realen Leben zu Gewalttaten führen, indem er zur Radikalisierung beiträgt. Er befeuert die Feindseligkeit zwischen unterschiedlichen Gruppen und gefährdet damit den gesellschaftlichen Zusammenhalt.  

Was lässt sich gegen Hassrede unternehmen?  

Diese Frage hat uns nicht mehr losgelassen. Deshalb arbeiten wir an einer Lösung. Wir wollen Antworten darauf finden, wie Inhalte datenschutzkonform gesammelt werden können, wie sich Hate Speech zuverlässig identifizieren lässt und wie sie nach Straftaten laut des Netzwerkdurchsetzungsgesetzes (NetzDG) kategorisiert werden kann. Gleichzeitig müssen die Nachvollziehbarkeit sowie die Konformität mit den entsprechenden EU-Richtlinien gewährleistet sein. Auch die Identifikation von Netzwerken, die Hass verbreiten, treibt uns um.

Eine vollautomatisierte Lösung ist aus technischen sowie rechtlichen Gründen noch nicht möglich. Auch ethische Gründe spielen eine Rolle: Zum Beispiel können KI-Algorithmen mit rassistischen Vorurteilen behaftet sein. Ein Ausweg aus diesem Dilemma ist ein Assistenzsystem, das Menschen bei ihrer Arbeit unterstützt.

Bisher erhalten Polizeibehörden Hate Speech-Meldungen über Seiten wie „Hessen gegen Hetze“ oder „Hassmelden“ und geben sie an die Staatsanwaltschaft weiter, sofern es zur Anzeige kommt. Dabei handelt es sich um riesige Textmengen, die von den Beamtinnen und Beamten manuell durchforstet und auf Hate Speech untersucht werden müssen – eine Aufgabe, die angesichts einer dünnen Personaldecke kaum zu bewältigen ist.

Mit Polizei und Justiz auf dem Weg zu einer Lösung

Hier setzen wir an. Unser Ziel ist eine Lösung, die Polizei und Justizministerium beim Durchsetzen des NetzDG unterstützt und in verschiedensten digitalen Medien wie Blogs und Foren zum Einsatz kommen kann. Eine KI soll die großen Textmengen aus den verschiedenen Datenquellen automatisiert analysieren und Hate Speech identifizieren. Dabei soll sie nicht nur beurteilen, ob Hate Speech vorliegt, sondern auch, gegen welche Gesetze verstoßen wurde. Damit betreten wir ein junges Forschungsfeld.

Bei der Entwicklung stehen wir in engem Austausch mit Polizeibehörden und Justiz. Gemeinsam diskutieren wir auch potenzielle Herausforderungen, die im Rahmen der Hate-Speech-Erkennung auftreten können.

Wenn das Gemeinte nicht das Gesagte ist

Satire kann sehr leicht als Hate Speech missverstanden werden. Zudem relativiert sich manche Aussage, wenn sie im Kontext betrachtet wird. Genauso, wie harmlose Inhalte fälschlicherweise für Hate Speech gehalten werden können, gibt es aber auch den umgekehrten Fall: Wenn Hate Speech bewusst positiv oder unter Auslassung von Hasswörter formuliert wird, ist sie schwer zu greifen. Ein ebenso eindrückliches wie abstoßendes Beispiel: „Wir sollten auch noch das Mittelmeer als solches loben. Bisher hat es noch am meisten Flüchtlinge aufgenommen.“ Auch einige Reaktionen auf den Polizistenmord im rheinland-pfälzischen Kusel waren geschickt formulierte Hate Speech. Sie verherrlichten die Tat, indem dort etwa stand: „Den Männern ein Spendenkonto!“ Die Beispiele zeigen, dass eine reine Wortanalyseanalyse oder auch Sentiment Analyse (deutsch Stimmungsanalyse) nicht ausreicht. Es ist unabdingbar, den Kontext in Gänze einzubeziehen und die Intention der Verfasserin oder des Verfassers zu erkennen.

Die finale Entscheidung, was Hate Speech ist und was nicht, fällt selbst den Expertinnen und Experten in Polizeibehörden und Justiz oft schwer und muss ihnen überlassen bleiben. Unsere Lösung, die sich kurz vor der Fertigstellung befindet, kann mittels KI wertvolle Vorarbeit leisten und damit schnell zur Entlastung beitragen kann.

Über diesen Autor

Andreas Rathgeb, CGI

Andreas Rathgeb

Senior Vice President Consulting Services

Andreas Rathgeb ist Experte für Digitalisierungsthemen in der öffentlichen Verwaltung. Er leitet bei CGI den Bereich Öffentliche Verwaltung in der Business Unit Public & South-West.