Stop Hate Speech

Lehrstuhl für Computerphilologie, Universität Würzburg

HateSpeech

Dem Thema „Hatespeech“ (oder „Hassrede“ im Deutschen) wurde in den letzten Jahren viel Aufmerksamkeit zuteil, insbesondere durch den Aufschwung, den die sozialen Netzwerke erfahren haben. Das erste Aufkommen des Begriffs in Deutschland und eine erstmalige Diskussion um das Thema kann auf die Flüchtlingskrise 2015 zurückdatiert werden. Auch die Forschung beschäftigt sich seitdem mit dem Thema Hassrede, insbesondere wie dieser Begriff genau definiert werden kann, welche verschiedenen Kategorien von Hassrede sich aus den verschiedenen Definitionen ergeben (bzw. unterschiedlichen Motivationen der Täter), oder welche Formen Hassrede annehmen kann (zum Beispiel implizit oder explizit). Eine einheitliche Definition von Hassrede gibt es allerdings bis heute nicht.

Textkorpus zum Thema Hassrede

Der Lehrstuhl für Computerphilologie der Universität Würzburg verfolgt das Ziel, ein möglichst einheitliches und umfassendes Textkorpus zum Thema Hassrede in Deutschland aufzubauen. Dafür wurden zunächst bereits existierende Korpora vorheriger Projekte zusammengestellt und neue Annotationsrichtlinien für die Klassifikation Hassrede und Nicht­ Hassrede aufgestellt. Statt nur binär für einzelne Textinstanzen zu unterscheiden wurde zudem eine dritte Klasse „problematisch“ eingeführt, um Grenzfälle, wie zum Beispiel einfache Beleidigungen zu markieren. Die Klasse „Hassrede“ wird damit nur für klare Fälle eingesetzt, sprich Gewaltandrohung und -verherrlichung sowie Volksverhetzung.

Aus den gesammelten Daten wurden dann Teilmengen für das neue Korpus zusammengeführt, sodass das neue Korpus einerseits mehrere Themenfelder sowie auch mehrere Quellen abdecken kann. Da die Projekte teils von sehr weit gefassten Definitionen von Hassrede Gebrauch gemacht haben, wurden in diesen Fällen Textinstanzen, die bereits als „Hass“ zuvor gekennzeichnet wurden, bevorzugt. Zu den Quellen gehören aktuell Kommentare unter diversen Blogs, Facebook Kommentare und Tweets, während die Themenfelder laut der jeweiligen Projekte hauptsächlich Politik allgemein, Xenophobie sowie Sexismus abdecken. Die ausgewählten Texte wurden dann hinsichtlich der neuen Annotationsrichtlinien manuell in „neutral“, „problematisch“ und „Hassrede“ neu klassifiziert.

Das so entstandene Korpus und die Quellen der Subkorpora können hier eingesehen werden.

Definition von „Hatespeech“

Ein zentraler Aspekt ist – wie gesagt – der Versuch einer Definition von „Hatespeech“ als Startpunkt der Arbeiten. Die vorliegenden Definitionen aus der Forschung stimmen in wesentlichen Punkten überein: Ziel von „Hatespeech“ ist typischerweise eine Einzelperson oder Personengruppe, die aufgrund ihrer Eigenschaften extrem negativ bewertet wird.

HateSpeechCartoon

„Hatespeech“ bezieht sich dabei auf jede Form von Ausdruck, Kommunikation oder Sprache, die Personen oder Gruppen aufgrund von Merkmalen wie Rasse, Ethnizität, Religion, Geschlecht, sexueller Orientierung, nationaler Herkunft oder anderen Eigenschaften beleidigt, bedroht oder herabsetzt. „Hatespeech“ kann sich in verschiedenen Formen äußern, darunter verbale, schriftliche oder symbolische Äußerungen, und zielt oft darauf ab, die Betroffenen zu demütigen, zu marginalisieren oder zu Gewalt oder Diskriminierung anzustacheln.

Klärungen im Zusammenhang mit „Hatespeech“

Im Zusammenhang mit „Hatespeech“ gibt es ferner einige fächerübergreifende Fragen, Probleme und Herausforderungen die zu klären sind.

1. Meinungsfreiheit vs. „Hatespeech“

Ein Hauptproblem im Zusammenhang mit „Hatespeech“ besteht in der Spannung zwischen Meinungsfreiheit und der Notwendigkeit, Schaden zu verhindern und Individuen vor Diskriminierung oder Gewalt zu schützen. Die Grenze zwischen geschützter Rede und „Hatespeech“ zu definieren, ist eine komplexe Aufgabe, die das Grundrecht auf freie Meinungsäußerung mit dem Schutz des Wohlergehens und der Rechte anderer abwägen muss.

2. Rechtliche Rahmenbedingungen und Regulierung

Die Festlegung angemessener rechtlicher Rahmenbedingungen und Vorschriften zur Bekämpfung von „Hatespeech“ ist eine bedeutende Herausforderung. Unterschiedliche Rechtssysteme haben unterschiedliche Ansätze, und die Abwägung zwischen dem Schutz von Individuen und der Wahrung der Meinungsfreiheit ist eine fortwährende Debatte. Fragen ergeben sich zur Rolle von Regierungen, Plattformen und der Gesellschaft bei der Regulierung oder Bekämpfung von „Hatespeech“.

3. Online „Hatespeech“

Mit dem Aufstieg von sozialen Medien und Online-Plattformen hat „Hatespeech“ an Verbreitung und Zugänglichkeit gewonnen. Anonymität im Internet, die Geschwindigkeit der Verbreitung und fehlende Moderation stellen besondere Herausforderungen im Umgang mit „Hatespeech“ online dar. Die Entwicklung effektiver Methoden zur Bekämpfung von Online „Hatespeech“ unter Wahrung der Privatsphäre der Nutzer und Vermeidung von Zensur ist ein fortlaufendes Anliegen.

4. Auswirkungen auf betroffene Gemeinschaften

„Hatespeech“ hat eine tiefgreifende Wirkung auf betroffene Gemeinschaften. Sie kann zu psychischem Stress, Angst und einem Gefühl der Marginalisierung oder Ausgrenzung beitragen. Damit hat „Hatespeech“ einen negativen Einfluss auf die Gemeinschaft der Bürger und den Zusammenhalt der Gesellschaft. Die langfristigen Auswirkungen von „Hatespeech“ auf Einzelpersonen und Gemeinschaften sowie Strategien zur Unterstützung und Rehabilitation sind wichtige Aspekte die weitere Untersuchungen nötig machen.

5. Intersektionalität und multiple Formen der Diskriminierung

„Hatespeech“ zielt häufig auf Personen mit mehreren Merkmalen ab, und das Verständnis der Intersektionalität von Diskriminierung ist von entscheidender Bedeutung. Die Bewältigung der Komplexität von sich überschneidenden Identitäten und der Erfahrungen von Menschen, die mehrfach diskriminiert werden, ist für eine wirksame Reaktion auf „Hatespeech“ unerlässlich.

6. Rolle von Technologieunternehmen

Technologieunternehmen und soziale Medien spielen eine bedeutende Rolle bei der Moderation von Inhalten und der Bekämpfung von „Hatespeech“. Die Entwicklung effektiver Algorithmen, Richtlinien für Inhalte und Durchsetzungsmechanismen zur Identifizierung und Entfernung von „Hatespeech“ ohne übermäßige Beeinträchtigung legitimer Rede- und Ausdrucksfreiheit ist eine Herausforderung, die kontinuierliche Verbesserungen erfordert.

7. Bildung und Bewusstseinsbildung

Die Förderung von Bildung und Bewusstsein über „Hatespeech“, ihre Folgen und die Bedeutung eines respektvollen Dialogs ist ein entscheidender Aspekt bei der Bekämpfung des Problems. Die Förderung von digitaler Kompetenz, kritischem Denken und die Schaffung toleranter und offener Umgebungen können dazu beitragen, die Verbreitung und Auswirkungen von „Hatespeech“ zu verhindern.

Diese Fragen, Probleme und Herausforderungen verdeutlichen die komplexe und vielschichtige Natur von „Hatespeech“. Sie erfordern umfassende und gemeinsame Anstrengungen von Einzelpersonen, Gemeinschaften, Technologieplattformen und politischen Entscheidungsträgern, um ihre schädlichen Auswirkungen einzudämmen.