Donnerstag, 16. Juli 2020

Hasskommentare im Internet: Ist das Netzwerkdurchsetzungsgesetz eine wirksame Antwort?



Schaut man sich das Video an, veröffentlicht im Oktober 2019 und damit knapp zwei Jahre nachdem das Netzwerkdurchsetzungsgesetz (NetzDG) der großen Koalition in Kraft trat, neigt man dazu, die aufgeworfene Frage nach der Wirksamkeit des NetzDG vorschnell mit einem klaren „Nein“ zu beantworten. Das Gesetz kann keine wirksame Antwort sein, wenn nach wie vor solche Kommentare im Netz verbreitet werden.

Dieser Beitrag liefert einen genaueren Blick. Im ersten Teil wird die aktuelle Situation geschildert: Wie veränderte sich der Hass durch das Web 2.0? Wie lassen sich Hasskommentare überhaupt definieren? Wer sind die Personen, die solche Kommentare verfassen, und welche Motive treiben sie dazu an? Ausgehend davon wird im zweiten Teil der Blick auf den Umgang mit Hasskommentaren gerichtet: Was genau besagt das Netzwerkdurchsetzungsgesetz? Welche Ziele verfolgt es und welche Anforderungen stellt es? In einer abschließenden Analyse werden die Transparenzberichte der Unternehmen Twitter, Facebook und Youtube von Januar 2018 bis Dezember 2019 verglichen und die Fragestellung nach der Wirkung des NetzDG differenziert beantwortet.

Wie haben sich Hasskommentare entwickelt und verändert?
 „In den Anfangstagen des Webs waren viele tatsächlich der Meinung, dass es keiner Regeln und Aufsicht bedürfe“ (Brodnig 2013, S. 91).
Dass sich dieser idealistische Gedanke und das blinde Vertrauen in die Userinnen und User nicht durchsetzte, ist allgemein bekannt. Spätestens für das Jahr 2012 kann ein Umbruch diagnostiziert werden: Die Phase der Netzeuphorie wich einer Ernüchterung (vgl. Kaspar u.a. 2017, S. 17). Informations- und Kommunikationsräume waren nicht mehr neu und wurden zunehmend durch Hass und Aggression geprägt (vgl. ebd.). Dabei ist dieses Phänomen nicht nur im digitalen Raum zu beobachten.
„Enttabuisierung ist […] ein soziologisch beschreibbares Gemeinschaftsproblem der Moderne, das sich digital neu stellt“ (Hafez 2017, S. 320).
Selbstverständlich gibt es Hassreden nicht erst seit der Einführung des Internets (vgl. Kaspar 2017, S. 63). Dennoch entstand durch das Internet – und vor allem durch das Web 2.0 – eine neue, bis dahin nicht gekannte Qualität (vgl. ebd.). Erst durch den Paradigmenwechsel der Internettechnologie hin zu einem Web 2.0 wurde die Möglichkeit geschaffen, dass die Nutzerinnen und Nutzer ihre passive Rolle als Rezipienten verlassen konnten und selbst Inhalte generieren können (vgl. Wielsch 2018, S. 61). „Ein entscheidender Faktor ist die ‚Viralität‘, die schnelle Verbreitung von Hass-Material“ (Fleischhack 2017, S. 25), die vor allem in den Sozialen Netzwerken zu einem enormen Anstieg digitalen Hasses führte (vgl. ebd.).

Festhalten lässt sich, dass sich die Zunahme von Hasskriminalität und Hetze sowohl in der politischen als auch in der medialen Debatte konstatieren lässt (vgl. Schünemann 2019, S. 163). Menschenfeindliche Äußerungen haben sich weltweit ausgebreitet (vgl. Hafez 2017, S. 318). Dabei beschränken sich die Hassformen – anders als in der Frühphase des Internets – nicht mehr nur auf wenige und eher unbekannte Webseiten (vgl. Fleischhack 2017, S. 23), sondern scheinen „in jedem Winkel der sozialen Medien um sich zu greifen“ (Strobel 2017, S. 29).

Und auch eine weitere Veränderung von Hasskommentaren wurde im obigen Video deutlich: Hassbotschaften lassen sich nicht mehr nur in Foren finden, sondern werden gezielt an Personen versendet (vgl. Hafez 2017, S. 319), darunter sehr häufig an Politikerinnen und Politiker (vgl. Krause 2017, S. 84). Selbstverständlich muss auch an dieser Stelle angemerkt werden, dass die Verdrossenheit gegenüber „denen dort oben“ wesentlich länger existiert als das Internet, und dennoch konnten sich durch das Web 2.0 Meinungen abseits von großen Printveröffentlichungen schnell verbreiten und zu „Alternativmedien“ werden (vgl. Strobel 2017, S. 32).

Hasskommentare – Hass 2.0 – Netzhass oder Hate Speech?

Im deutschsprachigen Fachdiskurs existieren viele unterschiedliche Schlagworte, die alle das vielschichtige Phänomen der neuen Hassform benennen: Netzhass, Online-Hass, digitaler Hass, viraler Hass, Hass 2.0 (vgl. Fleischhack 2017, S. 23). Im englischen Sprachraum wird vorwiegend der Begriff „Hate Speech“ verwendet. Gemeinsam ist allen Wendungen, dass sie den Begriff „Hass“ in sich tragen, weshalb sich ein genauer Blick und eine Definition hiervon anbietet.
„Allgemein wird der Begriff Hass als menschliche Emotion definiert, der eine starke und andauernde Antipathie zu Grunde liegt“ (Rung 2018, S. 3).
Dabei lässt sich Hass in drei Komponenten aufteilen: Eine emotionale Komponente, die sich durch plötzlich auftretende Wut und eine Eskalation der Situation manifestiert; eine soziale Komponente, die auf Abneigung oder Ekel gegen eine bestimmte Gruppe von Menschen basiert, und eine kognitive Komponente, die auf tiefsitzender und permanenter Abwertung Anderer beruht und sich in ideologisch, politisch oder religiös motiviertem Hass äußert (vgl. ebd.).

Diese allgemeine Definition wird bei Hassbotschaften im Internet unterschiedlich stark ausgelegt: Oft werden Hasskommentare als „Akte devianter Kommunikation“ (Wilhelm u.a. 2019, S. 279) bezeichnet. Hierunter zählen alle Äußerungen, die die sozialen oder gesellschaftlichen Regeln und Normen der Kommunikation verletzen (vgl. ebd.). „Der Begriff der Devianz greift sowohl bei schlicht unhöflichen, inzivilen Kommentaren als auch bei den darüber hinausgehenden Hasskommentaren“ (ebd., S. 278) und ist deutlich strikter als beispielsweise die Auslegung des Europarats, wo Hassreden als Ausdrücke definiert werden, die „von Rassenhass, Fremdenfeindlichkeit und Antisemitismus geprägt sind und zu Intoleranz anstiften, diese fördern oder rechtfertigen“ (Herzog 2018, S. 21).

Letzteres impliziert, dass der Hass, der an Personen gerichtet wird, auf etwas abzielt, auf das die betroffene Person keinen Einfluss nehmen kann (ihre Herkunft, ihr Aussehen, ihren Glauben). Diese Auslegung ist sehr kritisch zu sehen, da deutlich wurde, dass auch Politikerinnen und Politiker von Hasskommentaren betroffen sind und sie sich in aller Regel bewusst für die Ausübung des öffentlichen Amtes entschieden haben. Im Folgenden werden deshalb alle Kommentare, die bestimmte Personengruppen herabwürdigen – egal in welcher Form und auf welche Faktoren bezogen – als Hasskommentare aufgefasst.

Welche Motive und Arten von Hasskommentaren gibt es?

In der Theorie lassen sich vier Motive für das Verfassen und Verbreiten von Hasskommentaren unterscheiden: Abwertung, Einschüchterung, Machtdemonstration und Sadismus. Das Abwerten einer Fremdgruppe und das bewusste Abgrenzen dazu ist das häufigste Motiv. Ziel ist, die eigene Gruppenzugehörigkeit zu stärken und eine positive Gruppenidentität aufzubauen. Aus dem obigen Video würde die Nachricht, die die SPD-Politikerin Yasmin Fahimi erhalten hatte „Du Türken-Hure“ zu dieser Kategorie zählen.

In anderen Fällen soll die Fremdgruppe durch das Verfassen von Hasskommentaren eingeschüchtert werden. So beispielsweise Anke Domscheit-Berg (Die Linke), die im Video von einer Nachricht berichtet, bei der nach einem öffentlichen Termin für das Werfen eines Molotowcocktails auf ihr Haus gesucht wurde.

Ein weiteres Motiv liegt in der eigenen Machtdemonstration. Verfasser fühlen sich mächtig, da sie durch ihre Nachricht eine Deutungshoheit im gesellschaftlichen Diskurs demonstrieren. Die letzte Motivlage wird allen weiteren Verfassern von Hasskommentaren zugeordnet, deren Motiv in keines der zuvor beschriebenen theoretischen Konstrukte passt: In diesem Fall geht man davon aus, dass sie Hasskommentare verfassen, weil sie Freude beim Beleidigen und Erniedrigen anderer empfinden. (vgl. Schmitt 2017, S. 51)

Neben den aufgezeigten Motiven lassen sich auch verschiedene Arten von Hasskommentaren unterscheiden: Herabsetzungen beinhalten Beschimpfungen oder Verunglimpfungen und sind abwertend formuliert. Unter dem Begriff Agitation versteht man provozierende Aussagen zu politischen oder sozialen Problemen, die häufig eine diskriminierende und vorurteilsbehaftete Perspektive einnehmen und das öffentliche Interesse steuern wollen.

In eine ähnliche Richtung gehen Gerüchte – nicht bestätigte Behauptungen, die sich gegen soziale, kulturelle oder ethnische Gruppen und deren Mitglieder richten, sowie Verschwörungstheorien, die sich vor allem gegen Eliten richten und die Vorstellung befördern wollen, dass diese böse seien. Eine direkte Bedrohung findet sich in Hasskommentaren, die zu Gewalttaten aufrufen (vgl. Wilhelm u.a. 2019, S. 281f.).

Die Verfasserinnen und Verfasser von Hasskommentaren: Trolle oder Glaubenskrieger?

Nach allem bisher Gelesenen stellt sich die Frage, wer Hasskommentare verfasst und damit gezielt andere Menschen bewusst angreift. „Wer fragt, woher der Hass im Internet kommt, der kommt an der Tatsache nicht vorbei, dass dieser keineswegs ausschließlich von rechten Meinungsführern fabriziert wird“ (Hafez 2017, S. 322). Die Verfasserinnen und Verfasser von Hasskommentaren sind keine homogene Gruppe (vgl. Krause 2017, S. 81).
„Viele Menschen, die sich in Hassreden engagieren, sind wütend. Ihre Wut geht zurück auf das – in der Regel irrationale – Gefühl, bedroht zu werden“ (Schmitt 2017, S. 53).
Viele von ihnen wollen gar nicht erst konstruktiv mitreden, ihnen geht es darum, andere zu irritieren. Im Netz gibt es dafür einen eigenen Begriff: Diese Menschen nennt man Trolle (vgl. Brodnig 2013, S. 92). Der Name der Internet-Trolle stammt dabei vermutlich aus der Anglersprache.
„Fischer kennen die Methode, einen Köder auf ihre Angel zu spannen und mit dem Motorboot langsam durch ein Gewässer zu fahren. Die Raubfische sehen den Köder davonschwimmen und schnappen zu – prompt hängen sie am Haken“ (ebd., S. 92f.).
Im Englischen wird dieses Vorgehen als „Trolling“ bezeichnet (vgl. ebd., S. 93). Übertragen auf das Internet ködern Trolle, indem sie provokante Kommentare schreiben und auf Reaktionen hoffen (vgl. Krause 2017, S. 81).
„Trolle amüsiert die Aufregung der anderen. Sie sehen es als Beweis ihrer eigenen emotionalen und kognitiven Erhabenheit, wenn sie bei anderen Wut, Verwirrung oder Trauer auslösen“ (Brodnig 2013, S. 93).
Deshalb werden sie auch als „Hacker der Gefühle“ bezeichnet (vgl. ebd., S. 94). Sie versuchen, Schwachstellen des menschlichen Miteinanders zu suchen, um dort gezielt anzugreifen (vgl. ebd.). In den letzten fünf Jahren hat sich der Fokus insgesamt etwas verschoben. Neben den klassischen Trollen werden inzwischen ebenfalls die sogenannten Glaubenskrieger als sehr problematisch wahrgenommen (vgl. Krause 2017, S. 82).
„Ziel des Glaubenskriegers ist nicht, sein Gegenüber von einer Position zu überzeugen, sondern sein Opfer daran zu hindern, am öffentlichen Diskurs teilzunehmen“ (ebd., S. 84).
Ein aktuelles Beispiel ist die Facebook-Seite von Ministerpräsident Winfried Kretschmann. Nach der Veröffentlichung eines Podcast gingen auf seiner Seite im Sekundentakt Kommentare, Falschaussagen, Bedrohungen, und Verschwörungserzählungen ein, die einen normalen Betrieb verhinderten, sodass das Staatsministerium das Profil vom Netz nehmen musste.

Warum nehmen Hasskommentare zu: Enthemmungseffekte und Anonymität?
„Kommunikative Enthemmung entsteht nicht zuletzt vor dem Hintergrund, dass der Absender keine sozialen Konsequenzen befürchten muss“ (Hafez 2017, S. 326).
Das Stichwort, welches in der gesamten Debatte um Hasskommentare im Internet immer wieder aufgeworfen wird, lautet Anonymität. War sie kulturgeschichtlich noch sehr bedeutsam, um politische Entwicklungen voranzutreiben und den Schutz der Intimität zu wahren, ist sie „als Tarnung für kulturkämpferische Schimpfkanonaden, die andere Menschen im Bereich grundlegender Menschenrechte diffamieren“ (ebd.) alles andere als sinnvoll.

Obwohl der Begriff der Anonymität im alltäglichen Sprachgebrauch geläufig ist, erscheint eine genaue Definition angebracht. Hayne und Rice (1997) unterscheiden zwei Formen von Anonymität im Internet: Zum einen die technische Anonymität, die eine Identifizierung von Personen schwierig bis unmöglich macht, da beispielsweise verwendete Namen und Fotos nicht der realen Person entsprechen (vgl. Kaspar 2017, S.63). Diese Form entspricht am ehesten dem Alltagsverständnis.

Des Weiteren unterscheiden die Autoren noch eine weitere Form, denn „technische Anonymität ist zwar notwendig, aber nicht hinreichend für die soziale Anonymität“ (ebd.). Diese Form tritt auf, wenn Internetnutzerinnen und Internetnutzer andere Nutzerinnen und Nutzer oder sogar sich selbst ohne individuelle Identität wahrnehmen, da sie den virtuellen Personen keine identitätsstiftenden Merkmale zuschreiben können (vgl. ebd.).
„Soziale Anonymität ist nicht unproblematisch, denn sie kann unsoziales, enthemmtes Kommunikationsverhalten sowie Normverletzungen begünstigen und somit Hate Speech fördern“ (ebd., S. 64).
Bei den Nutzerinnen und Nutzern kann soziale Anonymität einen Zustand verminderter Selbstaufmerksamkeit auslösen, der dazu führt, dass das eigene Verhalten weniger gut beobachtet und kontrolliert werden kann. Zusätzlich geht eine reduzierte soziale Urteilsfähigkeit damit einher. Ein Prozess, der auch als Deindividuation bezeichnet wird (vgl. ebd.).

Zusammengefasst lässt sich festhalten, dass die Form der technischen Anonymität die soziale Anonymität bedingt, die dazu führt, dass das Verantwortungsbewusstsein und die Schuldgefühle sinken.
„Man ist anonym. Wenn man inmitten dieser Abermillionen Stimmen gehört werden will, neigt man dazu, zu schreien, schriller zu werden in seinen Aussagen“ (Brodnig 2013, S. 15).
Anonymität als einzigen und alleinigen Grund für das Verfassen von herabwürdigenden Kommentaren auszumachen, ist jedoch zu kurz gedacht. Die Namenlosigkeit ist für den Hass und die Respektlosigkeit im Netz verantwortlich. Dabei ist sie – und das zeigt auch die Forschung – nur ein Faktor (vgl. ebd., S. 14). Es existieren noch weitere Enthemmungseffekte: Immer mehr Menschen veröffentlichen beispielsweise verletzende Kommentare unter ihrem richtigen Namen – die Anonymität spielt in diesem Fall keine Rolle. Vielmehr enthemmt dabei das Nichtvorhandensein typischer Merkmale einer Unterhaltung (vgl. Herzog 2018, S. 30).
„Selbst wenn die Identität von jedem sichtbar ist, verschärft die Möglichkeit ‚körperlich‘ unsichtbar zu sein, den Enthemmungseffekt" (Brodnig 2013, S. 79).
Im Internet gibt es keinen Augenkontakt, keine Mimik, keine Gestik, keine Gegenstimmen, keine nonverbalen Reaktionen des Gesprächspartners. Dabei erlernen wir von Geburt an solche Verhaltensmuster (ein Stirnrunzeln, ein Kopfschütteln, einen Seufzer, einen gelangweilten Gesichtsausdruck und noch viele weitere subtile Zeichen von Ablehnung oder Gleichgültigkeit) und reagieren bei persönlichen Begegnungen – oft gar nicht bewusst – auf das Verhalten des Gegenübers (vgl. ebd., S. 80). Online fehlt das.

Als einen weiteren ausschlaggebenden Punkt für die Enthemmung im Internet wird die Asynchronität der Kommunikation benannt (vgl. Herzog 2018, S. 30f.). Reaktionen und Feedback erfolgen nicht unmittelbar, sodass man sich als Verfasser oder Verfasserin von Hasskommentaren nicht sofort mit den Konsequenzen der geäußerten Worte beschäftigen muss (vgl. ebd.).

Als kurzes Zwischenfazit dieses ersten Teils kann festgehalten werden, dass Hasskommentare durch das Web 2.0 stark angestiegen sind: Verschiedenste Enthemmungseffekte führen dazu, dass Verfasserinnen und Verfasser mit den unterschiedlichsten Motiven Hass im Internet verbreiten. Wichtig zu erwähnen ist, dass das Internet kein rechtsfreier Raum ist (vgl. Müller-Terpitz 2018, S. 48).
„Um die Enttäuschung in Gesellschaft und Politik über die fehlende Gesetzestreue der Anbieter sozialer Netzwerke aufzufangen, wurde eine ‚Task Force‘ eingerichtet, die aber keine Verbesserungen bewirken konnte“ (Roßnagel u.a. 2018, S. 3).
Auch eine Selbstverpflichtung der Betreiber sozialer Netzwerke brachte keine Besserung (vgl. ebd.), sodass „der Bundestag kurz vor der Sommerpause 2017 das Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (Netzwerkdurchsetzungsgesetz, NetzDG) beschlossen [hat]“ (ebd.).

Was ist das NetzDG?

Beim Netzwerkdurchsetzungsgesetz handelt es sich erstmals um eine gesetzgeberische und ausdrückliche Ausgestaltung der Haftung (vgl. Eifert 2018, S. 14). Das Gesetz ist seit Oktober 2017 in Kraft und zielt nach Aussage des Bundesministeriums für Justiz und Verbraucherschutz darauf, Hasskriminalität und strafbare Inhalte (wie Beleidigungen, üble Nachrede, Verleumdung, Aufforderung zu Straftaten und Gewaltdarstellung) in den sozialen Netzwerken stärker und wirksamer zu bekämpfen (vgl. Adamski 2018, S. 137).

Konkret richtet sich das Gesetz an Telemediendienstanbieter, die mit Gewinnerzielungsabsichten eine Plattform betreiben und dabei mehr als zwei Millionen Nutzerinnen und Nutzer verzeichnen (vgl. Eifert 2018, S. 16). Dienste der Individualkommunikation, wie E-Mail- oder Messenger-Dienste, sowie Anbieter mit journalistisch-redaktionell gestalteten Inhalten (z.B. Spiegel Online) sind somit explizit ausgenommen (vgl. Roßnagel u.a. 2018, S. 4).

Ein wesentlicher Inhalt ist das Beschwerdeverfahren, welches die Sozialen Netzwerke bis zum 1. Januar 2018 eingeführt haben mussten (vgl. ebd., S. 3). Nutzerinnen und Nutzern von großen Sozialen Netzwerken muss ein erreichbares, erkennbares und leicht verständliches Verfahren zur Übermittlung von Beschwerden über strafbare Inhalte verfügbar sein. Eingegangene Beschwerden müssen vom Anbieter unverzüglich zur Kenntnis genommen und überprüft werden.

Dabei unterscheidet das Gesetz zwischen „offensichtlich rechtswidrigen“ Inhalten, die innerhalb von 24 Stunden nach Eingang der Beschwerde zu löschen oder zu sperren sind, und „rechtswidrigen“ Inhalten, bei denen innerhalb von sieben Tagen eine Maßnahme getroffen werden muss (vgl. ebd., S. 5). Durch dieses Vorgehen soll die Verweildauer solcher Kommentare möglichst kurz und damit die Präsenz im Netz gering gehalten werden (vgl. Eifert 2018, S. 33).

Des Weiteren werden „die Betreiber sozialer Netzwerke […] verpflichtet, halbjährlich über den Umgang mit Beschwerden […] zu berichten“ (Adamski 2018, S. 138). Dabei muss Auskunft über das Beschwerdevolumen, die Entscheidungspraxis und die personelle Ausstattung für die Bearbeitung einer Beschwerde gegeben werden. „Die Berichte müssen für jedermann zugänglich im Internet veröffentlicht werden“ (ebd.). Kommen soziale Netzwerke diesen Forderungen nicht nach, begehen sie eine Ordnungswidrigkeit, welche mit Bußgeldern von bis zu 50 Millionen Euro geahndet werden kann.
„Es ist ein verbreitetes Missverständnis in der öffentlichen Debatte, dass die unterbliebene oder unrichtige Löschung eines (einzelnen) Beitrags zu einem Bußgeld für den Anbieter führen könnte. Sanktioniert wird nur ein systematisches Versagen“ (Eifert 2018, S. 20).
Zudem muss unabhängig vom Sitz des Sozialen Netzwerkes eine inländische und zustellungsbemächtigte Person benannt werden. Personen, die in ihrem Persönlichkeitsrecht verletzt wurden, können vom Anbieter eine Auskunft darüber verlangen, wer diese Rechtsverletzung begangen hat. Dieser Anspruch bestand bereits vor dem NetzDG. Durch dieses wurde jedoch eine Regelung geschaffen, den Auskunftsanspruch auch durchsetzen zu können.
„Die Anbieter sozialer Netzwerke erhalten die datenschutzrechtliche Befugnis, die Anmeldedaten des Rechtsverletzers an den Verletzten herauszugeben“ (Adamski 2018, S. 138).
Diese Herausgabe muss allerdings zivilgerichtlich angeordnet werden (vgl. Bundesministerium der Justiz und für Verbraucherschutz & Adamski 2018, S. 138).

Anfang 2020 hat die Bundesregierung den Entwurf eines Gesetzes auf den Weg gebracht, der unter anderem vorsieht, bestimmte rechtswidrige Inhalte an das Bundeskriminalamt (BKA) zu melden (vgl. Bundesministerium der Justiz und für Verbraucherschutz). „Am 1. April 2020 hat die Bundesregierung außerdem den Entwurf eines Gesetzes zur Änderung des Netzwerkdurchsetzungsgesetzes beschlossen, der insbesondere die Rechte der Nutzerinnen und Nutzer stärkt und die Transparenz sozialer Netzwerke erhöht“ (ebd.). Diese Neuerungen wurden Ende Juni 2020 von der großen Koalition beschlossen. Bundesjustizministerin Lambrecht dazu:
„Wer hetzt und droht, muss mit Anklagen und Verurteilungen rechnen. Das sind entschlossene Schritte gegen Menschen- und Demokratiefeinde, die ein gefährliches Klima der Gewalt schüren."
Für Drohungen zu Körperverletzungen, sexuellen Übergriffen oder zu Sachbeschädigungen sowie für Beleidigungen kann zukünftig eine Freiheitstrafe von bis zu zwei Jahren verhängt werden. Auch die Sozialen Netzwerke werden nochmal stärker in die Pflicht genommen: Die Löschung strafbarer Inhalte ist nicht mehr in jedem Fall ausreichend. Teilweise müssen diese Inhalte dem BKA zusammen mit der IP-Adresse (mit deren Hilfe der Verfasser ermittelt werden soll) weitergeleitet werden (vgl. Pressemitteilung des Bundesministeriums der Justiz und für Verbraucherschutz).

Was sind die strittigen Punkte des NetzDG?

Noch vor dem offiziellen Beschluss des Gesetzes wurde in einer breiten öffentlichen Diskussion Kritik geäußert: Für die Betreiber sei es schwer einzustufen, ab wann ein Beitrag als „offensichtlich rechtswidrig“ gilt. Das NetzDG trifft hierzu keine genauen Aussagen. Nach der Gesetzesbegründung soll ein Beitrag als „offensichtlich rechtswidrig“ eingestuft werden, „wenn die Rechtswidrigkeit ohne vertiefte Prüfung […] erkannt werden kann“ (Roßnagel u.a. 2018, S. 9). Dennoch ist diese Formulierung nicht präzise und lässt einen breiten Spielraum offen.

Ein weiterer Kritikpunkt, der sich daran anschließt, ist die Tatsache, dass private Betreiber über die Löschung von Beiträgen entscheiden, was zu einer „rechtsstaatswidrigen Privatisierung der Rechtsdurchsetzung“ (Eifert 2018, S. 25) führe. Entgegnet werden kann, dass durch das NetzDG keine neue Löschpflicht für Betreiber entstanden ist (diese bestand bereits durch das Telemediengesetz) und dass das NetzDG 21 Straftatbestände aus dem Strafgesetzbuch (z.B. § 185 StGB, Beleidigung oder § 186 StGB, Üble Nachrede) benennt und nur diese konkrete Liste zu einer Löschung eines Beitrags führen darf (vgl. Roßnagel u.a. 2018, S. 4).

Der am häufigsten hervorgebrachte Kritikpunkt war die Befürchtung eines Overblockings sowie damit verbunden die Einschränkung der Meinungsfreiheit. Mit Overblocking ist gemeint, Betreiber würden aus Angst vor hohen Bußgeldern eher zu viele als zu wenige Beiträge – und damit im Zweifel auch rechtmäßige Inhalte – sperren oder löschen (vgl. ebd., S. 7). Es muss konstatiert werden, dass das in den ersten Tagen nach Inkrafttreten des Gesetzes und in Einzelfällen vorkam. Dennoch lassen sich auch bei diesem Kritikpunkt Gegenargumente anführen: Zum einen gilt das Bußgeld gerade nicht bei einzelnen Beiträgen, sondern nur bei einem systematischen Versagen; zum anderen sind Soziale Netzwerke auf ihren Ruf bedacht und sind deshalb daran interessiert, nicht als ein Netzwerk, das zu viele Beiträge sperrt, in der Öffentlichkeit dazustehen (vgl. ebd.).

Grundsätzlich steht die Politik bzw. stehen politische Entscheidungen immer unter einem Spannungsverhältnis von Freiheit auf der einen und Sicherheit auf der anderen Seite. Bestimmte Denkansätze sehen „die Sicherheit und Freiheit als die zwei Seiten einer Medaille und ‚demokratische Sicherheit‘, [die transparent kommunizierte und demokratisch entschiedene Sicherheitsgesetzgebung] als Voraussetzung demokratischer Freiheit“ (Riescher 2013, S. 21).

Die Meinungsfreiheit ist ein wichtiges, hart erkämpftes Privileg und „schützt auch abstoßende, geschmacklose und hässliche Äußerungen. Das gehört zu unserer streitbaren Demokratie. Klar ist aber: Die Grenze ist dort erreicht, wo es um Gewaltaufrufe oder um Angriffe auf die Menschenwürde geht“ (Adamski 2018, S. 136).

Hasskommentare, die versuchen, Einzelpersonen und spezifische soziale Gruppen zum Schweigen zu bringen, haben signifikante Folgen für den öffentlichen Diskurs (vgl. Fleischhack 2017, S. 26). Die Meinungs- und Bewegungsfreiheit wird dadurch im digitalen Raum eingeschränkt (vgl. ebd.) und erreicht eine strafrechtlich relevante Dimension (vgl. Adamski 2018, S. 135).

Da solche inzivilen Beiträge, die gegen den Standard des demokratischen Diskurses gerichtet sind und die persönliche Freiheit sowie die Demokratie gefährden, in der Vergangenheit vermehrt vorgekommen sind, wurde der Ruf nach Regulierung laut (vgl. Wilhelm u.a. 2019, S. 278). Mit dem NetzDG wurde diesem Ruf – trotz aller hervorgebrachter Kritik – gefolgt. Die sich anschließende und entscheidende Frage ist nun, ob das Gesetz eine wirksame Antwort auf die Hasskommentare im Internet war.

Ist das NetzDG eine wirksame Antwort?

Um über eine Wirkung und damit eine Veränderung urteilen zu können, ist es notwendig, eine Entwicklung zu betrachten und daraus Rückschlüsse zu ziehen. Da es schwierig ist, zuverlässige Zahlen und Statistiken von der Zeit vor dem NetzDG zu finden, wird an dieser Stelle auf die – seit dem NetzDG verpflichtenden – Transparenzberichte zurückgegriffen. Diese müssen halbjährlich veröffentlicht werden und zeigen die Entwicklung seit dem Inkrafttreten des Gesetzes. Im Folgenden werden deshalb die Zahlen von Januar 2018 bis Dezember 2019 aus den letzten vier Transparenzberichten [Anmerkung: Ein aktueller Transparenzbericht für das Jahr 2020 liegt zum jetzigen Zeitpunkt noch nicht vor] miteinander verglichen. Dabei erfolgt eine Beschränkung auf die Unternehmen Twitter, Facebook und Youtube.

Zu Beginn seiner Transparenzberichte macht Twitter zunächst allgemeine Angaben über den Prozess des Einreichens einer Beschwerde. Dabei müssen mehrere Angaben gemacht werden: Der Grund für die Beschwerde muss genannt und in einem weiteren Schritt aus einer Auswahl relevanter Vorschriften des Strafgesetzbuches konkretisiert werden. Des Weiteren muss angegeben werden, gegen wen der Inhalt gerichtet ist und für wen die Meldung erstattet wird (sich selbst, eine Beschwerdestelle oder eine staatliche Behörde).

Vor der endgültigen Übermittlung der Beschwerde zur Überprüfung muss der Beschwerdestellende bestätigen, dass er eine rechtliche Beschwerde übermittelt und alle darin enthaltenen Informationen wahrheitsgetreu und genau sind (vgl. erster Transparenzbericht Twitter 2018, S. 2). Beschwerden werden dabei nur bewertet, wenn alle Informationen vollständig ausgefüllt sind. Durch dieses vielschrittige Vorgehen wird deutlich, dass man sich für eine Beschwerde etwas Zeit nehmen muss und die Wahrscheinlichkeit, dass Personen dies aus Spaß nebenbei machen, gering ist, sodass die Zahlen des Transparenzberichtes als aussagekräftig gelten können.

Die Tabelle verdeutlicht die Zahlen der von Nutzerinnen und Nutzern eingegangenen Beschwerden für die Jahre 2018 und 2019 sowie die Anzahl der daraufhin getroffenen Maßnahmen:

Zeitraum
Gesamtanzahl durch Nutzerinnen und Nutzer hervorgebrachter Beschwerden
Aufgrund von Beschwerden getroffene Maßnahmen
01. – 06. 2018
244.064
27.112
07. – 12. 2018
236.322
22.004
01. – 06. 2019
477.088
44.752
07. – 12. 2019
798.161
134.007
Tabelle: Aus den Angaben der Transparenzberichte von Twitter erstellt (vgl. erster Transparenzbericht 2018, S. 7; zweiter Transparenzbericht 2018, S. 13; dritter Transparenzbericht 2019, S. 12 und vierter Transparenzbericht 2019, S. 12).

„Maßnahme bedeutet in diesem Zusammenhang, dass der gemeldete Inhalt entweder (1) aufgrund eines Verstoßes gegen die Twitter Allgemeinen Geschäftsbedingungen oder die Twitter Regeln gänzlich von der Plattform entfernt wurde oder (2) in Deutschland zurückgezogen wurde, nachdem [ein] Verstoß gegen das NetzDG festgestellt [wurde]“ (erster Transparenzbericht Twitter 2018, S. 7).

Deutlich wird, dass die Anzahl der Beschwerden, die von Nutzerinnen und Nutzern hervorgebracht wurden, nach einem leichten Rückgang in der zweiten Jahreshälfte 2018 im Jahr 2019 signifikant steigen. Veranschaulicht in einem Diagramm wird das besonders sichtbar:

Diagramm: Aus den Angaben der Transparenzberichte von Twitter erstellt (vgl. erster Transparenzbericht 2018, S. 7; zweiter Transparenzbericht 2018, S. 13; dritter Transparenzbericht 2019, S. 12 und vierter Transparenzbericht 2019, S. 12).



Twitter selbst spricht in seinem Bericht von einer Verdoppelung der Anzahl der eingehenden Meldungen um 101.88% (vgl. dritter Transparenzbericht Twitter 2019, S. 12f.) und von einem weiteren signifikanten Anstieg um 68.93% im letzten Halbjahr 2019 (vgl. vierter Transparenzbericht Twitter 2019, S. 13). Des Weiteren räumt Twitter selbst ein, dass es durch diesen Anstieg nicht immer möglich war, die Frist von 24 Stunden einzuhalten und deutlich mehr Maßnahmen als noch im Jahr zuvor erst nach 48 Stunden oder gar einer Woche getroffen werden konnten (vgl. dritter Transparenzbericht Twitter 2019, S. 17).

Dies hatte wiederum Auswirkungen auf die Anzahl der Mitarbeiter: Gab Twitter in seinen ersten beiden Berichten noch an, dass sich rund 50 Mitarbeiterinnen und Mitarbeiter der Bearbeitung der NetzDG-Beschwerden annehmen, war im dritten Bericht von ca. 65 Personen und in der letzten Veröffentlichung von mehr als 70 Personen die Rede (vgl. Transparenzberichte Twitter).

Angemerkt werden muss, dass diese Zahlen alle bei Twitter eingegangenen Beschwerden abbilden. Beim Melden eines Inhaltes wird man in einem ersten Schritt aufgefordert, den Verdacht eines Verstoßes grob einzusortieren. Neben weiteren vier Optionen gibt es auch das Feld „Fällt unter das Netzwerkdurchsetzungsgesetz“ (vgl. erster Transparenzbericht Twitter 2018, S. 2). Aus den veröffentlichten Zahlen von Twitter kann nicht abgelesen werden, wie viele Beschwerden eingegangen sind, die sich explizit auf das NetzDG beziehen.

Bei Facebook gibt es mehrere Möglichkeiten, Verstöße zu melden. Die schnellste Variante ist es, einen Link anzuklicken, der direkt neben jedem Inhalt angezeigt wird (vgl. erster Transparenzbericht Facebook 2018, S. 1). Zusätzlich gibt es für Nutzerinnen und Nutzer aus Deutschland ein NetzDG-Meldeformular, welches sich im Facebook-Hilfebereich finden lässt und ausschließlich für Beschwerden, die im NetzDG aufgeführt sind, gilt (vgl. ebd., S. 1f.). In den Transparenzberichten veröffentlicht Facebook lediglich die Zahlen für die Beschwerden, die durch das NetzDG-Meldeformular eingegangen sind, sodass diese Zahlen im Vergleich zu Twitter deutlich niedriger sind:

Zeitraum
Gesamtanzahl durch Nutzerinnen und Nutzer hervorgebrachter Beschwerden
Aufgrund von Beschwerden getroffene Maßnahmen
01. – 06. 2018
773
362
07. – 12. 2018
408
369
01. – 06. 2019
551
349
07. – 12. 2019
2.267
1.043
Tabelle: Aus den Angaben der Transparenzberichte von Facebook erstellt (vgl. erster Transparenzbericht 2018, S. 3 & 7; zweiter Transparenzbericht 2018, S. 4 & 9; dritter Transparenzbericht 2019, S. 4 & 10 und vierter Transparenzbericht 2019, S. 4 & 11).

Dennoch lässt sich auch an diesen Zahlen ein ähnlicher Verlauf wie bei Twitter feststellen. Nach einem Rückgang in der zweiten Jahreshälfte 2018 steigt die Anzahl der Beschwerden im Jahr 2019 zunächst leicht an und wächst dann zum Ende des Jahres hin sehr stark.

Diagramm: Aus den Angaben der Transparenzberichte von Facebook erstellt (vgl. erster Transparenzbericht 2018, S. 3 & 7; zweiter Transparenzbericht 2018, S. 4 & 9; dritter Transparenzbericht 2019, S. 4 & 10 und vierter Transparenzbericht 2019, S. 4 & 11).

Die vom Beschwerdestellenden angegebenen Gründe für die Beschwerde blieben dabei über die Jahre ähnlich: Beleidigung, Üble Nachrede, Verleumdung, Volksverhetzung, und Öffentliche Aufforderung zu Straftaten oder Verletzung des höchstpersönlichen Lebensbereichs durch Bildaufnahmen waren die fünf am häufigsten genannten Gründe (vgl. Transparenzberichte Facebook).

Wie bei Twitter ist auch bei Facebook die Zahl der Mitarbeitenden, die sich den Beschwerden, die über das NetzDG-Formular eingebracht werden, angestiegen. Waren es für das Jahr 2018 um die 65 Personen, waren bereits im ersten Halbjahr 2019 80 Personen und im zweiten Halbjahr 2019 125 Personen mit der Überprüfung der Beschwerden beauftragt (vgl. Transparenzberichte Facebook).

Auch bei Youtube lässt sich ein Anstieg von Beschwerdemeldungen – wenn auch nicht ganz so signifikant wie bei den anderen beiden sozialen Netzwerken – beobachten:

Zeitraum
Gesamtanzahl durch Nutzerinnen und Nutzer hervorgebrachter Beschwerden
Aufgrund von Beschwerden getroffene Maßnahmen
01. – 06. 2018
144.836
42.025
07. – 12. 2018
167.567
39.045
01. – 06. 2019
205.581
50.454
07. – 12. 2019
188.671
52.219
Tabelle: Aus den Angaben des Transparenzberichtes von Youtube erstellt.

Interessant und wichtig für die Beurteilung der Wirkung des NetzDG ist, dass Youtube diese Zahlen nochmal differenziert darstellt. Allen drei genannten Sozialen Netzwerken ist gemeinsam, dass sie eine Beschwerde – auch eine explizit über das NetzDG-Formular übermittelte Beschwerde – zunächst nach den eigenen Richtlinien überprüfen und bei einem Verstoß entsprechende Maßnahmen ergreifen. Erst nach diesem Schritt wird überprüft, ob eine Beschwerde, die mit den eigenen Richtlinien übereinstimmt, eventuell gegen das NetzDG verstößt.

In seinen Transparenzberichten bringt Youtube diese Unterscheidung an und führt explizit auf, wie viele der gesperrten Inhalte nur lokal auf Grund des NetzDG gesperrt wurden. Youtube differenziert dabei sogar nach den jeweiligen Beschwerdegründen. Addiert man diese zusammen, kommt man auf 16.176 Inhalte auf Grund des NetzDG für den Zeitraum von Januar bis Juni 2018; 12.922 Inhalte für den Zeitraum von Juli bis Dezember 2018; 12.449 Inhalte für den Zeitraum von Januar bis Juni 2019 und – nach einer Änderung der Richtlinien – auf 3.751 Inhalte für den Zeitraum von Juli bis Dezember 2019 (vgl. Transparenzberichte Youtube)


Diagramm: Aus den Angaben des Transparenzberichtes von Youtube erstellt.


Hasskommentare im Internet: Ist das NetzDG eine wirksame Antwort? – Ja! … ABER!!!

Ja! Das Diagramm mit den Zahlen von Youtube verdeutlicht, dass das NetzDG weiter greift (graue Balken) als die eigenen Richtlinien (orangefarbene Balken) und dass das NetzDG damit eine wirksame Antwort darstellt. Auch wenn die Zahlen abnahmen und zuletzt durch die veränderten Richtlinien stark gesunken sind, kann immer noch von einer wirksamen Antwort gesprochen werden. Selbst ein einziger Fall, bei dem der Inhalt gegen einen der Straftatbestände des NetzDG verstößt und somit entfernt wird, stellt einen Erfolg dar. Und die letzten Zahlen sprechen immerhin noch von über 3.000 solcher Fälle. Auch die Zunahme der Beschwerden durch die Nutzerinnen und Nutzer sowie die erhöhte Anzahl an Mitarbeitenden bei Twitter und Facebook, die sich gezielt der Überprüfung von Beschwerden annehmen, kann als Erfolg gedeutet werden.

Aber! Diese Andeutungen müssen sehr kritisch betrachtet werden. Die Zunahme von Beschwerden und damit verbunden die Zunahme von gesperrten und gelöschten Inhalten sowie erhöhtem Personalaufkommen sagen an sich noch nichts über die Gründe. Denkbar wäre in diesem Zusammenhang sogar der gegenteilige Fall, nämlich dass die beschriebenen Zunahmen auf der Tatsache beruhen, dass auch die Zahl der Hasskommentare zugenommen hat. In diesem Zusammenhang wäre es daher wünschenswert, wenn das NetzDG verbindlichere Vorgaben für den halbjährlichen Transparenzbericht formulieren würde, sodass deutlich hervorginge, wie viele konkrete Maßnahmen ein Soziales Netzwerk ausschließlich auf Grund des NetzDG getroffen hat. Auch die geringe Anzahl an getroffenen Maßnahmen im Vergleich zu den eingegangenen Beschwerden ist ein Indiz, welches die Wirksamkeit schmälert.

Am Ende des Artikels bleibt auch ein kritischer Blick auf das NetzDG an sich nicht aus. Einzelne Kritikpunkte am Gesetz wurden bereits angesprochen. Nach der Analyse der Transparenzberichte stellt sich insgesamt die Frage, ob das NetzDG die richtige Antwort auf zunehmenden Hass im Netz ist.



Das NetzDG nimmt die Anbieter Sozialer Netzwerke stärker in die Pflicht und führt zu Löschungen und Sperrungen von Inhalten – wie die Daten von Youtube zeigen, auch erfolgreich. Es erzeugt ein Problembewusstsein, bekämpft aber nicht die Wurzeln des Problems. Verfasserinnen und Verfasser von Hasskommentaren können nach wie vor ihr Unwesen treiben – mit der Einschränkung, dass ihre Kommentare teilweise häufiger und schneller gelöscht werden.

Ob die beschlossene Gesetzesänderung vom Juni 2020 zusätzlich und strikter greift und zu Strafverfolgungen führt, wird die Zukunft zeigen. Zum jetzigen Zeitpunkt lässt sich das NetzDG als Beginn „einer verstärkten politischen Gestaltung und verfassungsrechtlichen Durchdringung auch der virtuellen Welt“ (Eifert 2018, S. 43) bezeichnen, das wirksame Ansätze liefert, sich in Zukunft aber auf jeden Fall noch weiterentwickeln und anpassen muss.

Literatur

Keine Kommentare:

Kommentar veröffentlichen