Sonntag, 8. September 2019

Löschen oder ignorieren? - Wie Soziale Medien unerwünschten Inhalt fernhalten

Hat Tim Berners-Lee damals schon geahnt, was er mit der Erfindung des World Wide Web lostreten wird? 1990 hatte er die Idee, die Kommunikation und den Austausch durch „Programmierung von HTML-Seiten“ (Münker 2009, S. 11) zu erleichtern. Die erste Website ging 1991 online, war aber nur für wenige zugänglich. Erst 1993 stand die erste Version des Web, das Web 1.0, jedem und jeder zur Verfügung, der oder die einen Computer mit Internetzugang besaß. So konnte man leicht Wissen abrufen. Das war es nämlich, was das Web 1.0 auszeichnete - es war ausschließlich ein Konsumgut. Selbst etwas dazu beitragen konnten die Konsument_innen im Lese-Web nicht.

Mit der Jahrtausendwende gab es auch Veränderungen im Web. Spätestens mit Facebook im Jahr 2004 wurde das Zeitalter des Web 2.0 eingeläutet. Die Veränderung: Jede und jeder konnte sich nun im Web einbringen. Aus dem passiven Lese-Web wurde ein aktives Lese- und Schreibe-Web. Bloggen, Hochladen, Teilen und Kommentieren wurden zur Normalität und sind zentrale Charakteristika des zweiten Web — die Sozialen Medien waren geboren.

Das Besondere an ihnen: „Sie entstehen erst im gemeinsamen Gebrauch“ (Münker 2009, S. 10). Heute sind über drei Milliarden Menschen über das Web 2.0, auch Social Web genannt, verbunden (vgl. Block & Riesewieck 2018). Inzwischen werden pro Minute auf YouTube 500 Stunden Videomaterial, auf Facebook 2,5 Millionen Posts hochgeladen und über Twitter 250.000 Tweets gesendet (Block & Riesewieck, 2018). Weltweit. Tendenz steigend.

Dass das „Vernetzt-Sein“ und das Teilen von Wissen unglaubliche Vorteile bringt, ist unbestritten. Wikipedia ist die größte Enzyklopädie der Welt, kostenlos, jederzeit abrufbar und wurde auch für diesen Blogbeitrag als Quelle hinzugezogen. Um mit Freunden auf der ganzen Welt in Kontakt zu bleiben, kann Facebook problemlos genutzt werden. YouTube ist dank seiner „Tutorials“ ausgezeichnet zum Teilen und zur Aneignung neuen Wissens geeignet; das Spektrum reicht vom perfekten Auftragen des Make-Up bis hin zur Integralrechnung.

Jedoch ist der Inhalt des Web keine Utopie, in der nur das Gute der Menschheit zu finden ist. Menschen teilen alles. So bleibt das Web auch von grausamen Inhalten, die unmenschlich und schwer zu ertragen sind, nicht verschont. Darunter fallen beispielsweise Kinderpornografie oder Gewalt. Trotzdem kommt man mit ihnen in den Sozialen Medien (in diesem Beitrag werden die größten Plattformen Facebook, Instagram, YouTube und Twitter als Beispiel genommen) so gut wie nie in Kontakt. Ähnlich wie Moritz Riesewieck und Hans Block in ihrer Dokumentation, „The Cleaners“ aus dem Jahr 2018 geht dieser Blogbeitrag der Frage nach, was und wer dafür verantwortlich ist, dass wir, die Nutzer_innen des Social Web, solche Inhalte nicht zu sehen bekommen.

Als erstes lege ich die Rolle der Algorithmen in der Nutzung von Online-Plattformen dar. Mit der Computer Vision erläutere ich einen weiteren Grund dafür, wie verbotener Inhalt herausgefiltert wird. Als letztes gehe ich auf die Content Moderators ein, erkläre ihre Arbeit, die ganz und gar einem „sauberen“ Netz gewidmet ist, und beschreibe deren Konsequenzen.


1. Algorithmen

1.1 Was ist ein Algorithmus?

Algorithmen sind heutzutage in aller Munde. Egal, ob diskutiert wird, wie früh Kinder in der Schule mit Informatik in Berührung kommen sollen, und somit auch mit der Materie der Algorithmen, oder ob wieder über die „bösen und gefährlichen Facebook/Google/Amazon…- Algorithmen“ geschimpft wird.

Der Begriff Algorithmus setzt sich einerseits aus dem griechischen Personennamen „Algus“ und dem griechischen Begriff für „Zahl“ zusammen. Andererseits ist ein iranischer Mathematiker und Gelehrter der eigentliche Namensgeber. Al-Chwarizmi (latinisiert: Algorismi) verbreitete 825 n. Chr. das schriftliche Rechnen mit arabischen Zahlen in Bagdad, wo er auch die meiste Zeit seines Lebens verbrachte (vgl: Wikipedia 2019).

Vergleichbar ist ein Algorithmus mit einer genau definierten Handlungsvorschrift, um ein Problem zu lösen, ähnlich wie ein Rezept oder eine Bauanleitung. Dabei sind Algorithmen kein neuartiges Phänomen, das erst mit Beginn der ersten Computer aufkam. Sie existieren bereits seit der Antike. Der Satz des Pythagoras ist einer der ältesten Algorithmen. Er beschreibt genau, wie man aus der Gegenkathete und der Ankathete die Hypotenuse ausrechnen kann (vgl.: MDR/Lexi TV 2018).

Im Computer sorgen Algorithmen dafür, dass das Herzstück des Computers, der Prozessor, der für die Befehlsverarbeitung zuständig ist, genau angeleitet wird, wie er die einlaufenden Datenmengen verarbeiten soll (vgl.: MDR/Lexi TV 2018). Genauso benutzen Internetgiganten wie Netflix, Google oder Facebook Algorithmen, um mit der überwältigenden Anzahl an Datenströmen zurechtzukommen, die sie stündlich, minütlich und sekündlich erreichen.

Diese Daten sammeln und kategorisieren sie selbstverständlich nicht aus Ordnungsliebe. Algorithmen sind lernfähig und helfen Unternehmen dabei, kommerzielle Profile über Nutzer_innen beziehungsweise Konsument_innen zu erstellen - mit all ihren Interessen und Vorlieben. Das Resultat ist nicht nur perfekt abgestimmte Werbung, die das Kaufverhalten der Nutzerin oder des Nutzers lenkt, sondern auch auf den Konsumenten / die Konsumentin zugeschnittene (Nachrichten-) Beiträge. Man steckt nun in einer Filterblase.

1.2 Die Filterblase

Den Ausdruck Filterblase hat der US-amerikanische Autor Eli Pariser geprägt, der mit seinem Buch „The Filter Bubble - How the New Personalized Web is Changing What We Read and How We Think“ und mit seinem TED Talk „Beware Online ´Filter Bubbles’“ im Jahr 2011 auf diese Besonderheit aufmerksam machte. Gemessen an den vorangegangenen Daten, die ein Algorithmus über eine bestimmte, sich im Netz aufhaltende Person sammeln konnte, werden Nachrichten auf Facebook oder Videos auf YouTube nach den Präferenzen dieser Person angezeigt.

Bei Facebook entscheiden darüber im wesentlichen zwei Faktoren: Zum einen die Wahrscheinlichkeit, mit der der Nutzer / die Nutzerin die Nachricht sehen möchte, und zum anderen die Wahrscheinlichkeit, mit welcher der Nutzer / die Nutzerin diese Meldung anklickt, teilt oder einen Kommentar darunter verfasst. Deswegen ist „[e]in Eichhörnchen, das vor deinem Haus stirbt, möglicherweise relevanter für deine Interessen, als die Menschen, die in Afrika sterben.“ Genau das soll Mark Zuckerberg einmal einem Kollegen gesagt haben (vgl.: The New York Times, Pariser 2011).

Ähnlich verfährt auch Google. Der Algorithmus dieser Internetsuchmaschine geht sogar so weit, dass Personen bei gleicher Google-Suchanfrage unterschiedliche Ergebnisse erzielen (vgl.: TED Talk, Pariser 2011). Alles basierend auf dem bisherigen Suchverlauf. Selbst wenn man nicht mit dem eigenen Google-Konto angemeldet ist und sich für anonym hält, gibt es Anhaltspunkte für den Algorithmus, die Informationen über die Person am Computer preisgeben. Um Ergebnisse zu personalisieren, sind beispielsweise der Standort, an dem sich die Person befindet, der Computer, der benutzt wird, oder der Browser, den man zur Navigation verwendet, ausreichend (vgl.: TED Talk, Pariser 2011).



Eine Person, die geneigt ist, eher links-liberale Posts oder Seiten auf Facebook zu „liken“, wird mit großer Wahrscheinlichkeit keine rechts-konservativen Beiträge auf dem eigenen „Newsfeed“ sehen. Das schützt einerseits vor Material, welches den eigenen Präferenzen widerspricht, andererseits ist es auch zum Problem geworden. Besonders während der Präsidentschaftswahl in den USA und während des EU-Austrittsreferendums in Großbritannien im Jahr 2016 spitzte sich dieses Phänomen zu, sorgte für zu wenig Austausch und schließlich zu vielen Falschmeldungen, Hetze, Häme und Hass - egal ob im Netz oder auf dem Wahlschein (vgl.: The Guardian, Hern 2017). Auf diese Weise sortieren Algorithmen das heraus, was man nicht hören oder sehen möchte.

Algorithmen im Internet und die personalisierte Filterblase, die diese nach sich zieht, führen zu einem Internet, das ganz auf den User oder die Userin zugeschnitten ist und nur bestimmten Inhalt zulässt. Gewisser Inhalt dringt dadurch zu manchen User_innen aufgrund von anderen, vorangegangenen Suchanfragen oder „Likes“ gar nicht in die „Internetblase“ vor und verhindert so die Konfrontation mit verstörenden Bildern oder Videos im Netz.

Rein zufällig stoßen manche User_innen daher auch in den seltensten Fällen auf Grausames. Auch wenn das vielleicht für die breite Masse der User_innen zutrifft, gibt es User_innen, die, sei es aus „Sensationslust, Voyeurismus oder Neugier“ (vgl. Riesewieck 2017, S. 8), gezielt nach unerlaubtem Inhalt suchen.

2. Computer Vision

Algorithmen verhindern das Hochladen verbotenen Inhalts selbstverständlich nicht. Um trotzdem zu vermeiden, dass Nutzer_innen Sozialer Netzwerke schockierendes Bild- oder Videomaterial hochladen, gibt es Richtlinien, die das Teilen solchen Inhalts untersagen. Facebook verbietet beispielsweise das Online-Stellen von „Nacktheit oder andere[r] sexuell anzügliche[r] Inhalte“, „Hassreden“ oder „Inhalte, die selbstverletzendes Verhalten oder exzessive Gewalt enthalten“ (vgl. Facebook 2019). Ähnlich geht Instagram, das seit 2012 zu Facebook gehört, mit diesem Thema um. Auch YouTube missbilligt „schädliche, gefährliche, gewalttätige oder grausame Inhalte“, ebenso wie „Cybermobbing, Belästigung oder Drohungen“ (vgl. YouTube 2019).

Doch genauso wie Radarfallen manche Menschen mit Führerschein nicht davon abhalten, schneller zu fahren als sie eigentlich dürfen, halten diese Vorschriften Einzelpersonen nicht vom Teilen dieser Inhalte ab. Hinzu kommt, dass das Material, das auf Sozialen Medien hochgeladen wird, in den meisten Fällen nicht automatisch überprüft wird. Lediglich andere Nutzer_innen können durch die Melden-Funktion auf Inhalte hinweisen, die sie für unpassend oder unzulässig erachten.

Damit Facebook, Instagram, YouTube und andere Anbieter ihren Nutzer_innen aber trotzdem eine „angenehme Plattform“ (Richtlinien, Facebook 2019) bieten können, bringt man Computern bei, unzulässige Inhalte zu erkennen. Dieses interdisziplinäre Fachgebiet nennt man Computer Vision. Mit Hilfe von riesigen Datenmengen (Big Data) und Machine Learning, maschinellem Lernen, einem Teilbereich der künstlichen Intelligenz, soll dieser lernfähige Algorithmus einzelne Objekte in Audio- und Videomaterial erkennen und so den unerwünschten Inhalt löschen. 

2.1 „Vision begins with the eyes, but truly takes place in the brain“ - How [they’re] teaching Computers to understand pictures (TED Talk, Li 2015)

Das Ziel von Computer Vision ist es, Maschinen beizubringen, so sehen zu können wie Menschen. Das bedeutet, dass Maschinen nicht nur einzelne Objekte benennen, Personen erkennen und 3D-Objekte korrekt bestimmen, sondern auch Zusammenhänge, Emotionen, Intentionen und Handlungen verstehen können (vgl.: TED Talk, Li 2015).



In ihrem 2015 aufgezeichneten TED Talk beschreibt Fei-Fei Li, eine führende Wissenschaftlerin im Bereich der künstlichen Intelligenz, wie sie 2007 anfing, mit Hilfe von 50.000 Mitarbeiter_innen aus 167 Ländern, fast eine Milliarde Bilder zu kategorisieren und zu benennen. Diese riesigen Datenmengen (Big Data) braucht es, um den Algorithmus zu trainieren, denn auch die einfachsten, alltäglichsten Dinge können in unendlich vielen Variationen erscheinen. Diesen Lernprozess, „also ein Lernen, das auf Erfahrungen aufbaut“ (Riesewieck 2017, S. 179), nennt man Deep Learning.

2009 hatte das sogenannte ImageNet Project schließlich eine Datenbank bestehend aus 15 Millionen Bildern, welche in 22.000 Kategorien mit alltäglichen englischen Begriffen betitelt und klassifiziert worden sind. Im Jahr 2015, als der TED Talk aufgezeichnet wurde, waren die Wissenschaftler_innen so weit, dem Computer beibringen zu können, Objekte in Bildern zu erkennen. Das ist allerdings nur der erste Schritt, denn die Maschinen haben noch nicht gelernt, Zusammenhänge zu erfassen und machen immer noch Fehler. Beispielsweise können sie einen Baseballschläger noch nicht von einer Zahnbürste unterscheiden oder einen Gegenstand, der lediglich die Form eines Tieres hat, nicht vom eigentlichen Tier selbst (vgl.: TED Talk, Li 2015).

Die „Ehe zwischen Big Data und Machine Learning Algorithmen“, wie sie von Li bezeichnet wird, muss eine weitere Stufe erreichen (TED Talk, Li 2015, 13:30-13:35). Seither gab es im Fachgebiet der künstlichen Intelligenz und Computer Vision immense Fortschritte. Noch im Jahr 2014 legte sich der Leiter der Abteilung für künstliche Intelligenz bei Tesla, Andrej Karpathy, mit einer Maschine an. Trotz einer Fehlerrate von 5,1% schnitt er damals noch besser ab als die besten elektronischen Endgeräte. Bereits im Folgejahr wurde er allerdings von den „Deep Learning Modellen“ übertroffen (Hertwig 2019).

Wie steht es um Computer Vision im Jahr 2019? Der Themenbereich des maschinellen Lernens ist begehrt bei Forscher_innen weltweit. Die Wissenschaft hat maschinelles Lernen und Computer Vision inzwischen schon so weit gebracht, dass „Deep-Learning-Architekturen“ (Hertwig 2019) den Menschen beim Erkennen von Hautkrebs erfolgreich unterstützen (Haenssle & Fink 2018) oder verschiedene Gesichter erkennen und richtig zuordnen können. Das Smartphone soll sich schließlich nur dann entsperren, wenn das eigene Gesicht in die Kamera blickt.

Doch trotz aller Fortschritte und Neuerungen, kommt auch im Jahr 2019 die Computer Vision an ihre Grenzen. Forscher_innen der Arizona State University haben hierzu eine Studie durchgeführt und Mensch mit Maschine verglichen. Evident ist nun, dass Maschinen scharfe Bilder gut bis sehr gut erkennen und zuordnen können. Sie sind genauso gut darin wie Menschen, wenn nicht sogar besser. Ist das zu erkennende Bild jedoch verrauscht oder gar unscharf, hat der Computer nach wie vor Probleme, das Bild richtig zuordnen zu können und daher auch eine signifikant höhere Fehlerquote als der Mensch (Dodge & Karam 2017).

Noch schwieriger wird es bei Videos, denn die Bilderkennungsalgorithmen sind noch nicht dazu imstande, bewegte Bilder richtig zu kategorisieren. Ihr Erkennungspotenzial geht noch nicht über Gesichter und „grobe Formen“ hinaus (vgl. Riesewieck 2017, S. 11). Bei bewegten Bildern ist es noch so, dass nicht das ganze Video am Stück analysiert werden kann, sondern einzelne Videoabschnitte angehalten und als Fotos analysiert werden müssen. Nur auf diese Weise kann der Algorithmus erfassen, ob beispielsweise eine Kiste ein- oder ausgepackt wird (vgl.: Crash Course Computer Vision, YouTube 2017).



Aufgrund der noch hohen Fehlerquote und dem bestehenden Unvermögen der Maschinen, Zusammenhänge richtig zu begreifen, können Internetgiganten nicht ausschließlich auf die Bilderkennungsalgorithmen zurückgreifen, um eine „angenehme Plattform“ (Richtlinien, Facebook 2019) zu bieten. Maschinen können bisher lediglich die Vorarbeit leisten, wenn ein unerlaubter Inhalt identifiziert und gemeldet wurde. Die Bilderkennungssoftware kann etwa „Geschlechtsorgane, Blut oder Nacktheit erkennen“ (TEDx Talk, Block & Riesewieck 2018, 01:46-01:57). Sie hat aber Probleme damit, „eine Messerattacke von der Sterbeszene in Romeo und Julia zu unterscheiden“ (TEDx Talk, Block & Riesewieck 2018, 02:10-02:17). Schließlich ist „hören nicht dasselbe wie zuhören und [sehen] nicht dasselbe wie [erkennen]“ (vgl.: TED Talk, Li 2015, 03:00-03:13). Das braucht bei Computern noch Zeit.

Wie die US-amerikanische Wissenschaftlerin Sarah T. Roberts und die deutschen Regisseure Moritz Riesewieck und Hans Block herausfanden, machen die eigentliche „digitale Drecksarbeit“ (Riesewieck 2017) Menschen in weltweit verbreiteten Callzentren. Sie entscheiden bei gemeldetem Inhalt darüber, was im Internet bleiben darf und was gelöscht werden muss.

3. Commercial Content Moderators

An verschiedenen Orten, unter anderem im Silicon Valley in den USA und in der Nähe von Berlin, verrichten sogenannte Commercial Content Moderators ihre Arbeit. Es ist eine Arbeit, über die in großen Tech-Firmen kaum gesprochen und von der Außenwelt fast gar nicht bemerkt wird. Erst als 2012 über die Website Gawker Informationen über die Arbeit eines Commercial Content Moderators an die Öffentlichkeit kamen, musste Facebook offiziell Stellung beziehen und seine Praktiken erläutern (vgl. Chen 2012). 

3.1 „Die Welt soll wissen, dass es uns gibt“ (Block & Riesewieck 2018) - Content Moderators und die „Digitale Drecksarbeit“ (Riesewieck 2017), die sie leisten

CCMs, wie Commercial Content Moderators abgekürzt bezeichnet werden, verbringen in der Regel zehn Stunden am Tag mit dem Überprüfen von gemeldetem Inhalt im Netz. Darunter fallen Hassbeiträge, Kinderpornografie und andere Gewalthandlungen. „Ihre Arbeit gleicht der einer Maschine, ist aber für diese zu komplex“ (vgl.: Süddeutsche Zeitung Magazin, Gültekin-Punsmann 2018).

Im Sekundentakt bekommen die Moderatoren Meldungen mit Verdacht auf ordnungswidrigem Inhalt und müssen entscheiden, ob sie ihn „löschen“ (delete) oder „ignorieren“ (ignore) (Block & Riesewieck 2018). Trotzdem ist diese Arbeit alles andere als trivial, denn Content Moderators „analysier[en] Inhalte und setz[en] sie in einen Kontext; sie entscheid[en] nicht einfach nur, ob ein Posting gelöscht oder behalten wird, sondern beweg[en] sich in einem komplizierten System aus möglichen Aktionen und Konsequenzen“ (Süddeutsche Zeitung Magazin, Gültekin Punsman 2018).

Aus diesem Grund werden „hohe kognitive Kompetenzen“ (Roberts 2014) vorausgesetzt. Eventuelle Fehler könnten im schlimmsten Fall „einen Krieg auslösen, zu Mobbing oder Selbstmord führen“ (Block & Riesewieck 2018). Im Durchschnitt müssen Content Moderators „13.000 bis 25.000 Meldungen“ am Tag bearbeiten (SZ Magazin, Gültekin Punsman 2018). Wichtig ist dabei, adäquat auf kulturelle Konventionen eingehen zu können und die sehr detaillierten, bis zu 17-seitigen Richtlinien zu beachten (vgl. Chen 2012). Deshalb werden Posts je nach Sprache und Möglichkeit an eine/-n Muttersprachler_in geleitet. Muttersprachler_innen können sich allerdings nicht darauf verlassen, nur Inhalte in der eigenen Sprache bearbeiten zu müssen, denn der Arbeitsplatz unterscheidet sich geografisch zum Teil immens vom Ursprung des Posts (vgl.: Roberts 2014, S. 13).

Sich in jeder Sprache und Kultur in Angemessenheiten, Konventionen und in sprachlichen Besonderheiten auszukennen, ist schier unmöglich. Fehler sind hierbei die unausweichliche Konsequenz. Von diesen sind jedoch nur drei pro Monat erlaubt. Des Weiteren kommen auch Muttersprachler_innen in der eigenen Sprache an ihre Grenzen. Im Türkischen beispielsweise, so schreibt es die Gastautorin Burcu Gültekin Punsman im Süddeutschen Zeitung Magazin „sei es nicht immer leicht, zwischen Flüchen und Frauenfeindlichkeit zu unterscheiden. Ihr sei nicht klar gewesen, wie sexuell suggestiv und geschlechtsspezifisch viele gängige Flüche eigentlich [seien]“ (vgl.: SZ Magazin, Gültekin Punsman 2018). Im Callcenter bei Berlin, wo die Gastautorin der SZ gearbeitet hat, fokussiert man sich seit dem 2017 verabschiedeten Netzwerkdurchsetzungsgesetz insbesondere auf Hassreden.

Die Callzentren, die für große Internetkonzerne wie Facebook oder YouTube Inhalte einsehen, sind weltweit verteilt. Sie sind in Bangladesh, in den USA, aber auch in verschiedenen Städten in Europa zu finden und verlassen sich auf ihr „multilinguales Personal“ (Roberts 2014, S. 20). Besonders viele Menschen arbeiten in Manila, der Hauptstadt der Philippinen, und prüfen hauptsächlich „Inhalte aus Europa und den USA“ (Block & Riesewieck 2018, 01:28). Dies zeigt, dass die Callzentren den Nöten „des Westens“ dienen, ihren Sitz aber häufig weit weg von diesem haben (Roberts 2014, S. 21).

Finanziert werden die CCMs über Dritte und nicht von der Firma, für die sie eigentlich arbeiten. Der Lohn beträgt zum Teil gerade einmal einen Dollar pro Stunde (vgl.: Chen 2012). Die Arbeit eines Commercial Content Moderators ist nicht nur unterbezahlt, demütigend und kognitiv anstrengend, sie zieht auch nicht selten gesundheitliche Folgen nach sich. Durch das verstörenden Text-, Video- und Bildmaterial werden Content Moderators von psychischen Problemen geplagt.

Eine posttraumatische Belastungsstörung (PTBS) „ist eine psychische Erkrankung, die bislang vor allem bei Soldaten diagnostiziert wurde. […] [Z]u den Symptomen [gehören] plötzliche Flashbacks, Angst- und Schlafstörungen, Aggressivitätsschübe [und] Stimmungsschwankungen“ (Riesewieck 2017, S. 102). Unlängst hat eine Studie der Universität Bradford nachgewiesen, dass PTBS auch bei Berufsgruppen vorkommen kann, die Grausamkeiten lediglich sehen und nicht leibhaftig erleben (vgl. Riesewieck 2017, S. 103). „Besonders gefährdet seien Menschen, die regelmäßig Fotos oder Videos von Gewalt und Pornografie zu sehen bekämen“ (Riesewieck 2017, S. 103). So auch Content Moderators.

PTBS ist aber nicht die einzige gesundheitliche Folge dieser Arbeit. Weitere Konsequenzen sind soziale Probleme, Depressionen, Essstörungen, fehlende Libido beziehungsweise „keine Lust mehr auf den Partner“ (Riesewieck 2017, S. 105). Unterstützung bekommen die Moderators in den seltensten Fällen, da „die wenigsten der Outsourcingunternehmen […] sich überhaupt Psychologen leisten“ (Riesewieck 2017, S. 105).

Erschwerend kommt hinzu, dass auf den Philippinen, wo sehr viele Content Moderators arbeiten, generell nicht offen über eigene Gefühle gesprochen wird. Darüber hinaus arbeiten Commercial Content Moderators nicht nur zum Nachteil der eigenen Gesundheit, sondern auch auf Kosten eines freien Internets. 

3.2 Ein freies Web 2.0? - Das Spannungsverhältnis zwischen Freiheit und Sicherheit

Gewaltverherrlichende Posts, Kinderpornografie oder Enthauptungen verstoßen gegen die Richtlinien der Sozialen Netzwerke, verstoßen gegen die Menschenwürde und die Menschenrechte. Hierbei ist es nachvollziehbar, dass „Soziale Netzwerke die volle Kontrolle über das, was geschieht, brauchen“ (Block & Riesewieck 2018, 03:26). Jedoch ist der Gewaltbegriff breit gefasst und „nicht alles so eindeutig abstoßend und kriminell wie Kinderpornografie“ (Riesewieck 2017, S. 139).

Auch die Content Moderators müssen abwägen: „Dient eine Darstellung von Gewalt der Berichterstattung, darf sie (sofern nicht zu verstörend) sichtbar bleiben; dient sie der Verherrlichung von Gewalt, muss sie gelöscht werden“ (Riesewieck 2017, S. 192). Zweck und Wirkung eines Bildes / eines Videos lassen sich aber anhand dieser Beschreibung nicht ablesen beziehungsweise sind von Kulturkreis zu Kulturkreis, ja sogar von Nutzer_in zu Nutzer_in unterschiedlich, von welchen allein Facebook zwei Billionen für sich beanspruchen kann (vgl. Riesewieck 2017, S. 192).

So kommt es vor, dass Fotos und Videos aus dem syrischen Bürgerkrieg, die von syrischen Zivilist_innen gemacht wurden und die als Beweismaterial dienen können, gelöscht werden, weil sie entweder zu brutal sind oder fälschlicherweise für ein Video einer Terrormiliz gehalten werden. Verschiedene Nichtregierungsorganisationen, darunter Airwars, haben es sich deswegen zur Aufgabe gemacht, Fotos und Videos aus Krisenregionen schnellstmöglich zu archivieren, bevor sie von den Plattformen entfernt werden. „Ohne deren Arbeit […] gäbe es niemanden, der das [Handeln] der Regierungen in Frage stellen würde, womöglich noch mehr Opfer unter den Zivilist_innen und weniger Aufklärung“ (vgl.: Block & Riesewieck 2018, 30:00).

Ähnlich schwierig ist die Situation bei Kunst. Nackte Haut zu zeigen, verstößt häufig gegen die Richtlinien der Sozialen Netzwerke. Werbekampagnen, die auf Brustkrebs hinweisen (vgl.: Riesewieck 2017, S. 140), Bilder von stillenden Müttern, aber auch Bildende Kunst oder (politische) Karikaturen, die Nacktheit darstellen, werden gelöscht. Das Bild „Der Ursprung der Welt“ (L’origine du monde) von Gustav Courbet ist hier ein konkretes Beispiel. Wann immer es auf Facebook auftaucht, wird es gelöscht (Riesewieck 2017, S. 47f.).

An diesen Beispielen zeigt sich, wie Instagram, Facebook und Co. als Zensor agieren und wie viel Macht die Sozialen Netzwerke in der "Online-Gesetzgebung" haben. Meinungs- und Medienvielfalt werden damit unterdrückt. Sie, die Sozialen Netzwerke, „profitieren [auf diese Weise] von unserem Wunsch nach Bequemlichkeit, unserer Abneigung allem Anstrengenden und Schwierigen gegenüber […]“, argumentiert der UN-Sonderberichterstatter für Meinungsfreiheit, Dr. David Kaye (Block & Riesewieck 2018, 40:28). Negativ wirkt sich das nicht nur auf basale Menschen- und liberal-demokratische Rechte aus, sondern auch auf das Infragestellen von Sachverhalten und das kritische Denken.

„Unternehmen“, so Kaye weiter, „müssen mehr und mehr entscheiden, wie sie Gesetze in den einzelnen Ländern auslegen. Letztlich entscheiden also sie, die Unternehmen, was rechtmäßig, was rechtswidrig und was legal ist“ (Block & Riesewieck 2018, 55:00-57:00). Solche Entwicklungen, dass Entscheidungen dieser Art vermehrt an „Unternehmen ausgelagert werden“ (Block & Riesewieck 2018, 56:00-57:00), müssen besonders die Bevölkerung in liberal-demokratischen Ländern zum Nachdenken, wenn nicht sogar zum Handeln anregen.

Das Spannungsverhältnis zwischen Freiheit und Sicherheit ist ohne Zweifel ein schmaler Grad. Es wird sich zukünftig zeigen, in welchem Verhältnis sich diese Spannung im Netz darlegen wird. Die Freiheit sollte jedenfalls „der Standard sein, nicht die Einschränkung“ (Kemper/Mentzer/Tillmanns 2012, S. 257).

4. Fazit

Es hat mehrere Ursachen, warum Nutzer_innen auf Social Media-Plattformen keine verstörenden Inhalte sehen, seien es Hassnachrichten oder gewaltverherrlichende Bilder und Videos. Zum einen kommt es auf das Verhalten des Nutzers / der Nutzerin im Netz an. Algorithmen suchen anhand des Nutzer_innenverhaltens und des vorangegangenen Internetverlaufs im Vorhinein aus, was welche/-r User_in zu sehen bekommt. Die sogenannte Filterblase unterstützt diesen Effekt und sorgt dafür, dass der Inhalt des Sozialen Netzwerks auf den/die User_in zugeschnitten ist. Um mit verbotenem Inhalt konfrontiert zu werden, muss man explizit danach suchen.

Soziale Netzwerke haben zwar Regeln und Richtlinien, welche Menschen jedoch nicht vom Hochladen verbotenen Inhalts abhalten. Schließlich werden zu teilende Beiträge nicht immer automatisch von Bilderkennungssoftwares geprüft. Diese können bisher auch nur zum Teil eingesetzt werden, da sie nach wie vor sehr schnell an ihre technischen Grenzen kommen. Die menschliche Fähigkeit, Zusammenhänge zu erkennen, fehlt den Maschinen noch weitgehend.

Aufgrund dessen sind große Akteure im Web 2.0 auf menschliche Arbeit angewiesen, damit verbotener Inhalt keinen Raum hat. Content Moderators sorgen dafür, dass verstörender Inhalt nicht auf den Plattformen zu finden ist. Ihre Arbeit besteht aus dem Einsehen von nicht selten schockierendem Inhalt der User_innen der Sozialen Netzwerke. Mit ihrer Tätigkeit tragen sie dazu bei, dass wir, die weltweiten Nutzer_innen des Web 2.0, eine „angenehme Plattform“ (Richtlinien, Facebook 2019) nutzen und die Sozialen Netzwerke ihr sauberes Image behalten können. Die Folgen davon sind psychische Erkrankungen bei den Content Moderators, die von Depressionen bis zum Suizid reichen.

Allerdings bekommen wir, die wir in liberal-demokratischen Ländern leben, die Folgen ebenfalls zu spüren, denn das Löschen bestimmten Inhalts trägt zur Zensur und somit zur eingeschränkten Meinungsfreiheit im Web bei. Die Politik hinkt mit Gesetzesentwürfen, Regulierungen und dem nötigen Wissen über die digitale Welt hinterher. Das Web nimmt exponentiell Fahrt auf, die Bürokratie in demokratischen Ländern braucht aber ihre Zeit. Die Urheberrechtsreform der Europäischen Union, die mit Uploadfiltern versucht, Herr der Lage zu werden, ist nur eines der dürftig umgesetzten Beispiele.

„Freiheit und Demokratie“, wie Hans Block und Moritz Riesewieck in ihrem TEDx Talk postulieren, „dürfen [aber] nicht nur ignorieren und löschen als Optionen haben“ (TEDx Talk, Block & Riesewieck 2018, 16:00-16:08). Das ist ein Problem, das immer mehr in den Mittelpunkt rückt und uns auch in Zukunft nicht loslassen wird. Einen ethischen „Internetkonsens“, auf den sich die Mitgliedsländer der Vereinten Nationen einigen müssen, und einen Expertenkreis, der das Löschen oder Ignorieren nicht Laien überlässt, wird von den Filmemachern Block und Riesewieck vorgeschlagen (Knöver 2018). Mit der Emergenz des Web 3.0, dem „intelligenten Web“ (Bauer 2019), stehen wir nun vor neuen Herausforderungen - aber auch Chancen.



Quellenverzeichnis:

Literatur:
  • Betz, Joachim und Kübler, Hans-Dieter: Wer regiert wie das Internet? Wiesbaden: Springer Fachmedien 2013. 
  • Drösser, Christoph: Total berechenbar? Wenn Algorithmen für uns entscheiden. München: Carl Hanser Verlag 2016. 
  • Fuchs, Christian: Soziale Medien und kritische Theorie. Eine Einführung. München: UTB 2019. 
  • Kemper, Peter/ Mentzer, Alf/ Tillmanns, Julika: Wirklichkeit 2.0. Medienkultur im digitalen Zeitalter. Stuttgart: Reclam Verlag 2012. 
  • Münker, Stefan: Emergenz digitaler Öffentlichkeiten. Die Sozialen Medien im Web 2.0. Frankfurt am Main: Suhrkamp 2009. 
  • Prietl, Bianca: Datengesellschaften. Einsichten in die Datafizierung des Sozialen. Bielefeld: transcript Verlag 2018. 
  • Riesewieck, Moritz: Digitale Drecksarbeit. Wie uns Facebook und Co. von dem Bösen erlösen. München: Deutscher Taschenbuch Verlag 2017. 
  • Roberge, Jonathan und Seyfert, Robert: Algorithmuskulturen. Über die rechnerische Konstruktion der Wirklichkeit. Bielefeld: transcript Verlag 2017. 
Internetquellen:
Wissenschaftliche Arbeiten:
  • Dodge, Samuel/ Karam, Lina: A Study and Comparison of Human and Deep Learning Recognition Performance Under Visual Distortions. Arizona State University, 2017. https://arxiv.org/pdf/1705.02498.pdf. (Zuletzt aufgerufen am 22.08.2019). 
Dokumentation:
TED Talks:
Videos:
Richtlinien:

Keine Kommentare:

Kommentar veröffentlichen