Sonntag, 8. September 2019

Löschen oder ignorieren? - Wie Soziale Medien unerwünschten Inhalt fernhalten

Hat Tim Berners-Lee damals schon geahnt, was er mit der Erfindung des World Wide Web lostreten wird? 1990 hatte er die Idee, die Kommunikation und den Austausch durch „Programmierung von HTML-Seiten“ (Münker 2009, S. 11) zu erleichtern. Die erste Website ging 1991 online, war aber nur für wenige zugänglich. Erst 1993 stand die erste Version des Web, das Web 1.0, jedem und jeder zur Verfügung, der oder die einen Computer mit Internetzugang besaß. So konnte man leicht Wissen abrufen. Das war es nämlich, was das Web 1.0 auszeichnete - es war ausschließlich ein Konsumgut. Selbst etwas dazu beitragen konnten die Konsument_innen im Lese-Web nicht.

Mit der Jahrtausendwende gab es auch Veränderungen im Web. Spätestens mit Facebook im Jahr 2004 wurde das Zeitalter des Web 2.0 eingeläutet. Die Veränderung: Jede und jeder konnte sich nun im Web einbringen. Aus dem passiven Lese-Web wurde ein aktives Lese- und Schreibe-Web. Bloggen, Hochladen, Teilen und Kommentieren wurden zur Normalität und sind zentrale Charakteristika des zweiten Web — die Sozialen Medien waren geboren.

Das Besondere an ihnen: „Sie entstehen erst im gemeinsamen Gebrauch“ (Münker 2009, S. 10). Heute sind über drei Milliarden Menschen über das Web 2.0, auch Social Web genannt, verbunden (vgl. Block & Riesewieck 2018). Inzwischen werden pro Minute auf YouTube 500 Stunden Videomaterial, auf Facebook 2,5 Millionen Posts hochgeladen und über Twitter 250.000 Tweets gesendet (Block & Riesewieck, 2018). Weltweit. Tendenz steigend.

Dass das „Vernetzt-Sein“ und das Teilen von Wissen unglaubliche Vorteile bringt, ist unbestritten. Wikipedia ist die größte Enzyklopädie der Welt, kostenlos, jederzeit abrufbar und wurde auch für diesen Blogbeitrag als Quelle hinzugezogen. Um mit Freunden auf der ganzen Welt in Kontakt zu bleiben, kann Facebook problemlos genutzt werden. YouTube ist dank seiner „Tutorials“ ausgezeichnet zum Teilen und zur Aneignung neuen Wissens geeignet; das Spektrum reicht vom perfekten Auftragen des Make-Up bis hin zur Integralrechnung.

Jedoch ist der Inhalt des Web keine Utopie, in der nur das Gute der Menschheit zu finden ist. Menschen teilen alles. So bleibt das Web auch von grausamen Inhalten, die unmenschlich und schwer zu ertragen sind, nicht verschont. Darunter fallen beispielsweise Kinderpornografie oder Gewalt. Trotzdem kommt man mit ihnen in den Sozialen Medien (in diesem Beitrag werden die größten Plattformen Facebook, Instagram, YouTube und Twitter als Beispiel genommen) so gut wie nie in Kontakt. Ähnlich wie Moritz Riesewieck und Hans Block in ihrer Dokumentation, „The Cleaners“ aus dem Jahr 2018 geht dieser Blogbeitrag der Frage nach, was und wer dafür verantwortlich ist, dass wir, die Nutzer_innen des Social Web, solche Inhalte nicht zu sehen bekommen.

Als erstes lege ich die Rolle der Algorithmen in der Nutzung von Online-Plattformen dar. Mit der Computer Vision erläutere ich einen weiteren Grund dafür, wie verbotener Inhalt herausgefiltert wird. Als letztes gehe ich auf die Content Moderators ein, erkläre ihre Arbeit, die ganz und gar einem „sauberen“ Netz gewidmet ist, und beschreibe deren Konsequenzen.