David Precht dikustiert mit Sascha Lobo über eine "neue Form" der Arbeit. Von der gehackten Heizung bis zur Datenerhebung gesundheitlicher Informationen. Die Überwachung auf der einen Seite, die Nutzung der Informationen durch Fachkräfte auf der anderen. Lobo fordert eine Bildungsoffensive zum Umgang mit den Informationen, die sich online finden, und die Einführung eines Unterrichtsfaches zum Umgang mit dem Internet. Lobo spricht sich gegen die Dämonisierung der Flexibilität aus, meint jedoch, dass es schließlich auf die Nutzung und Regulierung ankommt.
Links zur verpassten Sendung und ihren Inhalten.
Seiten
▼
Sonntag, 26. Oktober 2014
Freitag, 24. Oktober 2014
Das Facebook Experiment - eine unmoralische oder dringend notwendige Studie?
„Facebook ist und
bleibt kostenlos.“ So heißt es auf
der Website des mit etwa 1,3 Milliarden Benutzern größten Sozialen Netzwerks
der Welt. Dieser Fakt hat sich auch seit der Gründung im Jahr 2004 nicht
geändert, denn Facebook ist nicht auf das Geld seiner Nutzer angewiesen,
sondern auf deren Daten. Hiermit kann Facebook nämlich Werbung einblenden, die
sich mit den Interessen des jeweiligen Nutzers deckt, sprich: je mehr Facebook
über jemanden weiß, desto genauer können entsprechende Werbeflächen gefüllt
werden. Da man mit diesem Modell sehr gezielt werben kann, spricht dies
natürlich viele Firmen an, und so erzielt Facebook hohe Einnahmen durch diese
Einblendungen. Jedoch bleibt Facebook auch nicht von Kritik verschont, denn was
genau mit den Daten passiert, die man auf Facebook preisgibt, wird nicht
verraten. Somit herrscht eine ständige Datenschutz-Debatte rund um das
bekannte Soziale Netzwerk. Diese wurde durch eine Studie, die im Auftrag von
Facebook im Jahr 2012 durchgeführt und im Sommer 2014 veröffentlicht wurde,
weiter angeheizt. In diesem Experiment wurde der Newsfeed einer geringen Anzahl
von Nutzern manipuliert, um herauszufinden, ob sich positive beziehungsweise
negative Einträge auf die Gefühle der Nutzer auswirken. Im Zuge der Empörung
kam auch ans Licht, dass solche Manipulationen durchaus kein Einzelfall
sind.
Diese Studie
bildet das zentrale Thema meiner Arbeit. Ich werde den konkreten Ablauf
des Experiments darstellen sowie das Ziel, das Facebook damit verfolgte.
Des Weiteren wird die angesprochene Kritik behandelt. Hierbei spielen die ethischen,
aber auch die methodischen Punkte, welche kein gutes Licht auf Facebook warfen,
eine Rolle. Zusätzlich geht es hier auch um das „Filter Bubble“-Phänomen,
das daher kurz erläutert wird. Da sich das Experiment zentral um den
Newsfeed von Facebook dreht, werde ich mich zu Beginn genauer mit diesem
beschäftigen. Hierbei steht im Mittelpunkt, wie dieser entsteht und warum er
für Facebook so wichtig ist.
Facebook Newsfeed
Der Newsfeed ist das zentrale Element bei Facebook. Da der
Nutzer diesen sofort nach dem Einloggen sieht, ist er praktisch die Startseite
des Sozialen Netzwerks. In seinem Newsfeed kann der jeweilige Benutzer die
aktuellen Einträge seiner Freunde, Gruppen, Lieblingskünstler, -sportler,
-fernsehserie usw. einsehen. Für die letzteren ist es aber notwendig, dass
der Nutzer die entsprechende Seite auf Facebook „geliked“ hat. Wie das funktioniert, wird noch ausgeführt. Zusätzlich werden alle Beiträge, bei denen
der Nutzer etwas kommentiert oder geliked hat, im Newsfeed angezeigt, damit man
diesen weiterfolgen kann und so auf dem aktuellen Stand der Diskussion bleibt.
Registriert man
sich bei Facebook, ist der Newsfeed zu Beginn noch leer. Da das
soziale Netzwerk aber mehr als nur den Namen, die Email-Adresse, den
Geburtstag und das Geschlecht des neuen Nutzers wissen möchte, welche man für
die Registrierung zwingend angeben muss, fragt es direkt nach eventuellen Interessen,
wie zum Beispiel der Lieblingssportart, -filmen oder -prominenten. Somit kann
der Nutzer auf der einen Seite sein Profil erweitern und auf der anderen Seite
sammelt Facebook mehr und mehr Daten, um den Interessen entsprechende
Werbeeinblendungen anzeigen zu können. Hierzu können aber auch die Freunde
beitragen, denn Facebook blendet auch Seiten ein, die diesen gefallen.
Am Beispiel
eines Prominenten möchte ich nun darstellen, wie der Newsfeed im Detail funktioniert.
Hierfür muss man zuerst auf die jeweilige Facebook-Seite der Person gehen und
diese mit „Gefällt mir“ markieren (gelb hervorgehoben).
Abbildung 1: Facebook-Seite des Fußballers Mario Götze |
Im nächsten
Schritt muss man noch angeben, dass man von der jeweiligen Person Benachrichtigungen
im eigenen Newsfeed erhalten möchte (blau markiert). Ergänzend hierzu schlägt
Facebook gleich weitere ähnliche Seiten vor, die man ebenfalls sofort liken
kann. Da es sich im Beispiel um einen Fußballer handelt, werden andere
bekannte deutsche Fußballer vorgeschlagen (siehe unterer Rand).
Abbildung 2: Benachrichtigungen einstellen und weitere Vorschläge |
Durch die ersten
zwei Schritte hat man nun sichergestellt, dass man alle Einträge der jeweiligen
Seite auf seinem Newsfeed einsehen kann. Auf diese Weise kann man nun alle
Seiten liken, die man möchte, und so füllt sich der eigene Newsfeed immer mehr.
Gleiches gilt für die Freundesliste und die Gruppen, denn je mehr Freunde/Gruppen
man hat, desto mehr Beiträge erhält man in seinem Newsfeed.
Abbildung 3: Beispiel eines Beitrags im eigenen Newsfeed |
Facebook erlaubt
es aber auch, dass man selber Freunde auf eine bestimmte Seite oder einen
Beitrag aufmerksam machen kann. Hierzu benötigt man die „Teilen“-Funktion,
die man unter jedem Beitrag finden kann. Wählt der Nutzer diese aus, so kann er
entscheiden, mit wem dieser Beitrag geteilt wird und ggf. noch eine Nachricht
hinzufügen.
Abbildung 4: Teilen eines Beitrages |
Die
angesprochene individualisierte Werbung lässt sich sowohl direkt im Newsfeed als
auch daneben wiederfinden. Sollte dem Nutzer die Werbung gar nicht zusagen oder
doch nicht seinen Interessen entsprechen, so kann er dies Facebook direkt
mitteilen und im Anschluss verschwindet diese Werbeanzeige sofort.
Zusammenfassend
ist zu sagen, dass es Facebook seinen Nutzern sehr leicht macht, ihr Profil zu
erweitern und Inhalte mit anderen zu teilen. Meist
genügt ein Klick, um eine Freundschaftsanfrage zu versenden, einer Gruppe
beizutreten oder eine Seite zu liken. Somit kann man sich mit geringem Aufwand
die Grundlage für einen ausführlichen Newsfeed schaffen.
Neben diesem Punkt geht es Facebook natürlich um die Daten jedes einzelnen Nutzers. Je leichter es für diesen ist, diese online zu stellen, desto öfter wird er dies auch tun. Davon profitiert dann wiederum Facebook, da sich so die Werbeeinblendungen genau an diese veröffentlichten Informationen anpassen lassen. Folglich ist dieses Konzept sehr interessant für die Werbepartner, die dann wissen, dass ihre Werbung auch bei den Nutzern eingeblendet wird, die sich dafür interessieren. Dementsprechend könnte man zu dem Ergebnis kommen, dass hier jeder einen Vorteil herauszieht. Der Nutzer kann schnell Kontakte knüpfen und Inhalte teilen, Facebook sammelt auf diese Weise viele Daten, und der Werbepartner kann dadurch gezielt für sein Produkt werben. Wie im späteren Verlauf aber noch erläutert, werden es nicht immer alle Beiträge, die der Nutzer sehen möchte, in den Newsfeed schaffen. Warum das so ist und was das mit der Studie von 2012 zu tun hat, wird im Folgenden ausgeführt.
Neben diesem Punkt geht es Facebook natürlich um die Daten jedes einzelnen Nutzers. Je leichter es für diesen ist, diese online zu stellen, desto öfter wird er dies auch tun. Davon profitiert dann wiederum Facebook, da sich so die Werbeeinblendungen genau an diese veröffentlichten Informationen anpassen lassen. Folglich ist dieses Konzept sehr interessant für die Werbepartner, die dann wissen, dass ihre Werbung auch bei den Nutzern eingeblendet wird, die sich dafür interessieren. Dementsprechend könnte man zu dem Ergebnis kommen, dass hier jeder einen Vorteil herauszieht. Der Nutzer kann schnell Kontakte knüpfen und Inhalte teilen, Facebook sammelt auf diese Weise viele Daten, und der Werbepartner kann dadurch gezielt für sein Produkt werben. Wie im späteren Verlauf aber noch erläutert, werden es nicht immer alle Beiträge, die der Nutzer sehen möchte, in den Newsfeed schaffen. Warum das so ist und was das mit der Studie von 2012 zu tun hat, wird im Folgenden ausgeführt.
Das Experiment
In diesem Teil
meiner Arbeit soll es nun gezielt um das bereits erwähnte Experiment gehen, das 2012 im Auftrag von Facebook durchgeführt wurde. So wird es im ersten
Abschnitt u.a. um den konkreten Ablauf der Studie gehen: in welchem
Zeitraum wurde sie durchgeführt, wie viele haben daran teilgenommen und welche
Instrumente wurden dabei verwendet. Ergänzend hierzu werden die Ziele, die
Facebook mit der Studie verfolgte, und die entsprechenden Ergebnisse beleuchtet. Im zweiten Abschnitt dreht sich dann alles um die Kritik an diesem
Experiment. Hierbei gibt es zwei Hauptkritikpunkte, die zum einen die ethischen
beziehungsweise moralischen und zum anderen die methodischen Aspekte betreffen.
Im Detail wird es hier um die Frage des nötigen Einverständnisses der
Testpersonen und um die Auswahl der richtigen Tools gehen.
Ablauf, Ziele und Ergebnisse
Die Studie „Experimental evidence of massive-scale emotional contagion through social networks“ wurde im Januar 2012 durchgeführt. Die zentrale Forschungsfrage, die beantwortet werden sollte, lautete: „Was passiert, wenn man das Ausmaß von positiven bzw. negativen Äußerungen in den Timelines und Newsfeeds der User erhöht?“.
Die Studie „Experimental evidence of massive-scale emotional contagion through social networks“ wurde im Januar 2012 durchgeführt. Die zentrale Forschungsfrage, die beantwortet werden sollte, lautete: „Was passiert, wenn man das Ausmaß von positiven bzw. negativen Äußerungen in den Timelines und Newsfeeds der User erhöht?“.
Um diese Frage zu beantworten, sah der Ablauf wie folgt aus. Während einer Woche wurden die Newsfeeds beziehungsweise Timelines von 689.003 Facebook-Nutzern analysiert und manipuliert. Etwa die Hälfte der Testpersonen hatte nur Zugriff auf einen vorgefilterten Newsfeed. Diese Gruppe wurde dann nochmals aufgeteilt in solche, die überwiegend positive Beiträge bekamen, und Personen, bei denen vermehrt negative Beiträge angezeigt wurden. Für diese Filterung ist der Algorithmus von Facebook zuständig, der „bestimmt, was in welcher Gewichtung in den Newsfeed und die Timeline eingespeist wird und was nicht“. In diesem Fall wurde der Algorithmus also entweder auf hauptsächlich positive oder negative Beiträge eingestellt. Im Nachlauf wurden dann diese Ergebnisse miteinander und mit den Nutzern, deren Newsfeeds ungefiltert waren, verglichen (vgl. Emotions-Experiment: Facebook manipulierte…, Facebook rechtfertigt Psycho-Experiment & Das Experiment).
Das Tool, das für die Auswertung der Ergebnisse genutzt wurde, heißt „Linguistic Inquiry Word Count“ (kurz: LIWC), verwendet wurde die Version 2007. Da dieses Tool auch Bestandteil eines Hauptkritikpunktes ist, möchte ich seine Funktionsweise anhand eines Beispiels verdeutlichen. Im Prinzip macht das Tool nichts anderes als nach vorher festgelegten positiven oder negativen Schlagwörtern zu suchen. Wird eines davon gefunden, so wird der Beitrag als positiv oder negativ gewertet. Es kann aber auch vorkommen, dass das Tool einen Beitrag sowohl als positiv als auch als negativ wertet und gerade dies wird kritisiert.
Beispiel: „Mein Tag heute war nicht schlecht.“ - Diesen Beitrag würde man eher als positiv bezeichnen. Das LIWC-Tool
aber wertet ihn als negativ, da es die beiden Schlagwörter „nicht“ und
„schlecht“ einzeln betrachtet.
Beispiel: „Ich bin nicht glücklich!“ - Hier passiert im
Prinzip genau das Gleiche. Ein eigentlich negativer Beitrag wird von dem Tool
sowohl positiv („glücklich“) als auch negativ („nicht“) gewertet. Ebenso
beachtet das Tool keine Ironie, die durchaus in beiden Beispielsätzen hätte
beinhaltet sein können (vgl. Everything we know about Facebook’s…,
Facebook-Studie: Facebook-Nutzer als Versuchskaninchen & Emotional
Contagion on Facebook?).
Das grobe Ziel,
das Facebook mit dieser Art von Studien verfolgt, ist es, das soziale
Erlebnis für den Nutzer immer weiter zu verbessern. In diesem Fall ging es
dabei um emotionale Wirkung von bestimmten Beiträgen. So sagte der Facebook-Mitarbeiter Adam Kramer, der gleichzeitig auch an der Studie mitwirkte:
„The reason we did this research is because we care about the emotional impact of Facebook and the people that use our product. [...] The goal of all of our research at Facebook is to learn how to provide a better service” (OK so. A lot of people have asked me about my... - Adam D. I. Kramer).Ebenso ginge es in diesem Zuge aber auch darum, dass der Inhalt, den der jeweilige Nutzer auf seiner Timeline oder in seinem Newsfeed sieht, so wichtig und bedeutend für ihn ist, dass er lange auf Facebook verweilt, um ihn zu lesen. Dies bestätigte auch ein Facebook Sprecher:
„We do research to improve our services and to make the content people see on Facebook as relevant and engaging as possible” (Everything we know about Facebook’s...).Neben der Kritik an dem Tool, das für die Studie verwendet wurde, gibt es den Kritikpunkt, dass Facebook keine der Testpersonen im Vorfeld informiert hat. Facebook beruft sich hierbei auf seine Datenverwendungsrichtlinien, die jeder Nutzer mit der Registrierung anerkennt. Hierbei kann Facebook die jeweiligen Daten „für interne Prozesse, u.a. Fehlerbehebung, Datenanalyse, Tests, Forschung und Leistungsverbesserung“ (Facebook Datenverwendungsrichtlinien) verwenden. Zusätzlich ist anzumerken, dass nur staatliche Stellen und Universitäten unter die Richtlinien des amerikanischen Institutional Review Boards fallen. Somit ist Facebook zumindest rechtlich nicht verpflichtet, seine Testpersonen im vorhinein zu informieren (vgl. Facebook-Studie: Facebook-Nutzer als Versuchskaninchen & Das Experiment).
Zum Abschluss
dieses Abschnittes möchte ich mich den Ergebnissen der Studie widmen,
die im Sommer 2014 im „Proceedings of the National Academy of Sciences“
veröffentlicht wurden. Die wohl wichtigste Aussage ist die, dass mit der Studie
gezeigt werden konnte, dass sich sowohl positive als auch negative Beiträge auf
den Nutzer auswirken, denn je mehr positive Beiträge er liest, desto eher sind
seine eigenen Beiträge auch positiv, und genau so verhält es sich auch bei den
negativen Beiträgen. Eine ebenso wichtige Erkenntnis ist, dass Nutzer eher
Beiträge selber schreiben, wenn sie selbst auch viele auf ihrem Newsfeed haben,
d.h. je größer der Newsfeed, desto höher die Wahrscheinlichkeit, dass der Nutzer
auch etwas postet. Diese ermittelten Tendenzen sind zwar alle sehr gering, jedoch
haben sie auf ein Soziales Netzwerk mit so vielen Mitgliedern doch
entsprechende Auswirkungen. Dies veranschaulichte einer der Autoren der Studie:
„In early 2013, this would have corresponded to hundreds of thousands of emotion expressions in status updates per day“ (Everything we know about Facebook’s...).Somit kann Facebook diese Studie - zumindest von den reinen Ergebnissen her - als Erfolg bezeichnen, denn mit diesen Erkenntnissen kann das Ziel der Optimierung des sozialen Erlebnisses vorangetrieben werden (vgl. Everything we know about Facebook’s…, Facebook-Studie: Facebook-Nutzer als Versuchskaninchen & Emotions-Experiment: Facebook manipulierte…).
Kritik
In diesem Abschnitt soll sich nun alles um die Kritik an der Studie drehen, die zahlreich geäußert wurde. Fasst man diese zusammen, so gibt es zwei Hauptkritikpunkte: die ethischen und die methodischen Aspekte der Studie.
In diesem Abschnitt soll sich nun alles um die Kritik an der Studie drehen, die zahlreich geäußert wurde. Fasst man diese zusammen, so gibt es zwei Hauptkritikpunkte: die ethischen und die methodischen Aspekte der Studie.
Bei den
ethischen Punkten spielen vor allem zwei Fragen eine Rolle: „Hätte Facebook die
Testpersonen vorher informieren müssen?“ und „Fällt diese Studie unter die
Richtlinien eines Institutional Review Boards?“. Diese Fragen gehen praktisch
Hand in Hand, denn wenn die Studie unter die Richtlinien fällt, dann hätte
Facebook die Probanden informieren müssen, und sonst eben, zumindest rechtlich,
nicht.
Zuvor möchte ich
aber die Frage klären, ob Facebook generell solche Forschungen betreiben darf.
Und diese Frage ist mit einem klaren „Ja“ zu beantworten. Jedes Unternehmen möchte sein
Produkt so weit es geht für den Kunden optimieren, damit dieser es weiter
konsumiert. Für diesen Optimierungsprozess wird häufig das so genannte „A/B-Testing“-Verfahren verwendet. Hierbei experimentiert das Unternehmen mit dem
Produkt, indem es entsprechende Alternativen anbietet, um zu sehen, welches
beim Kunden besser ankommt. Im Falle von Websites wird dies dann anhand der
Klicks beziehungsweise Seitenaufrufe gemessen. Im Prinzip hat Facebook also
nichts anderes getan als andere Firmen, denn mittels dieser Studie wollte es
das soziale Erlebnis der Nutzer verbessern mit dem Hauptziel, dass diese dann
länger auf Facebook verweilen (vgl. Das Experiment).
Ein Punkt, der
aber auf berechtigte Kritik stößt, ist die fehlende Vorabinformation der
Testpersonen. Wie bereits erwähnt, beruft sich Facebook hierbei auf seine
Datenverwendungsrichtlinien, die jeder Nutzer mit der Registrierung akzeptiert
und die eine Forschung mit den gesammelten Daten erlauben. Einige Kritiker,
u.a. auch die Gruppe Epic (Electronic Privacy Information Center), haben jedoch
festgestellt, dass der Forschungsaspekt erst in die Richtlinien aufgenommen wurde, nachdem die Studie durchgeführt worden war. Somit haben die Testpersonen einer
Verwendung ihrer Daten zu Forschungszwecken nicht zugestimmt, und es würde sich,
so Epic, um einen Verstoß gegen die Nutzerrechte handeln.
Diese Anschuldigung könnte Facebook entkräften, indem es sich erneut auf seine Datenverwendungsrichtlinien bezieht. Denn hier ist auch von einer „Nutzung der Daten zur Leistungsverbesserung“ die Rede. Somit könnte Facebook argumentieren, dass die Studie auch dieses Ziel hatte. Außerdem betont Facebook, dass eine Vorabinformation der Testpersonen zu einer Verfälschung der Ergebnisse hätte führen können. Wie man erkennen kann, ist es schwer, gegen die Richtlinien zu argumentieren. Diese Situation veranschaulicht das folgende Schaubild auf eine sarkastische Art und Weise (vgl. Facebook: Heimliche Studie…, Kontroverse Studie: Facebook spielt mit unseren Gefühlen & Das Experiment).
Diese Anschuldigung könnte Facebook entkräften, indem es sich erneut auf seine Datenverwendungsrichtlinien bezieht. Denn hier ist auch von einer „Nutzung der Daten zur Leistungsverbesserung“ die Rede. Somit könnte Facebook argumentieren, dass die Studie auch dieses Ziel hatte. Außerdem betont Facebook, dass eine Vorabinformation der Testpersonen zu einer Verfälschung der Ergebnisse hätte führen können. Wie man erkennen kann, ist es schwer, gegen die Richtlinien zu argumentieren. Diese Situation veranschaulicht das folgende Schaubild auf eine sarkastische Art und Weise (vgl. Facebook: Heimliche Studie…, Kontroverse Studie: Facebook spielt mit unseren Gefühlen & Das Experiment).
Abbildung 6: Die Macht der AGBs |
Die viel
wichtigere Frage ist daher also, ob die Studie unter die Richtlinien des
Institutional Review Boards fällt, denn wenn dies der Fall ist, sind die AGB
von Facebook irrelevant, was demnach auch bedeutet, dass die Testpersonen
hätten informiert werden müssen. Da Facebook aber ein profitorientiertes Unternehmen
ist, fällt es prinzipiell nicht unter diese Richtlinien, da diese nur für staatliche Stellen oder Universitäten gelten.
Für einige Kritiker ist dies aber der springende Punkt, denn zwei der beteiligten Forscher sind an der Universität in San Francisco beziehungsweise Cornell angestellt. Durch ihre Mitarbeit an dieser Studie müsste sie also deshalb wieder unter die Richtlinien des Boards fallen, das in etwa mit der deutschen Ethikkommission gleichzusetzen ist. Facebook reagierte auf diese Argumentation mit der Mitteilung, dass diese Forscher nicht direkt an dem Sammeln der Daten beteiligt waren. Ihre Aufgabe bestand lediglich darin, die Studie an sich zu entwickeln und die entsprechenden Unterlagen zur Veröffentlichung vorzubereiten. Folgt man dieser Aussage, so ist keine Zustimmung des Boards notwendig. Wie man an den jeweiligen Argumentationen der beiden Seiten erkennen kann, befindet sich diese Studie, bezüglich der Richtlinien, in einer Grauzone. Dennoch erhielt die Facebook-Studie eine Bewilligung. Was der genaue Hintergrund dieser Entscheidung ist, darauf werde ich weiter unten noch eingehen (vgl. Everything you need to know about…).
Für einige Kritiker ist dies aber der springende Punkt, denn zwei der beteiligten Forscher sind an der Universität in San Francisco beziehungsweise Cornell angestellt. Durch ihre Mitarbeit an dieser Studie müsste sie also deshalb wieder unter die Richtlinien des Boards fallen, das in etwa mit der deutschen Ethikkommission gleichzusetzen ist. Facebook reagierte auf diese Argumentation mit der Mitteilung, dass diese Forscher nicht direkt an dem Sammeln der Daten beteiligt waren. Ihre Aufgabe bestand lediglich darin, die Studie an sich zu entwickeln und die entsprechenden Unterlagen zur Veröffentlichung vorzubereiten. Folgt man dieser Aussage, so ist keine Zustimmung des Boards notwendig. Wie man an den jeweiligen Argumentationen der beiden Seiten erkennen kann, befindet sich diese Studie, bezüglich der Richtlinien, in einer Grauzone. Dennoch erhielt die Facebook-Studie eine Bewilligung. Was der genaue Hintergrund dieser Entscheidung ist, darauf werde ich weiter unten noch eingehen (vgl. Everything you need to know about…).
Der zweite
Hauptkritikpunkt bezieht sich auf die methodischen Aspekte der Studie. Hier
wird im speziellen das zur Auswertung verwendete Tool LIWC 2007 kritisiert.
Vor allem der Psychologe Dr. John M. Grohol gehört zu denjenigen, welche die
Meinung vertreten, dass dieses Tool für solch eine Studie ungeeignet ist. Auf
seiner Webseite Psychcentral.com veröffentlicht er einen Blog-Eintrag hierzu:
Zusätzlich fügt Grohol an, dass es trotz einer eigentlich korrekten Interpretation des Tools zu Missverständnissen führen kann, sollte der jeweilige Nutzer Ironie oder Sarkasmus verwendet haben. Das Tool ist nämlich nicht im Stande, solche Stilmittel zu erkennen und in seine Zählung einzubeziehen. Grohol nimmt hier vor allem die Forscher in Verantwortung, da sie sich für die Verwendung dieses Tools entschieden haben, obwohl sie die etwaigen Probleme hätten voraussehen müssen (vgl. Emotional Contagion on Facebook?).
„For a tweet or status update, however, this is a horrible analysis tool to use. That’s because it wasn’t designed to differentiate - and in fact, can’t differentiate - a negation word in a sentence” (Emotional Contagion on Facebook?).Er betont hier, dass dieses Tool, das ursprünglich 1993 entwickelt wurde, nicht zur Analyse von kurzen Texten beziehungsweise Nachrichten wie Tweets oder kurzen Posts auf Facebook geeignet ist. Es dient eher zur Bearbeitung von langen Texten, die mindestens 400 Wörter enthalten. Dies hängt mit der vorher dargestellten Funktionsweise des Tools zusammen, bei dem einzelne Schlagwörter gezählt werden. Bei einem langen Text funktioniert das, da sich so eventuelle Fehlinterpretationen wieder ausgleichen können, bei einem Status-Update, das oft nicht länger als ein Satz ist, ist dies jedoch nicht möglich, und es kann, wie in den dargestellten Beispielen, zu Fehlern kommen.
Zusätzlich fügt Grohol an, dass es trotz einer eigentlich korrekten Interpretation des Tools zu Missverständnissen führen kann, sollte der jeweilige Nutzer Ironie oder Sarkasmus verwendet haben. Das Tool ist nämlich nicht im Stande, solche Stilmittel zu erkennen und in seine Zählung einzubeziehen. Grohol nimmt hier vor allem die Forscher in Verantwortung, da sie sich für die Verwendung dieses Tools entschieden haben, obwohl sie die etwaigen Probleme hätten voraussehen müssen (vgl. Emotional Contagion on Facebook?).
„Perhaps it’s because the researchers have no idea how bad the problem actually is” (Emotional Contagion on Facebook?).Als drittes möchte ich noch einen Standpunkt beleuchten, der in eine ganz andere Richtung geht. So bezieht Duncan J. Watts, ein Reporter der Zeitung „The Guardian“, eine durchaus positive Haltung gegenüber der durchgeführten Facebook-Studie und fordert sogar weitere Forschung in diese Richtung. Hierbei betont er, dass es bei allen großen wissenschaftlichen Sprüngen Ängste und Sorgen gab, die aber mit der Zeit überwunden werden konnten. Genau wie es beispielsweise die Chemie oder Physik erlebt hat, so betrifft es jetzt die Wissenschaft rund um die Sozialen Netzwerke. Ebenso führt er an, dass es immer Stimmen geben wird, die jedweder Veränderung kritisch gegenüber stehen.
Den Kritikern
der Studie entgegnet er, dass man im Alltag ständig manipuliert wird, sei es in
der Werbung oder in der Politik. Hier wird es akzeptiert, doch sobald Facebook
in diesem Bereich forscht, erregt es großes Aufsehen.
Ähnlich sah das wohl auch das Institutional Review Board, das die Studie bewilligte. Die Begründung war, dass Facebook ständig solche Manipulationen durchführe und sie es auch ohne eine entsprechende Zusage machen würden, nur eben ohne Veröffentlichung der Ergebnisse (vgl. Stop complaining about the Facebook study).
„The only difference between the Facebook study and everyday life is that the researchers were trying to understand the effect of that manipulation“ (Stop complaining about the Facebook study).So hebt er hervor, dass weitere Forschungen von Facebook in diesem Bereich elementar sind, ebenso wie deren Veröffentlichung, denn wie viele andere ist auch er der Überzeugung, dass diese Studie nur einen Bruchteil der gesamten Forschung von Facebook darstellt. Manipulationen in Form von Veränderungen am Algorithmus werden häufig durchgeführt, ohne dass die Nutzer oder die Öffentlichkeit etwas davon mitbekommt. Daher vertritt Watts den Standpunkt, dass es Facebook erlaubt sein sollte, mehr dieser Erkenntnisse veröffentlichen zu können, wenn nicht zu müssen, um die Forschung in diesem Bereich weiter vorantreiben zu können.
Ähnlich sah das wohl auch das Institutional Review Board, das die Studie bewilligte. Die Begründung war, dass Facebook ständig solche Manipulationen durchführe und sie es auch ohne eine entsprechende Zusage machen würden, nur eben ohne Veröffentlichung der Ergebnisse (vgl. Stop complaining about the Facebook study).
Zusammenfassend
kann man also sagen, dass diese Studie zumindest eins erreicht hat: Sie hat
viel Aufmerksamkeit bekommen. Sei es durch die negativen Stimmen, die ein solches
Experiment aufgrund von ethischen oder methodischen Punkten kritisiert haben,
oder durch die Befürworter, die mehr Forschung in diesem Bereich fordern.
Durch die ausführliche Berichterstattung in den Medien konnte so, vielleicht
zum ersten Mal, die breite Masse erfahren, wie Facebook versucht, das Netzwerk
beziehungsweise den Algorithmus zu optimieren, und dass dies nicht nur für diese
Studie passiert, sondern viel öfter als man denkt. Allein diese Erkenntnis ist
schon viel wert. Ob man nun eher für oder gegen Studien dieser Art ist, muss
jeder für sich selbst abwägen und entscheiden.
Eine generelle
Frage ist jedoch, ob Firmen wie Facebook, Google oder Twitter, die ein
Geschäftsmodell basierend auf der Sammlung und Nutzung von so vielen
Kundendaten wie möglich entwickelt haben, mittlerweile nicht zu viel Macht in
unserer digitalisierten Welt besitzen. Bereits durch die enorme Anzahl an
Kunden besitzen diese Dienste einen so hohen Anreiz für
Werbepartner, dass die vielen Daten, die Facebook und Co. noch zusätzlich
dabei sammeln, wie die Kirsche auf der Torte wirken. Firmen, die über
Facebook werben, brauchen nichts über die Kunden zu wissen, da dies alles von
Facebook erledigt wird.
Die Frage ist nun, was man gegen eine so große Macht tun kann. Dabei ist die Antwort im Prinzip ganz simpel, denn man selbst als Kunde hat hier tatsächlich Möglichkeiten, sich zu wehren, denn die Kunden und deren Daten sind das wichtigste für Facebook. Gehen diese in einer großen Anzahl zurück, so kommt es vielleicht zu einem Umdenken. Denn „nur wenn die großen Anbieter sich ernsthaft durch den Vetrauensverlust der Nutzerinnen und Nutzer bedroht sehen, werden sie bereit sein zu handeln“ (Kontroverse Studie: Facebook spielt mit unseren Gefühlen). Somit liegt hier mehr Macht beim Kunden, als man annehmen könnte. Die Frage ist jedoch, was mit den bereits gesammelten Daten passiert, nachdem man sich von Facebook abgemeldet hat. Dadurch, dass der jeweilige Account und die damit verbundenen Daten nicht ganz gelöscht, sondern nur deaktiviert wird, darf bezweifelt werden, dass Facebook diese Daten dann nicht mehr nutzt (vgl. Kontroverse Studie: Facebook spielt mit unseren Gefühlen).
Die Frage ist nun, was man gegen eine so große Macht tun kann. Dabei ist die Antwort im Prinzip ganz simpel, denn man selbst als Kunde hat hier tatsächlich Möglichkeiten, sich zu wehren, denn die Kunden und deren Daten sind das wichtigste für Facebook. Gehen diese in einer großen Anzahl zurück, so kommt es vielleicht zu einem Umdenken. Denn „nur wenn die großen Anbieter sich ernsthaft durch den Vetrauensverlust der Nutzerinnen und Nutzer bedroht sehen, werden sie bereit sein zu handeln“ (Kontroverse Studie: Facebook spielt mit unseren Gefühlen). Somit liegt hier mehr Macht beim Kunden, als man annehmen könnte. Die Frage ist jedoch, was mit den bereits gesammelten Daten passiert, nachdem man sich von Facebook abgemeldet hat. Dadurch, dass der jeweilige Account und die damit verbundenen Daten nicht ganz gelöscht, sondern nur deaktiviert wird, darf bezweifelt werden, dass Facebook diese Daten dann nicht mehr nutzt (vgl. Kontroverse Studie: Facebook spielt mit unseren Gefühlen).
Was diese Studie
betrifft, so gibt Facebook zu, dass die Kommunikation nach
außen nicht optimal gelaufen ist. So sagt Adam Kramer, der an der Studie
mitgearbeitet hat, in einem Post auf Facebook:
„I can understand why some people have concerns about it, and my coauthors and I are very sorry for the way the paper described the research and any anxiety it caused” (OK so. A lot of people have asked me about my... - Adam D. I. Kramer).Eventuell wäre es doch ratsamer gewesen, die Testpersonen, zumindest nach der Durchführung des Experimentes, darüber zu informieren. Auch wenn dies nicht zwingend nötig gewesen wäre, so hätte es doch mehr moralische Verantwortung gezeigt und hätte vor allem zu weniger Kritik geführt.
Exkurs: Filter Bubble
In diesem abschließenden Abschnitt soll es kurz um das „Filter Bubble“-Phänomen gehen, das von
Eli Pariser in seinem Buch „The Filter Bubble: What the internet is hiding from
you“ ausgeführt wird und das deswegen hier behandelt wird, da es durchaus
auch den Newsfeed von Facebook betrifft.
Wie bereits
geschildert, versucht Facebook ständig etwas an seinem Algorithmus zu ändern, um
das gesamte System zu verbessern. Dieser stellt nämlich ein, was die Nutzer
auf ihrem Newsfeed sehen und was nicht, denn wenn man viele Seiten
geliked oder viele Freunde hinzugefügt hat, dann wird man später auf dem
Newsfeed nie alle Beiträge sehen können. Facebook begründet dies mit der viel
zu hohen Anzahl an Beiträgen, die der Nutzer dann zu lesen hätte. Dies würde
zwar die Zeit verlängern, die der Nutzer auf Facebook verbringen würde, aber es
könnte auch zum Gegenteiligen kommen, da wohl nicht jeder Nutzer Lust hat, mit einer Flut an Beiträgen konfrontiert zu sein. Um dies zu verhindern, würde er infolgedessen
weniger liken oder weniger Freunde haben, und das will Facebook auf keinen Fall,
da dann weniger Informationen über einen Nutzer gesammelt werden könnten. Daher werden
im Newsfeed nur die Freunde angezeigt, mit denen man öfters Kontakt hat, die
Gruppen, in denen man regelmäßig Beiträge nachliest oder schreibt, und die
Seiten, die man regelmäßig besucht, um Inhalte abzurufen. Kurz gesagt: Facebook
analysiert das Klickverhalten eines Nutzers und zeigt ihm die Seiten, Freunde
oder Gruppenbeiträge an, die ihn am meisten zu interessieren versprechen (vgl. Kommentar:
Facebook ist ein permanentes Psycho-Experiment).
Hier kommt jetzt
das Filter Bubble-Phänomen ins Spiel, denn dieses bezeichnet genau den gerade
geschilderten Vorgang, bei dem ein Algorithmus versucht, nur die für einen
Nutzer wichtigen Informationen herauszufiltern. Als Grundlage hierfür dienen
meistens die über den Nutzer gesammelten Daten und sein bisheriges
Klickverhalten. An sich ist das auf den ersten Blick kein Problem, da
beispielsweise Facebook so versucht, dem Nutzer nur das zu zeigen, was er
wirklich sehen will. Man nimmt dem Nutzer praktisch sogar Arbeit ab, da er
nicht selbst filtern muss, was wichtig ist und was nicht.
Die Gefahr ist aber, dass der User mit der Vorfilterung nur Beiträge sehen wird, die seiner Meinung entsprechen und nie diejenigen, die einer konträren Position folgen. Diese werden nämlich vom Algorithmus im Vorfeld ausgeschlossen und damit nicht angezeigt. So befindet sich der jeweilige Nutzer in einer Art „Blase“, in der nur Beiträge angezeigt werden, die erstens ihn interessieren und zweitens auch seinem Standpunkt entsprechen. Dies möchte ich kurz an einem Beispiel verdeutlichen.
Ein Nutzer hat auf Facebook sowohl eine Seite, die gegen Stuttgart 21 ist, als auch eine, die sich für den Bau ausspricht, geliked. Beide Seiten posten regelmäßig Beiträge, in denen sie ihre Meinung kund tun. Der Nutzer besucht regelmäßig die Seite, die dem Bau des Bahnhofs zustimmt. Hier kommentiert und liked er die Beiträge, die ihm gefallen. Im Gegensatz dazu besucht er die andere Seite seltener und ist dort auch nicht so engagiert. Mit der Zeit werden die Beiträge dieser Seite also aus seinem Newsfeed verschwinden, da der Algorithmus diese aufgrund des Klickverhaltens als uninteressant einstuft. Die Seite, bei der der Nutzer aktiv war, wird weiterhin angezeigt, da sie für den Nutzer wichtig und interessant ist. Somit bekommt der Nutzer in Zukunft nur noch Beiträge zu Stuttgart 21, die sich für den Bau aussprechen und natürlich dementsprechend geschrieben sind. Die Gegendarstellung dazu bekommt er nicht mehr zu sehen und so kann man hier nicht mehr von einer objektiven Meinungsbildung sprechen. Der Nutzer befindet sich nun bereits in seiner eigenen „Filter Bubble“.
Wegen der hohen Anzahl an Freunden und Seiten, die man geliked hat, wird dieses Phänomen früher oder später bei fast jedem Nutzer eintreten. Daher ist abschließend festzuhalten, dass man Facebook nicht als einzige Anlaufstation nehmen sollte, um sich zu informieren, sondern hier immer mehrere Quellen in der Hinterhand haben sollte (vgl. Filterblase - Wikipedia). Für ausführlichere Informationen zum Thema „Filter Bubble“ empfiehlt sich der „TED Talk“ von Eli Pariser:
Die Gefahr ist aber, dass der User mit der Vorfilterung nur Beiträge sehen wird, die seiner Meinung entsprechen und nie diejenigen, die einer konträren Position folgen. Diese werden nämlich vom Algorithmus im Vorfeld ausgeschlossen und damit nicht angezeigt. So befindet sich der jeweilige Nutzer in einer Art „Blase“, in der nur Beiträge angezeigt werden, die erstens ihn interessieren und zweitens auch seinem Standpunkt entsprechen. Dies möchte ich kurz an einem Beispiel verdeutlichen.
Ein Nutzer hat auf Facebook sowohl eine Seite, die gegen Stuttgart 21 ist, als auch eine, die sich für den Bau ausspricht, geliked. Beide Seiten posten regelmäßig Beiträge, in denen sie ihre Meinung kund tun. Der Nutzer besucht regelmäßig die Seite, die dem Bau des Bahnhofs zustimmt. Hier kommentiert und liked er die Beiträge, die ihm gefallen. Im Gegensatz dazu besucht er die andere Seite seltener und ist dort auch nicht so engagiert. Mit der Zeit werden die Beiträge dieser Seite also aus seinem Newsfeed verschwinden, da der Algorithmus diese aufgrund des Klickverhaltens als uninteressant einstuft. Die Seite, bei der der Nutzer aktiv war, wird weiterhin angezeigt, da sie für den Nutzer wichtig und interessant ist. Somit bekommt der Nutzer in Zukunft nur noch Beiträge zu Stuttgart 21, die sich für den Bau aussprechen und natürlich dementsprechend geschrieben sind. Die Gegendarstellung dazu bekommt er nicht mehr zu sehen und so kann man hier nicht mehr von einer objektiven Meinungsbildung sprechen. Der Nutzer befindet sich nun bereits in seiner eigenen „Filter Bubble“.
Wegen der hohen Anzahl an Freunden und Seiten, die man geliked hat, wird dieses Phänomen früher oder später bei fast jedem Nutzer eintreten. Daher ist abschließend festzuhalten, dass man Facebook nicht als einzige Anlaufstation nehmen sollte, um sich zu informieren, sondern hier immer mehrere Quellen in der Hinterhand haben sollte (vgl. Filterblase - Wikipedia). Für ausführlichere Informationen zum Thema „Filter Bubble“ empfiehlt sich der „TED Talk“ von Eli Pariser:
Fazit
Abschließend
lässt sich das Fazit ziehen, dass die Facebook-Studie im Prinzip sowohl für das Soziale Netzwerk als auch für die breite Öffentlichkeit von Vorteil war. Facebook
gewann damit neue Erkenntnisse, mit denen der Dienst in Zukunft weiter
optimiert werden kann, und die breite Masse erhielt durch die detaillierte
Berichterstattung einen guten Einblick in die alltägliche Arbeit des Sozialen
Netzwerks samt seinem Algorithmus.
Während die
Befürworter einer solchen Studie nun weitere Forschung in diesem Bereich verlangen,
werden die Kritiker diese wohl weiter ablehnen. Das wichtigste in
meinen Augen ist jedoch, dass solche Studien immer veröffentlicht werden
sollten. So profitiert nämlich der gesamte Wissenschaftsbereich und nicht nur
das jeweilige Unternehmen. Ebenso sollte es meiner Meinung nach klare
Richtlinien für solche Studien geben, denn wie an der dargestellten Studie zu
erkennen war, befand man sich hier in einer Grauzone. Hier müssen klare
Regeln für geordnete Verhältnisse sorgen, damit beispielsweise Testpersonen
zumindest nach der Durchführung der Studie auf jeden Fall informiert werden.
Blickt man nun
nochmals auf die Aussage vom Anfang: „Facebook ist und bleibt kostenlos“, so
kann man festhalten, dass man in solchen Sozialen Netzwerken zwar
kein Geld bezahlen muss, dafür aber nicht nur Kunde, sondern auch Produkt ist,
an dem auch Experimente und Studien durchgeführt werden. Ob einem dies gefällt oder nicht, muss im Endeffekt jeder für sich
selbst entscheiden, denn die Entscheidung, ob man solche Dienste nutzt, die ist und bleibt jedem selbst überlassen.
Quellenverzeichnis
Das Experiment | netzpolitik.org:
https://netzpolitik.org/2014/das-experiment-2/
[Eingesehen am 20.09.2014]
Datenverwendungsrichtlinien:
https://www.facebook.com/about/privacy/your-info
[Eingesehen am 20.09.2014]
Eli Pariser: Beware online "filter bubbles" | Talk
Video | TED.com:
http://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles#t-146825
[Eingesehen am 20.09.2014]
Emotional Contagion on
Facebook? More Like Bad Research Methods | World of Psychology:
http://psychcentral.com/blog/archives/2014/06/23/emotional-contagion-on-facebook-more-like-bad-research-methods/ [Eingesehen am 20.09.2014]
Emotions-Experiment: Facebook manipulierte für Studie
Nachrichtenstrom | ZEIT ONLINE:
http://www.zeit.de/digital/internet/2014-06/facebook-nutzer-manipulation-studie [Eingesehen am 20.09.2014]
http://www.zeit.de/digital/internet/2014-06/facebook-nutzer-manipulation-studie [Eingesehen am 20.09.2014]
Everything We Know About
Facebook's Secret Mood Manipulation Experiment - The Atlantic:
http://www.theatlantic.com/technology/archive/2014/06/everything-we-know-about-facebooks-secret-mood-manipulation-experiment/373648/
[Eingesehen am 20.09.2014]
Everything You Need to Know
About Facebook's Controversial Emotion Experiment | WIRED:
http://www.wired.com/2014/06/everything-you-need-to-know-about-facebooks-manipulative-experiment [Eingesehen am 20.09.2014]
http://www.wired.com/2014/06/everything-you-need-to-know-about-facebooks-manipulative-experiment [Eingesehen am 20.09.2014]
Facebook: Heimliche Studie wird Fall für Aufsichtsbehörden |
ZEIT ONLINE:
http://www.zeit.de/digital/datenschutz/2014-07/facebook-nutzerdaten-datenschutz-experiment-klage
[Eingesehen am 20.09.2014]
Facebook rechtfertigt Psycho-Experiment auf Neuigkeitenseiten
- SPIEGEL ONLINE:
http://www.spiegel.de/netzwelt/web/facebook-rechtfertigt-psycho-experiment-auf-neuigkeitenseiten-a-978253.html [Eingesehen am 20.09.2014]
http://www.spiegel.de/netzwelt/web/facebook-rechtfertigt-psycho-experiment-auf-neuigkeitenseiten-a-978253.html [Eingesehen am 20.09.2014]
Facebook-Studie: Facebook-Nutzer als Versuchskaninchen | ZEIT
ONLINE:
http://www.zeit.de/digital/internet/2014-06/facebook-studie-nutzerdaten-datenschutz [Eingesehen am 20.09.2014]
http://www.zeit.de/digital/internet/2014-06/facebook-studie-nutzerdaten-datenschutz [Eingesehen am 20.09.2014]
Filterblase - Wikipedia:
http://de.wikipedia.org/wiki/Filterblase
[Eingesehen am 20.09.2014]
Kommentar: Facebook ist ein permanentes Psycho-Experiment -
SPIEGEL ONLINE:
http://www.spiegel.de/netzwelt/web/kommentar-facebook-ist-ein-permanentes-psycho-experiment-a-978300.html
[Eingesehen am 20.09.2014]
Kontroverse Studie: Facebook spielt mit unseren Gefühlen |
netzpolitik.org:
https://netzpolitik.org/2014/kontroverse-studie-facebook-spielt-mit-unseren-gefuehlen/
[Eingesehen am 20.09.2014]
OK so. A lot of people have
asked me about my... - Adam D. I. Kramer:
https://www.facebook.com/akramer/posts/10152987150867796 [Eingesehen am 20.09.2014]
Stop complaining about the
Facebook study. It's a golden age for research | Duncan J Watts | Comment is
free | theguardian.com:
http://www.theguardian.com/commentisfree/2014/jul/07/facebook-study-science-experiment-research [Eingesehen am 20.09.2014]
Quellen für die Abbildungen:
Abbildung 1: „Facebook - Seite von dem Fußballer Mario Götze“:
https://www.facebook.com/MarioGoetze.Official?fref=ts [Eingesehen am 20.09.2014]
Abbildung 2: „Benachrichtigungen einstellen und weitere
Vorschläge“:
https://www.facebook.com/MarioGoetze.Official?fref=ts [Eingesehen am 20.09.2014]
Abbildung 3: „Beispiel eines Beitrags im eigenen Newsfeed“:
https://www.facebook.com/
(eigener Newsfeed) [Eingesehen am 20.09.2014]
Abbildung 4: „Teilen eines Beitrages“:
https://www.facebook.com/
(eigener Newsfeed) [Eingesehen am 20.09.2014]
Abbildung 5: „Werbung im Newsfeed“:
https://www.facebook.com/
(eigener Newsfeed) [Eingesehen am 20.09.2014]
Abbildung 6: „Die Macht der AGBs“:
https://netzpolitik.org/2014/das-experiment-2/
[Eingesehen am 20.09.2014]