Das Phänomen der „Verzeitlichung“ und die Rolle der Medien
Bevor wir uns der Frage widmen, was hinter dem Begriff „Filter Bubble“ steckt, ist es notwendig, den Blick zunächst auf die Bedeutung der Medien als Informationsträger und allen voran des Internets zu lenken.
Wir bewegen uns in einer modernen Gesellschaft, in der Zeit als „Ressource und Orientierungsmedium“ zunehmend Einfluss gewinnt (vgl. Jäckel/Wollscheid 2004, S. 373)[1]. Täglich sehen wir uns dabei mit der Herausforderung konfrontiert, diese Ressource möglichst rational und organisiert zu nutzen. Nicht selten wägen wir zwischen Aktivitäten ab, die entweder den eigenen Interessen und Vorlieben entsprechen oder sich an gesellschaftlich Erwünschtem orientieren: Sollten wir also mit der Freundin einen Kaffee trinken gehen, mit den Jungs das nächste Fußballspiel der Nationalelf schauen oder doch lieber etwas für unseren Grips oder unsere Fitness tun, indem wir beispielsweise „Zukunft des Wassers“ von Érik Orsenna lesen oder im Park eine Runde joggen gehen? Der Soziologe Hartmut Lüdtke bezeichnet das Verhalten der Menschen in ihrer Freizeit als „diffus“ und „expressiv“ und den Zeitaufwand, den sie für eine Tätigkeit aufbringen, als relativ variabel (vgl. ebd.)[1]
Zwar betrifft die Tendenz der „Verzeitlichung“ (Rinderspacher zit.n. Jäckel/Wollscheid 2004, S. 373)[1] jeden unserer Lebensbereiche, ist aber in der Freizeit, durch deren vergleichsweise großen Handlungsspielraum, den sie uns lässt, besonders spürbar. Vor allem für die Freizeit stellt sich die Frage wie wir diese nutzen wollen. Dabei scheinen die Massenmedien eine dominante Rolle einzunehmen:
„Mediennutzung ist in der heutigen Gesellschaft die häufigste und für viele auch wichtigste Beschäftigung. Die Menschen widmen der technisch vermittelten Kommunikation – neben Schlafen und Arbeiten – die bei weitem meiste Zeit in ihrem Leben.“ (Schulz zit.n. Jäckel Wollscheid 2004, S. 373 )[1]
Im Jahr 2000 befassten sich deutsche Bürger ab 14 Jahren rund achteinhalb Stunden täglich mit Medien (vgl. Jäckel/Wollscheid 2004, S. 373)[1]. Glaubt man der
ARD/ZDF-Onlinestudie 2013 hat sich die Zeit, die wir am Tag mit Medien verbringen, um drei Stunden auf nun elfeinhalb Stunden erhöht (vgl. van Eimeren/Frees 2013, S.371)[2]. Elfeinhalb Stunden – für viele eine nackte und zunächst unspektakuläre Zahl. Führen wir uns jedoch vor Augen, dass der Durchschnittsbürger vermutlich sechzehn Stunden am Tag wach ist, um beispielsweise zu arbeiten, den Einkauf zu erledigen oder Fahrrad zu fahren, so wird dessen Aufmerksamkeit über die Hälfte der Zeit auf Medien gelenkt. Dies kann bewusst passieren, indem wir bei der Arbeit unsere E-Mail-Neuzugänge kontrollieren, oder sich als Nebentätigkeit entpuppen, wie das Musikhören während des Kochens.
Die Ausdehnung des Medienzeitbudgets zeigt die Wichtigkeit der Medien in unserem Leben – kaum würden wir sonst so viel unserer Zeit auf ihre Nutzung verwenden, zumal Zeit, wie bereits beschrieben, ein knappes Gut geworden ist. Doch genießen alle Medien dieselbe Beachtung? Wohl kaum! Die aus der Ökonomie abgeleitete Substitutionsthese besagt, dass ein Konsumgut durch ein anderes ersetzt wird, sobald der Nutzen, den das zweite Gut mit sich bringt, den des Ersten übersteigt (vgl. Jäckel/Wollscheid 2004, S. 374)[1]. Auf Basis dieser These stellte
Nicholas Negroponte (1995) die Behauptung auf, dass im Zusammenhang mit der Verbreitung des Internets alte oder auch als klassisch bezeichnete Medien, wie die Zeitung oder das Radio, ersetzt würden (vgl. ebd.)[1]. Trifft diese Prognose nach unserem heutigen Kenntnisstand zu und wenn ja, was sind die Vorteile, die uns das Internet im Vergleich zu anderen Medien bietet?
Das Internet als neues "klassisches Medium?"
Immer mehr Menschen nutzen das Internet. Weltweit ist jeder Dritte online – das sind bei der derzeitigen Weltbevölkerung etwa 2,7 Milliarden Menschen (vgl. Bitkom 2013a)[3]. Im Jahr 2012 hatten, laut des
Reports der von der
Internationalen Fernmeldeunion und der UNESCO einberufenen Broadband Commission for Digital Development, 84 Prozent der deutschen BürgerInnen Zugang zum Internet. Spitzenreiter war Island, dessen Bewohner zu 96 Prozent mit dem Internet verbunden waren (vgl. The Broadband Commission for Digital Development 2013, S.98)[4].
Aus der bloßen Verfügbarkeit des Internets lässt sich aber nicht automatisch auf einen routinierten und habitualisierten Umgang mit diesem Medium schließen. Es stellt sich vielmehr die Frage, inwiefern das Web tatsächlich in den Medienalltag integriert wird. Wie oft sind wir im Netz und wie viel Zeit widmen wir dem Mailen, Chatten, Surfen, Bloggen etc. im Vergleich zu anderen Medien? Hatte Negroponte Recht mit der Vermutung, dass das Internet früher oder später andere Medien ablösen würde?
Betrachtet man die Situation in Deutschland so waren im Frühjahr des vergangen Jahres 77,2 Prozent der Personen ab 14 Jahren online (vgl. van Eimeren/Frees 2013, S.358)[2]. Das entspricht rund 54,2 Millionen Deutschen. Die täglich mit dem Internet verbrachte Zeit lag im Jahr 2013 bei etwa drei Stunden. Berechnet man die Internetnutzungsdauer für die gesamte Bevölkerung und schließt damit Offliner mit ein, ist jeder Erwachsene ab 14 Jahren durchschnittlich knapp zwei Stunden am Tag online. Damit wird eine Vergleichbarkeit mit anderen Medien in Bezug auf deren Zeitbudget möglich. Der Fernsehkonsum betrug beim Durchschnittsbürger vier Stunden und blieb damit im Vergleich zum Vorjahr unverändert. Auch der Hörfunk verzeichnete mit drei Stunden täglicher Nutzung ein konstant hohes Level (vgl. ebd., S.368f.)[2]. Diese „klassischen Medien“ müssen also zunächst keine massiven Nutzungseinbrüche befürchten. Die Zukunft für Printmedien wie Zeitungen oder Bücher scheint bei einer täglichen Verwendungsdauer von jeweils etwa einer halben Stunde dagegen weniger rosig auszusehen.
Dann hatte Negroponte mit seiner Annahme also falsch gelegen und die von Lazarsfeld, Berelson und Gaudet 1940 formulierte „The-more-the-more“-Regel, laut derer die Nutzungszeit eines neuen Mediums zu der von bereits vorhandenen Medien dazu addiert wird, kann als bestätigt gelten (vgl. Jäckel/Wollscheid 2004, S. 374)[1]. Zu diesem Schluss könnte man gelangen, ließe man eine differenzierte Betrachtung des Nutzungsverhaltens unterschiedlicher Altersgruppen außen vor. Denn für die junge Generation der Onliner zwischen 14 und 29 Jahren ergibt sich ein deutlich anderes Bild: Diese liegen mit einer täglichen Internetnutzung von vier Stunden deutlich über dem Durchschnitt (vgl. van Eimeren/Frees 2013, S.361)[2]. Diese Entwicklung könnte noch verstärkt werden, beispielsweise durch die Verwendung mobiler Endgeräte, die den Webgebrauch auch unterwegs gestatten. Damit könnte Negroponte mit seiner Voraussage, dass das Internet zukünftig zu dem alles entscheidenden Medium avanciert, Recht behalten.
Das Internet scheint im Vergleich zu anderen Medien am flexibelsten nutzbar, nicht zuletzt durch die angesprochenen mobilen Endgeräte, die es uns unter anderem ermöglichen, unterwegs Zeitung zu lesen, E-Mails zu beantworten oder Musik zu hören. Für unser Zeitproblem erweist es sich als höchst praktikabel und das nicht nur in seiner Funktion als Unterhaltungs-, sondern auch als Informationsmedium.
Was sind jedoch die Folgen einer aus Gründen der Zeitnot zunehmend eingeschränkten Mediennutzung, die sich zukünftig nur auf das Internet begrenzen könnte? Und wie gehen wir dabei mit einer stetig anwachsenden Zahl von Informationen um, die uns unterschiedliche Web-Sites zur Verfügung stellen?
Potenziale und Gefahren
War das Internet anfänglich ein „elitäres Minderheitenmedium“ (van Eimeren/Frees 2013, S.358)[2], so gelang es mithilfe des World Wide Web, dieses Medium auch außerhalb von wissenschaftlichen Netzwerken populär zu machen. Heute bietet das Internet der gewachsenen Anzahl seiner Nutzer mehr als das bloße Rezipieren von Inhalten. Seine Funktionsformen scheinen unerschöpflich. So dient es dem Anwender als Kommunikations- und Informationsmittel, Shoppingmeile, Distributionsplattform, Bühne zur Selbstdarstellung und vieles mehr (vgl. ebd., S.370)[2].
Für Onliner ist das Internet meist integraler Bestandteil ihres Alltags und Onlinebanking, Communities und Videoportale sind für sie selbstverständlich (vgl. ebd., S.358)[2]. Die Möglichkeit, mithilfe bestimmter Technologien selbst Inhalte zu generieren, wird als Weiterentwicklung des Webs gesehen und unter dem Begriff „Web 2.0“ gefasst. Das Cloud Computing zählt als weiteres Element zum
Web2.0-Begriff.
Das Internet erweckt damit den Anschein, nur Gutes hervorzubringen. Tatsächlich gestaltet es vieles angenehmer: Zum Beispiel weiß
Kayak, wo ich den günstigsten Flug nach Antalya bekomme,
Yelp erleichtert mir die Entscheidung beim nächsten Restaurantbesuch. Wer jedoch vergangenen Sommer, in Vorfreude auf die WM, im Netz auf der Suche nach Informationen zu Fußball-Stars wie Cristiano Ronaldo oder Lionel Messi war, dürfte eventuell die unliebsame Bekanntschaft mit Schadsoftware gemacht haben. Diese laden sich Nutzer unbewusst als so genannte Drive-by-Downloads beim Besuch manipulierter Webseiten herunter. In der Regel werden dabei Zusatzprogramme (Plug-ins) oder Sicherheitslücken von Browsern ausgenutzt (vgl.Bitkom 2013b)[5]. Weitere Computerviren, die sich durch E-Mail-Anhänge, Downloads oder Speichermedien verbreiten können, sind Trojaner, Würmer oder Bots bzw. Botnetze (einen Überblick dazu bietet die Website
Netzdurchblick).
Die Filter Bubble – Personalisierung als neue Bedrohung?
Die hier genannten Gefahren, die das Internet birgt, werden wohl den meisten bekannt sein. Doch in Zukunft werden wir es mit einem weiteren Problem zu tun haben, das uns neben den oben genannten vermehrt beschäftigen wird: Der Filter Bubble. Noch nie gehört? Dann lohnt es sich weiterzulesen, denn dieser Beitrag versucht ein wenig Licht ins Dunkel der Filter Bubble zu bringen und über deren Hintergründe, Funktionsweisen und Auswirkungen aufzuklären.
Den meisten von uns ist vermutlich bewusst, dass unser Aufenthalt im Internet eine Datenspur hinterlässt. Zumindest wird dies spätestens dann augenfällig, wenn wir uns für einen neuen Laufschuh interessiert zeigen und Minuten später genau dieser in der Werbeleiste unseres E-Mail-Anbieters auftaucht. Der Gedanke daran, dass es Unternehmen gibt, die entweder selbst die Fährte aufnehmen, um uns anhand unseres Online-Verhaltens gezielt zu bewerben, oder dies von anderen (wie
Acxiom oder
Bluekai) erledigen lassen, scheint uns weder neu noch beunruhigend.
Weniger bekannt dürfte die Tatsache sein, dass Google seit 2009 anhand von 57 Signalen, angefangen von dem Ort, an dem ich mich einlogge, über den Browser, den ich verwende, bis hin zu der Zeit, die zwischen meiner Suchanfrage und dem Klick auf ein Ergebnis vergeht, Rückschlüsse zu meiner Person sowie den für mich potenziell interessanten Resultaten meiner Suche zieht. Google stelle sogar bei ausgeloggten Nutzern Vermutungen an, welche Seiten am wahrscheinlichsten bei einer Neuanmeldung angeklickt würden, und setze sie demnach auf die Startseite (vgl. Pariser 2012, S.10)[6].
Das Standard-Google, von dem wir glaubten, es würde jedem bei gleicher Suchanfrage dieselben Ergebnisse liefern, gibt es nicht mehr. Wie tiefgehend die Filterung im Internet anhand persönlicher Informationen betrieben wird und welche Folgen sich daraus ergeben, untersucht
Eli Pariser, Autor, Netzaktivist und Mitbegründer der zivilgesellschaftlichen Interessensgruppe
MoveOn.org in seinem 2011 erschienenen Buch „
The Filter Bubble.What the Internet is Hiding from You“.
Pariser dürfte wie kaum ein anderer den Begriff der Filter Bubble geprägt haben. Zwar kursieren noch andere, das Phänomen beschreibende Begrifflichkeiten, wie der
Echokammer-Effekt (englisch Echo-Chamber Effect), der schon zu einem früheren Zeitpunkt, noch vor dem Erscheinen des Filter Bubble-Buches, die Probleme virtueller Räume von Gleichgesinnten thematisierte. Ebenso wird die Idee
Nicholas Negropontes einer digital verfügbaren und auf die Bedürfnisse des Lesers zugeschnittenen Zeitung mit diesem Thema in Verbindung gebracht, die er in seinem 1995 erschienenen Buch „
Being Digital“ unter dem Begriff „Daily Me“ diskutierte. Die Bezeichnung "Filter Bubble" dürfte momentan aber die am weitesten verbreitete sein.
Um einen ersten Eindruck zu erhalten, was die Filter Bubble ist und wie sie funktioniert, eignet sich der folgende exzellente Vortrag Eli Parisers bei
TED:
Das Internet stellt eine unüberschaubare Fülle von Informationen bereit. Niemand von uns wäre in der Lage, dieser Flut an Neuigkeiten zu begegnen und genau die Web-Site(s) zu finden, die das enthalten, wonach wir suchen. Deshalb werden diese von Algorithmen unterschiedlicher Dienste wie Google, Facebook und Amazon für uns nach Relevanz vorsortiert. Wie entscheiden diese Unternehmen jedoch, was für mich relevant sein könnte? Dies kann auf Grundlage meines Klickverhaltens oder meiner Suchhistorie geschehen, wie bei Google, oder, am Beispiel des sozialen Netzwerks Facebook, meine Interaktion mit anderen Nutzern betreffen. Daraus ergibt sich eine Blase, in deren Mittelpunkt ich als Nutzer stehe. Durch die Membran der Blase dringen nur die Informationen, von denen die jeweiligen Algorithmen der Unternehmen meinen, sie seien für mich wichtig. Die außenstehenden Botschaften dringen nicht hindurch, auch wenn diese potenziell meinen Interessen entsprechen könnten:
„Your filter bubble is the personal universe of information that you live in online – unique and constructed just for you by the array of personalized filters that now power the web. […] It’s a comfortable place, the filter bubble – by definition, it’s populated by things that most compel you to click. But it’s also a real problem: the set of things we’re likely to click on (sex, gossip, things that are highly personally relevant) isn’t the same as the set of things we need to know.” (Pariser zit.n. Popova 2011)[7]
Im letzten Satz verdeutlicht Pariser, weshalb die Filterung neuer Informationen, anhand dessen, was ich im Internet suche oder kommentiere, so problematisch ist. Meist sind es schnelle Impulse, die uns zu einem Klick verleiten, und keine langwierigen rationalen Entscheidungen. Drücke ich den „Gefällt-mir-Button“ bei Facebook, ist das nicht unbedingt als Stimmabgabe für Themen zu werten, die mich interessieren oder interessieren sollten. So werde ich Hemmungen haben, bei der
Entführung der nigerianischen Mädchen durch die Terrororganisation Boko Haram „Gefällt-mir“ zu klicken. Das heißt aber nicht, dass ich über das Thema nicht informiert werden möchte. Werden wir aber nur noch mit Inhalten versorgt, die uns eine unmittelbare Befriedigung verschaffen und unseren Intellekt nicht herausfordern, hat das gravierende Folgen.
Folgen der virtuellen Blase
Ein Apfel fällt vom Baum – oder der Verlust des glücklichen Zufalls
Als Isaac Newton unter einem Baum im Garten seines Elternhauses saß, kam ihm jene Erkenntnis, die ihn später unsterblich machen sollte: Ein herabfallender Apfel erweckte die Neugier des jungen Studenten und ließ ihn das Gesetz der Anziehungskraft von Massenkörpern definieren.
Ob diese vom französischen Philosophen Voltaire überlieferte Geschichte stimmt, kann bezweifelt werden. Allerdings ließen sich problemlos auch andere Beispiele für Entdeckungen in der Menschheitsgeschichte finden, die auf demselben auslösenden Moment basieren: Zufall. Neue Ideen entstehen meist dann, wenn wir uns außerhalb unseres gewohnten Umfelds bewegen, andere Kontexte zulassen und unterschiedliche Themen und Inhalte miteinander kombinieren. In einem Informationssystem, das uns lediglich mit dem konfrontiert, was wir schon kennen, werden kreative Entdeckungen immer schwieriger. Zwar mag das Internet eine Fülle von Inhalten bereithalten, aber die zufällige Begegnung mit dem Unbekannten wird nach Pariser immer unwahrscheinlicher (vgl. Pariser 2012, S.110)[6].
Das sterbende Alter Ego und der Triumphzug des inneren Schweinehundes
„Wir glauben Erfahrungen zu machen, aber die Erfahrungen machen uns.“ Dieses bekannte Zitat des französisch-rumänischen Schriftstellers Eugène Ionesco verdeutlicht, wie sich aufgrund bestimmter Ereignisse unser Verhalten und Erleben verändern kann. Wir lernen in unserem Leben ständig dazu, häufig ohne es überhaupt zu bemerken. Unsere Identität, die Art und Weise, wie wir fühlen, denken und handeln, ist, zumindest partiell, wandelbar und vielfältig. Wie wir uns verhalten, ist außerdem an bestimmte Kontexte gebunden. Mein privates Auftreten kann sich vom Beruflichen unterscheiden und sogar innerhalb verschiedener Personengruppen variieren.
Die Personalisierung ignoriert jedoch die Nuancen meiner Persönlichkeit. Sie kennt keine Unterschiede zwischen meinem Job- und meinem Freizeit-Ich und, was sich als erheblich gravierender erweist, sie hat keine Vorstellung von meinem Zukunfts-Ich (vgl. Pariser 2012, S.125)[6]. Die Filter Bubble kann sich nur mit solchen Inhalten befassen, von denen sie glaubt, sie würden mich aufgrund meines momentanen oder bisher gezeigten Online-Verhaltens interessieren. Ihr bleibt mein innerer Schweinehund verborgen, der mich dazu veranlasst die siebte Staffel „Big Bang Theorie“ anzuschauen, anstatt Sport zu machen. Auch weiß sie nicht, dass ich eigentlich vorhatte ein rundum gut informierter und kluger Bürger zu sein, der sich eher mit den Herausforderungen des Transatlantischen Freihandelsabkommens
TTIP bzw.
TAFTA beschäftigt, als eine Klickorgie bei den Promi-News zu starten.
Die Filter Bubble beruht auf einem verzerrten und lückenhaften Bild des individuellen Nutzers. Sie sieht nicht den Menschen als Ganzes, sondern greift nur auf die nach ihren spezifischen Mitteln erfassten Daten zurück. Das Bild, das sie von uns hat, „wird jenen Verhaltensweisen Vorschub leisten, die der Datenerfassung entgegenkommen, während andere Verhaltensweisen unterdrückt werden“ (Stalder/Mayer 2011, S.7).[8]
Postmaterialistische Selbstverwirklichung und Erosion des öffentlichen Diskurses
Was bedeutet es für unsere Gesellschaft, wenn wir in bisherigen Denkweisen gefangen bleiben, wenn der glückliche Zufall und die Möglichkeit zur Innovation versanden und wir – nur einseitig wahrgenommen – in unserer jetzigen Komfortzone verhaftet bleiben?
Die politisch-soziologische Theorie des
Postmaterialismus besagt, dass Bürger moderner Demokratien stärker der Erfüllung immaterieller Bedürfnisse, wie emanzipativer und ästhetischer Werte, nachgehen, da deren materielle Anliegen bereits befriedigt wurden (vgl. Schubert/Klein 2011)[9]. So entwickeln sich spezielle Interessenlagen und der Drang zur Selbstverwirklichung wird größer. Nicht nur die Werbebranche bemüht sich deshalb, ihren Produkten eine identitätsstiftende Wirkung zu verleihen. Auch Parteien und andere politische Gruppen und Bewegungen sind gezwungen, eine gezieltere Ansprache ihrer (zukünftigen) Wählerklientel umzusetzen.
Wagen wir einen Blick ins Jahr 2017, dem Jahr, in dem die nächste Bundestagswahl stattfinden wird. Mithilfe einer Reihe von Unternehmen, die sich darauf spezialisiert haben, Daten zum Wahlverhalten der deutschen Bundesbürger zu sammeln, gelingt es den Parteien, eigens auf ihre Anhänger zugeschnittene Wahlwerbung auszusenden. Jeder wahlberechtigte Bürger bekommt also nur Informationen zu der Partei, deren er seine Stimme schon seit Jahren gibt oder von der vermutet wird, dass sie seinen Einstellungen am zuträglichsten ist. Noch dazu werden wir nur mit Aussagen zu den Themen konfrontiert, für die wir uns ohnehin interessieren.
Dies ist dann vor allem bedenklich, wenn ich mich beispielsweise als Sympathisant des auch online vertretenen Magazins Junge Freiheit erweise. Dieses bewegt sich im Grenzbereich zwischen Konservatismus und Rechtsextremismus und offenbart seine Haltung weniger in den veröffentlichten Artikeln, als in den dazugehörigen Kommentaren. In diesem Fall würde ich in meinem völkischen Nationalismus-Denken durch Meinungen und Wahlversprechen bestärkt, die dieser Einstellung entgegenkommen.
Nach Ansicht Parisers könnte es Stammwählern aber auch passieren, dass sie überhaupt nichts über die anstehenden Wahlen erfahren. Dies wäre dann der Fall, wenn diese zwar ihre Bürgerpflicht, wählen zu gehen, ernst nähmen, sich ansonsten aber wenig für Politik interessierten. Die Filter Bubble würde politische Themen schlicht nicht auf deren Agenda setzen (vgl. Pariser 2012, S.161)[6]. Glücklich wähnen können sich hingegen Unentschlossene: Denn Nicht- bzw. Wechselwählern wird das größte Potential zugesprochen, wenn es um den Ausgang von Wahlen geht. Sie sind noch leichter zu beeinflussen und geraten deshalb am ehesten in den Werbesog unterschiedlicher Parteien (vgl. Pariser 2012, S.160f.)[6].
Dass wir einem solchen Szenario entgegensteuern könnten, sieht Pariser als wahrscheinlich an. Zumindest gibt es in den USA schon heute Unternehmen wie
Catalist, das über eine Datenbank von mehreren Millionen Wählerprofilen verfügt (vgl. Pariser 2012, S.160)[6].
Der durch die Personalisierung manipulierte und fragmentierte öffentliche Raum birgt zusätzliche Risiken: Zum einen wird es für Parteien, Journalisten und Blogger immer schwieriger werden, Fakten zu überprüfen und wichtige Grundsatzfragen herauszustellen, wenn ihnen die unterschiedlichen Parteibotschaften nur begrenzt zugänglich sind (vgl. Pariser 2012, S.164)[6]. Andererseits ist es fraglich, wie unter solchen Bedingungen ein öffentlicher Diskurs zustandekommen soll.
Laut Pariser wird die Herausforderung demokratischer Systeme darin bestehen, dass „eine verstreute, mobile und mannigfaltige Öffentlichkeit sich so selbst erkennt, dass sie ihre Interessen definieren und ausdrücken kann“ (Dewey zit.n. Pariser 2012, S.172f.). Es geht nicht darum, die Bürger durch die Schaffung einer gemeinsamen „Einheitskultur“ (Bohlken 2011, S.353)[10] in ihren Freiheitsrechten zu beschneiden. Ganz im Gegenteil: Ohne einen gesellschaftlichen Dialog, der es uns ermöglicht, unser Zusammenleben zu regeln und unser gesellschaftliches Selbstverständnis immer wieder von Neuem zu definieren, laufen wir Gefahr, diese Rechte aufs Spiel zu setzen und uns unserer Mitbestimmung zu entledigen.
Das Fenster zur Welt
Im Hinblick auf die gewaltigen Datenmengen, die von Unternehmen wie Google mittels Click-Tracking, Log-Files und der Verwendung von Cookies gesammelt werden, stellt sich die Frage, inwiefern diese Daten zur Überwachung von Nutzern herangezogen werden können. Stalder und Mayer unterscheiden dazu drei Arten von Überwachung (vgl. Stalder/Mayer 2011, S.5)[8]:
- Überwachung durch ein Zentralorgan
- Überwachung im Sinne wechselseitiger Kontrolle sozialer Akteure
- Überwachung durch soziales Sortieren
Rollen wir das Feld von hinten auf und beginnen mit der Überwachung durch soziales Sortieren. David Lyon, Direktor des
Zentrums für Überwachungsstudien an der Queen’s Universität in Kingston und Mitherausgeber der Zeitschrift
Surveillance& Society, versteht soziales Sortieren wie folgt:
„Codes, meist von Computern verarbeitet, sortieren Transaktionen, Interaktionen, Besuche, Anrufe und andere Aktivitäten. Sie sind unsichtbare Türen, die den Zugang zu einer Myriade verschiedener Ereignisse, Erfahrungen und Vorgängen ermöglichen, oder diesen verschließen. Die so entstehenden Klassifizierungen haben den Zweck, Bevölkerungsgruppen und Einzelpersonen zu beeinflussen und zu verwalten, wodurch sie direkt und indirekt in die Wahlmöglichkeiten und Lebenschancen der Datensubjekte eingreifen.“ (David Lyon zit.n. Stalder/Mayer 2011, S.5)[8]
Die soziale Sortierung, die Menschen Gruppen zuordnet, die wiederum kontrollierbar sind, und das Erleben ihrer Mitglieder beeinflussen, zeigt sich in der Personalisierung. Nach und nach beschneidet die Filter Bubble uns in unserer Autonomie, die der Rechtswissenschaftler Frank Pasquale nicht nur in der „Abwesenheit von externen Einschränkungen“ bei der Entscheidung zwischen Alternativen gegeben sieht (Pasquale/Bracha zit.n. Stalder/Mayer 2011, S.6)[8]. Viel entscheidender sei demnach, dass überhaupt bewertbare und bedeutende Wahlmöglichkeiten gegeben seien:
„Wenn A das Fenster kontrolliert, durch welches B die Welt sieht – wenn er systematisch Macht über die relevanten Informationen über die Welt und die verfügbaren Alternativen, die B erreichen, ausübt – dann wird die Autonomie von B dadurch eingeschränkt. Informationsfluss in einer Art und Weise zu kontrollieren, welche die Wahlmöglichkeiten einschränkt, bedeutet, die Autonomie dieser Person zu begrenzen, ob diese Person nun getäuscht wird oder nicht.“ (Pasquale/Bracha zit.n. Stalder/Mayer 2011, S.6)[8]
Es geht also nicht nur um die Güte der Informationen, die uns erreichen, sondern vor allem darum, dass sich Unternehmen wie Google ihrer redaktionellen Verantwortung, die sie uns gegenüber haben, bewusst werden. Können wir zukünftig darauf vertrauen, dass die angezeigten Ergebnisse, das Erscheinen oder Verschwinden einer Information, auf die Personalisierung zurückgehen und es sich nicht um Zensur oder Manipulation handelt? Bisher scheint die Forderung nach mehr Transparenz jedenfalls auf taube Ohren zu stoßen.
Eine eher unscheinbare Form der Überwachung ist die Überwachung im Sinne wechselseitiger Kontrolle sozialer Akteure. Verhalten wird beeinflusst, indem der Überwachte davon ausgeht, von einer unsichtbaren Autorität überprüft zu werden, die „abnormales Verhalten“ bestraft. Die Überwachungsstruktur ist dezentralisiert. Jeder kann von der Rolle des Beobachters in die des Beobachteten schlüpfen und umgekehrt (vgl. Stalder/Mayer 2011, S.5)[8]. Inwiefern diese Art der Überwachung bei der Personalisierung des Webs eine Rolle spielt, ist nach Stalder und Mayer schwer abzusehen, da es fraglich ist, was in diesem Kontext Normalisierung bedeutet.
Bei der Überwachung durch ein Zentralorgan existiert eine Institution, deren ungerechtfertigte Machtposition durch die Kontrolle ihrer Untertanen erhalten wird. Zwar haben die angesprochenen Unternehmen keinen direkten Einfluss auf deren Nutzer, aber solch „extensive (…) Überwachungskapazitäten“ (Stalder/Mayer 2011, S.5)[8] üben eine gewisse Anziehungskraft aus. So schreibt
Hal Roberts vom Berkman Center for Internet & Society an der Harvard Universität über Google:
„Es ist sogar wahrscheinlich, dass diese Sammlung von Suchbegriffen, IP-Adressen und Cookies die größte und sensibelste existierende Datensammlung ist, sowohl online als auch offline. Egal ob Google sich nun entscheidet, den relativ einfachen Schritt zu tun, der notwendig ist, um aus dieser Sammlung von Suchdaten eine Datenbank mit personenbezogenen Daten herzustellen, es hat jedenfalls die Möglichkeit, personenbezogene Daten aus dieser Sammlung abzurufen, wann immer es will (oder von einer Regierung, einem Eindringling, einem unzufriedenen Mitarbeiter usw. dazu genötigt wird).“ (Roberts zit.n. Stalder/Mayer 2011, S.3)[8]
Im August 2005 hat es bereits einen staatlichen Zugriff auf Daten von Millionen von Nutzeranfragen gegeben: Große Suchmaschinenbetreiber wurden in den USA gerichtlich aufgefordert, aufgrund der Prüfung eines Gesetzes zur Online-Pornografie, Nutzerdaten zu übergegeben (vgl. Stalder/Mayer 2011, S.5)[8]. Google hatte sich zwar als einziger Provider geweigert, dem nachzukommen, jedoch hat das Unternehmen gemeinsam mit der CIA in eine Firma namens
RecordedFuture investiert (vgl. Pariser 2012, S. 154)[6].
Stalder und Mayer vermuten, dass „die erweiterten Befugnisse der Sicherheitsdienste und die großen Datenbestände von Suchmaschinen wohl auf die eine oder andere Art zusammenfinden [werden]“ (Stalder/Mayer 2011, S.5)[8]. Damit würden Suchmaschinen und vermutlich auch andere Unternehmen, die Datenspeicherung bzgl. ihrer Anwender betreiben, aktiv mithelfen, die Überwachungskapazitäten des Staates auszudehnen und Georg Orwell’s Big Brother wahrscheinlicher werden zu lassen (vgl. ebd.)[8].
Besonders gravierend wäre dies, wenn man bedenkt, dass Staatssysteme und Regierungsformen keine unabänderlichen Konstrukte darstellen. Was passieren könnte, wenn sich liberale Demokratien in totalitäre Regime verwandeln, zeigt das Beispiel Alfred Flatows. Er war olympischer Turner der Weimarer Republik, der im Jahr 1932, gemäß den bestehen Gesetzen, seine Waffe registrieren ließ. Sechs Jahre später stand die Gestapo vor seiner Tür, die im Zuge des Holocaust Juden erfasste, die im Besitz einer Handfeuerwaffe waren. Im Jahr 1942 wurde Flatow in einem Konzentrationslager ermordet (vgl. Pariser 2012, S. 152)[6]. Kaum vorzustellen, was Geheimdiensten innerhalb solcher Staaten anhand der heutigen, zum Teil äußerst privaten Daten möglich wäre.
Die Filter Bubble – tatsächlich ein Problem?
Filterung kaum spürbar
Kritische Stimmen, wie die von Jacob Weisberg, Chefredakteur des Online-Magazins
Slate, werden einwenden, dass all die beschriebenen Auswirkungen der Filter Bubble lediglich auf Prognosen beruhen. In seinem 2011 erschienenen Artikel „
BubbleTrouble. Is Web personalization turning us into solipsistic twists?“ konstatiert er anhand eines kleinen, nicht-repräsentativen Experiments die Belanglosigkeit der Filterung in unserer heutigen Welt.
Dazu lässt er fünf Freiwillige mit unterschiedlichen politischen Einstellungen jeweils vier verschiedene Suchanfragen, die sich zur Darstellung der ideologischen Positionen eignen, durchführen. Das Resultat: Die Ergebnisse weichen nur geringfügig voneinander ab (vgl. Weisberg 2011)[11]. Nichts ließe auf die unterschiedlichen politischen Haltungen schließen.
Diese Erkenntnis, so Weisberg, würden auch unabhängige Experten wie
Jonathan Zittrain bestätigen. Der Professor für Jura und Informatik an der Harvard Universität stufte den Effekt der Personalisierung auf das Suchergebnis als geringfügig ein (vgl. ebd.)[11]. Die lang gehegte Sorge eines infiltrierenden „Daily Me“, so Weisberg, sei der Realisierung noch nicht näher gekommen. Die Personalisierung von Nachrichten, die sich ständig ändern könnten und in die Zukunft hineinreichten, sei durch Algorithmen nur schwer umsetzbar und werde journalistische Arbeit wohl nie ersetzen. Gäbe es einen Filter Bubble-Effekt, so wäre dieser eher bei manipulierten Inhalten als bei der Verbreitung von Nachrichten zu suchen (vgl. ebd.)[11].
Länderspezifische Betrachtung
Bisher wenig beachtet wurde auch die Tatsache der länderspezifischen Unterschiede in Bezug auf die Nutzung des Internets als Informationsquelle. So werden Skeptiker darauf hinweisen, dass die Hinwendung zu digitalen Medien in Deutschland noch nicht in dem Maße stattgefunden hat wie in den USA.
Dies belegt auch eine internationale
Studie des Reuters Institute. In dieser wurde das Medienverhalten von US-Amerikanern mit demjenigen von Briten, Finnen, Deutschen, Japanern und einigen mehr verglichen. Das Fernsehen erreicht als Informationsquelle mit durchschnittlich 50 Prozent unter allen teilnehmenden Staaten einen hohen Wert.
Betrachtet man die Nutzung von Online-Quellen, so schneidet Deutschland mit 19 Prozent im Vergleich zu den USA, die einen Wert von 35 Prozent erreichen, deutlich schlechter ab (vgl. Reuters Institute 2014, S.8)[12]. Vor allem nationale sowie regionale Nachrichten werden über das Fernsehen oder Zeitungen bezogen (vgl. van Eimeren/Frees 2013, S.364)[2]. Eine rasche Abkehr von den Print- hin zu den digitalen Medien, wie dies bei US-Amerikanern geschieht, ist in Deutschland noch nicht zu beobachten (vgl. ebd.)[2]. Zudem können sich filternde Effekte länder- und personenspezifisch unterschiedlich stark bemerkbar machen. So werden in den USA beispielsweise mehr Onliner auf Google-Anwendungen wie Google Bookmarks, Gmail und Google News zurückgreifen als hierzulande.
Nützliche Filter
Nicht nur, dass das Filter Bubble-Phänomen in Deutschland nicht als verbreitet gilt, auch die Auffassung von der Nützlichkeit der Personalisierung ist verschieden. Diese könne nach Stalder und Mayer nicht ausschließlich eine Schwächung der Autonomie der Nutzer, sondern paradoxerweise auch deren Stärkung bedeuten (vgl. Stalder/Mayer 2011, S.6)[8]. Vergleiche man im Fall von Google die personalisierte Suche mit dem Ranking-Verfahren, das stark verlinkte Seiten gegenüber peripheren bevorzuge, könne deren Vorteil darin bestehen, Quellen zu erschließen, die für ein breites Publikum wenig relevant, aber für eine spezifische Gruppe von Nutzern wichtig seien (vgl. ebd.)[8]. Außerdem werde die Schaffung eines uniformellen Klassifizierungssystems als utopisches Unterfangen gesehen, da es nicht möglich sei, einen einzigen kulturellen Begriffsrahmen festzulegen, auf dessen Basis eine Kategorisierung erfolgen könne (vgl. Stalder/Mayer 2011, S.1)[8].
Differenzierte Betrachtung der Anwendungen
Hier wird ein weiterer, bisher wenig beachteter Bereich der Personalisierung angesprochen: Nicht jede Anwendung, die Personalisierung betreibt, setzt diese auf dieselbe Weise um. Es sollte also, wenn von Filterung im Netz gesprochen wird, zwischen den verschiedenen Anbietern und ihren Intentionen unterschieden werden. Vergleichen wir z.B. den Suchdienst von Google mit den sozialen Netzwerken von Twitter und Facebook.
Der Mikroblog Twitter zeichnet sich dadurch aus, dass Anwender sowohl selbst Nachrichten, so genannte „Tweeds“, verfassen als auch die anderer abonnieren können. Anders als bei Facebook erscheinen diese in chronologischer Reihenfolge, d.h. dass in diesem Fall die Filterung kaum von Bedeutung ist.
Hingegen nutzt Facebook einen auf dem
EdgeRank aufbauenden Algorithmus, der die Reihenfolge der im News Feed erscheinenden Nachrichten festlegt. Damit hat der Nutzer nur eingeschränkte Möglichkeiten zu entscheiden, welche Neuigkeiten zuerst angezeigt werden.
Das Beispiel Google ist da schon schwerer einzustufen. Einerseits sollte die von Stadler und Mayer angesprochene Nützlichkeit, die uns die personalisierte Suche bringt, nicht verkannt werden. Benötige ich einen Fahrradreparaturservice, so wird mir dankenswerterweise derjenige angezeigt, der sich in meiner Nähe befindet. Dies ist vor allem unter dem zu Beginn angesprochenen Aspekt des heutigen Zeitmangels eine Erleichterung. Anderseits könnten diese, auf meine Bedürfnisse ausgelegten Suchergebnisse bei bestimmten Themen zum Problem werden. Nämlich dann, wenn es darum geht, politisch umfassend informiert zu werden (siehe: Postmaterialistische Selbstverwirklichung und Erosion des öffentlichen Diskurses).
Ein weiteres Argument, das gegen ein „Abgeschottet-Sein“ in einer virtuellen, uns mit eigenem Gedankengut indoktrinierenden Filter Blase spricht, liefert uns der menschliche Sozialisationsprozess. Im Hinblick auf die politische Zukunftsfähigkeit moderner Demokratien gehe es laut der Soziologin
Simone Abendschön darum, „mündige Bürger zu ‚sozialisieren’ und für fortschreitende Transnationalisierungsprozesse […] ‚fit‘ zu machen“ (Abendschön 2010, S.18, Hervorhebung im Original)[13].
Ein zentrales Ziel bei der (politischen) Sozialisation sei die Einbindung einzelner Gesellschaftsmitglieder in einen von der Gemeinschaft festgelegten Wertekonsens, der das Fortbestehen eines politischen Systems wahre (Easton zit.n. Abendschön 2010, S.22)[13]. Dem würde Pariser sicherlich nicht widersprechen: Werte und Normen sind konstitutiv für ein Gemeinwesen. Entscheidend ist jedoch, dass Sozialisation nicht im luftleeren Raum oder, wie in unserem Fall, nicht ausschließlich innerhalb einer virtuellen Filter Blase geschieht. Sie wird sowohl von individuellen Anlagen als auch unserer Umwelt bestimmt:
Persönlichkeitsmerkmale, Familie, Freunde, Schule und Medien, aber auch kulturelle, sozialstrukturelle und institutionelle Rahmenbedingungen tragen dazu bei, wer wir sind, wie wir denken und handeln (Barthelemy zit.n. Abendschön 2010, S.22)[13]. Die Tatsache, dass unser individuelles Wertesystem und die Art, wie wir die Welt begreifen, von Erfahrungen und dem Austausch mit unserer Umgebung abhängt, bleibt von Pariser nahezu unberücksichtigt. Der Filter Bubble wird damit ein Stück ihrer machtvollen Aura entzogen.
Gleichheit als Chance
Daran anknüpfen lässt sich die Sichtweise des Autors
David Weinberger (
Too big to know), der sich in einem Interview im Jahr 2012 auf
EconTalk zum Phänomen der Echo Chamber äußerte. Zwar sei es laut Weinberger wichtig, den Blick für andere Meinungen und Interessen zu weiten und nicht zu sehr auf die eigene Perspektive beschränkt zu bleiben, jedoch dürfe man nicht verkennen, dass ein gewisser Grad an Konsens und Gleichheit essenziell für das Funktionieren von Kommunikation sei:
„And so I worry that the echo chamber argument leads us to undervalue the extent to which we need similarity in order to have a simple conversation, or to have a culture at all.” (Weinberger 2012, 0:34:40)[14]
Das Wissen einer Gesellschaft und deren Kultur würden sich nur entwickeln, wenn eine bestimmte Basis bestehe, aus der neue Ansätze hervorgehen könnten. Dass also aus einer Gesprächsplattform Gleichgesinnter, die durchaus unterschiedliche Perspektiven auf ein Thema besitzen, neue Ideen entstehen (und nicht nur in der Konfrontation mit dem „Fremden“; siehe: Ein Apfel fällt vom Baum – oder der Verlust des glücklichen Zufalls), hat Pariser nicht mitbedacht.
Zurück in die Zukunft
Zwar mögen die kritischen Einwände durchaus ihre Berechtigung haben und die Prognosen Eli Parisers noch Zukunftsmusik sein, dass diese sich aber doch noch bewahrheiten könnten, zeigen verschiedene Entwicklungen beispielhaft:
Eine Weiterführung personalisierter Werbung wird in Tokyos U-Bahnen angestrebt. Dort sollen mithilfe von Kameras das Geschlecht und das ungefähre Alter von Personen bestimmt werden, die sich in der Nähe einer Werbetafel aufhalten. Mit den gewonnenen Daten werden daraufhin entsprechende Botschaften ausgesendet. Das "Digital Signage Promotion Project" mag bei einigen die Erinnerung an den Science-Fiction-Thriller Minority Report wecken, dessen Werbern eine individuelle Ansprache von Passanten durch Werbeflächen gelingt.
Dass die personalisierte Bereitstellung von Informationen nach wie vor aktuell ist, zeigt auch einer der bekanntesten Nachwuchswettbewerbe Deutschlands: „Jugend forscht“. In diesem Jahr gewann der 19-jährige Moritz Uehling aus Stuttgart den Preis im Bereich Mathematik/Informatik. Er entwickelte das Programm „MonEzine“, das eintreffende Artikel aus Nachrichtenseiten und Blogs nach der Wahrscheinlichkeit sortiert, mit der sie gelesen werden.
Die Deutschen mögen das Internet vielleicht noch nicht als erste Informationsquelle nutzen, sie sind aber auf dem besten Weg dahin: Vor allem Jüngere verwenden
laut Bitkom häufig das Internet, um sich auch über politische Themen auf dem Laufenden zu halten.
Beeindruckend ist auch die Tatsache, dass 15 Prozent derer, die einer Online-Community angehören, scheinbar alles in ihrer Community finden, was sie im Internet suchen, und Seiten außerhalb dieser Plattform nur wenig Beachtung schenken (vgl. Busemann 2013, S.396)[15]. Die Abweichung in der Zustimmung zu dieser Aussage sind zwischen den jüngeren und älteren Nutzern nur geringfügig (14-29 Jahre: 15%, 30-49 Jahre und ab 50 Jahre: jeweils 17%). Ein Grund für die Abhängigkeit der Nutzer von einem einzelnen Netzwerk ist die Geschlossenheit von Internetangeboten wie Facebook, Google oder Apple, die als „
Walled Gardens“ fungieren (vgl. ebd.)[15]. Nach der erstmaligen Messung der ARD/ZDF-Onlinestudie im vergangen Jahr bleibt jedoch abzuwarten, wie sich diese Ergebnisse entwickeln werden.
Dass ein sensibler Umgang mit unseren Daten und der Filterung dessen, was wir zu sehen bekommen, notwendig ist, zeigt das jüngst bekannt gewordene Experiment der beiden Wissenschaftler Jamie Guillory und Jeffrey Hancock der Cornell Universität. Diese untersuchten den emotionalen Zustand von etwa 700.000 Facebook-Nutzern anhand derer Posts. Dabei wurde deren News Feed mithilfe von Facebook gezielt manipuliert, indem ein Teil der User vermehrt negative und der andere vermehrt positive Nachrichten angezeigt bekam. Das Gravierende daran: Die Nutzer wurden nicht eingeweiht. Hier zeigt sich deutlich die Macht, die Unternehmen durch die Filterung von Daten über ihre Kunden erhalten und was ein Missbrauch bewirken kann (zu dieser Studie ist ein
ausführlicher Beitrag auf diesem Blog erschienen).
In einem Interview mit der Süddeutschen Zeitung antwortete Pariser auf die Frage, ob wir dem Trend zur Filter Bubble hilflos ausgeliefert sind, wie folgt:
„Es ist zu früh zu sagen, ob wir wirklich hilflos sind. Am Ende geht es darum, ob wir Werkzeuge benutzen oder die Werkzeuge uns. Jemand der sich gut auskennt und das Problem versteht, kann die Filterblase zum Platzen bringen. Aber viele Internetnutzer sind noch nicht so weit, weil es nicht leicht ist, diese neue seltsame Welt ohne technischen Hintergrund zu verstehen.“ (Pariser zit.n. Süddeutsche 2012)[16]
Wie finden wir nun das Werkzeug, die passende Nadel, die die Blase unserer Online-Welt zum Platzen bringt? Pariser antwortet darauf mit einer kleinen Geschichte:
„There was a […] guy who looks at new mousetrap designs at the biggest mousetrap supply company. As it turns out, there’s not much need for a better mousetrap, because the standard trap does incredibly well, killing mice 90% of the time. The reason is simple: Mice always run the same route, often several times a day. Put a trap along that route, and it’s very likely that the mouse will find it and become ensnared. So, the moral here is: don’t be a mouse. Vary your online routine, rather than returning to the same sites every day. It’s not just that experiencing different perspectives and ideas and views is better for you – serendipity can be a shortcut to joy.” (Pariser zit.n. Popova 2011)[7]
Abschließende Bemerkung und Ausblick
In einer Welt, in der wir uns häufig getrieben fühlen, in der Zeit zum Luxusgut wird und ständig Informationen auf uns hereinprasseln, sind wir dankbar für alles, was uns hilft, das tägliche Chaos zu ordnen. Je weiter wir eindringen in eine dynamische und informationsintensive Umgebung, desto mehr wünschen wir uns etwas oder jemanden, der unsere Bedürfnisse versteht und das, was wir benötigen, bereitstellt. Dieses etwas, oder jemand, wenn man berücksichtigt, dass sich dahinter Menschen mit bestimmten Absichten befinden, das uns zumindest Erleichterung im Umgang mit der Online-Welt verschafft, ist die durch Algorithmen ermöglichte Personalisierung des Internets:
„Die Entwicklung von personalisierten Suchergebnissen ist unverzichtbar, wenn man in Betracht zieht, wie viele neue Daten täglich online gestellt werden. [..] In einer Welt der unbegrenzten Information und der begrenzten Zeit können gezielte und persönliche Ergebnisse durchaus die Lebensqualität der Menschen verbessern.“ (Stalder/Mayer 2011, S.2)[8]
Die Vorteile der personalisierten Angebote zu verkennen und das Potenzial der Personalisierung vollkommen ungenutzt zu lassen, wäre sicherlich naiv. Dennoch ist es nötig, eine Grundlage zu schaffen, auf der wir diesen Diensten mehr Vertrauen entgegenbringen können: Es benötigt u.a. Organe der Aufsicht, Transparenz bei der Art und Weise, wie Filter eingesetzt werden, und eine Stärkung der Datenschutzgesetze. Im Hinblick auf die riesigen Datenmengen, die abgespeichert werden, bedarf es einer Regelung des Zugangs zu diesen. Sowohl öffentliche Anfragen über Gerichte, als auch solche, die außerhalb der Öffentlichkeit liegen, müssen einer stärkeren Kontrolle unterliegen. Letztendlich liegt es an jedem von uns, sich die Frage zu stellen, ob wir bereit sind, den Komfort, den uns die Filter Bubble bietet, gegen ein Leben in Selbstbestimmtheit einzutauschen.
Weiterführende Links und Literatur
Zur Frage, ob Suchmaschinen nicht nur Märkte, sondern auch unser Denken beherrschen, ist bei der Bundeszentrale für politische Bildung der sehr gelungene Band „Deep Search. Politik des Suchens jenseits von Google“ erschienen. Am Beispiel des Internetgiganten Google wird die Bedeutung von Suchmaschinen und deren Funktionsweise untersucht sowie Ansätze diskutiert, wie in Gesellschaft und Politik auf deren Macht reagiert werden kann.
Zum Thema Überwachungsstaat findet sich
hier im Blog ein aufschlussreiches Video mit dem Titel „Überwachungsstaat – Was ist das?“, das die Thematik prägnant und verständlich zusammenfasst.
All diejenigen, die eine konkrete Anleitung bei der Frage wünschen, wie gegen den Filter Bubble-Effekt vorgegangen werden kann, werden auf der Website Eli Parisers unter „
10 Things you can do“ fündig.
Wer eine Alternative zu Suchmaschinen wie Google, Yahoo oder Bing sucht, findet bei DuckDuckgo einen adäquaten Ersatz. Diese verzichtet nach Angaben der Betreiber auf eine personalisierte Suche und auf die Aufzeichnung und Weitergabe persönlicher Daten ihrer Anwender (mehr dazu findet man unter dem Punkt „
Our Policy“).
Verwendete Quellen:
[1] Jäckel, Michael/Wollscheid, Sabine (2004): Mediennutzung im Tagesverlauf: Ausweitung des Angebots und Strukturen der Zeitverwendung. In: Statistisches Bundesamt. Forum der Bundesstatistik (Hrsg.): Alltag in Deutschland. Analysen zur Zeitverwendung, Bd. 43. Wiesbaden, S.373-411.
[2] Eimeren, Birgit van/Frees, Beate (2013): Rasanter Anstieg des Internetkonsums – Onliner fast drei Stundentäglich im Netz. ARD/ZDF-Online-Studie 2013. In: Media Perspektiven, 7-8/2013. Frankfurt a.M., S.358-372.
[3] Bitkom (2013a): Das WWW wird 20 Jahre alt. Online verfügbar unter: http://www.bitkom.org/de/presse/30739_76028.aspx , [zuletzt eingesehen: 16.07.14].
[4] The Broadband Commission for Digital Development (2013): The state of broadband 2013: Universalizing broadband. Online verfügbar unter:
http://www.broadbandcommission.org/Documents/bb-annualreport2013.pdf, [zuletzt eingesehen: 16.07.14].
[5] Bitkom (2013b): Die zehn größten Gefahren im Internet. Online verfügbar unter:
http://www.bitkom.org/de/presse/30739_74922.aspx, [zuletzt eingesehen: 16.07.14].
[6] Pariser, Eli (2012): Filter Bubble. Wie wir im Internet entmündigt werden. München: Hanser.
[7] Popova, Maria (2011): The Filter Bubble: Algorthim vs. Curator & the Value of Serendipity. How the Web gives us what we want to see, and that’s not necessarily a good thing. Online verfügbar unter:
http://www.brainpickings.org/index.php/2011/05/12/the-filter-bubble/, [zuletzt eingesehen: 16.07.14].
[8] Stalder, Felix/Mayer, Christine (2011): Der zweite Index. Suchmaschinen, Personalisierung und Überwachung. Online verfügbar:
http://www.bpb.de/gesellschaft/medien/politik-des-suchens/75895/der-zweite-index, [zuletzt eingesehen: 16.07.14].
[9] Schubert, Klaus/Martina Klein (2011): Postmaterialismus. In: Das Politiklexikon. Begriffe. Fakten. Zusammenhänge. 5., aktual. u. erw. Aufl. Bonn: Dietz. Online verfügbar:
http://www.bpb.de/nachschlagen/lexika/politiklexikon/18053/postmaterialismus, [zuletzt eingesehen: 16.07.14].
[10] Bohlken, Eike (2011): Die Verantwortung der Eliten. Eine Theorie der Gemeinwohlpflichten. Frankfurt a.M.: Campus.
[11] Weisberg, Jacob (2011): Bubble Trouble. Is Web personalization turning us into solipsistic twists? Online verfügbar:
http://www.slate.com/articles/news_and_politics/the_big_idea/2011/06/bubble_trouble.html, [zuletzt eingesehen: 18.07.2014].
[12] Reuters Institute (2014): Tracking the future of news. Digital news report 2014. Online verfügbar:
http://de.slideshare.net/NicNewman/reuters-institute-digital-news-report-2014-tracking-the-future-of-news, [zuletzt eingesehen: 18.07.2014].
[13] Abendschön, Simone (2010): Die Anfänge demokratischer Bürgerschaft. Sozialisation politscher und demokratischer Werte und Normen im jungen Kindesalter. Studien zur Wahl- und Einstellungsforschung, Bd. 18. Baden-Baden: Nomos
[14] Roberts, Russ (2012): Weinberger on Too Big to Know. EconTalk Episode with David Weinberger hosted by Russ Roberts. Talk about Echo Chamber starting at about 00:30:24.
[15] Busemann, Katrin (2013): Wer nutzt was im Social Web? ARD/ZDF-Online-Studie 2013. In: Media Perspektiven, 7-8/2013. Frankfurt a.M., S.391-399.
[16] Süddeutsche (2012): Ausweitung der Komfortzone. Eli Pariser im Interview mit Johannes Kuhn und Mirjam Hauck. Online verfügbar:
http://www.sueddeutsche.de/digital/eli-pariser-und-die-filter-bubble-ausweitung-der-komfortzone-1.1303419, [zuletzt eingesehen: 20.07.2014]