Mitte April 2013 löste eine Meldung der Telekom eine wahre Flut an Entrüstung aus. Die Ankündigung, Internetanschlüsse nach Erreichen eines bestimmten Datenvolumens, bei dessen Berechnung – und hier liegt die eigentliche Sprengkraft der Nachricht – eigene Dienste jedoch nicht mitgezählt würden, auf eine sehr geringe Datengeschwindigkeit zu drosseln, beherrschte nicht nur für mehrere Tage die Nachrichtenseiten, sondern führte außerdem auch zu Petitionen und Demonstrationen. Ein wahrer Shitstorm brach über die Telekom herein und der große Konsens war, dass das nun ironisch als „Drosselkom“ bezeichnete Unternehmen ein enorm wichtiges Prinzip der Netzwelt, nämlich das der Netzneutralität, verletze und aushebele.
Die Debatte um eben dieses Prinzip gibt es schon seit einigen Jahren, jedoch ist sie teilweise emotional sehr aufgeladen und diffus. Was ist also dran an der Diskussion und worum geht es bei diesem viel zitierten Wort der „Netzneutralität“? Der folgende Beitrag soll einen Einstieg in die Debatte bieten, in dem er sich zum einen mit der Definition und den Hintergründen davon beschäftigt und zum anderen die Argumentationen von beiden Seiten betrachten will.
Ursprung und Definitionen
Der Begriff der Netzneutralität stammt ursprünglich aus dem Englischen (network neutrality oder abgekürzt net neutrality) und wurde von Tim Wu in seinem 2003 erschienenen Aufsatz „Network Neutrality, Broadband Discrimination“ geprägt. Für den Begriff selbst gibt es eine Vielzahl an unterschiedlichen Definitionen, die sich vor allem darin unterscheiden, wie weitreichend sie sind.
Ganz grundlegend bei der Idee der Netzneutralität ist das Prinzip, dass Datenpakete im Internet gleich behandelt werden sollen. Geht man von einer sehr engen Definition aus, erstreckt sich diese Gleichbehandlung auf alle Daten, „unabhängig von Inhalt, Herkunft, Ziel oder Art des Dienstes“ (Becker 2008, 31).
Eine ähnliche Definition findet sich auch auf der deutschen Wikipedia. Sie versteht unter Netzneutralität „die wertneutrale Datenübertragung im Internet. Netzneutrale Internetdienstanbieter (englisch internet service provider) senden alle Datenpakete unverändert und in gleicher Qualität von und an ihre Kunden, unabhängig davon, woher diese stammen, zu welchem Ziel sie transportiert werden sollen, was Inhalt der Pakete ist und welche Anwendung die Pakete generiert hat“ (http://de.wikipedia.org/wiki/Netzneutralit%C3%A4t). Bei dieser Definition findet sich zusätzlich der Hinweis auf die Internetanbieter und deren Verantwortung in Bezug auf die Netzneutralität.
Die englische Wikipedia sieht weiterhin auch noch die jeweiligen Regierungen in der Verantwortung und erweitert die Liste des deutschen Artikels noch um vorhandene Anhänge, die ebenfalls wertneutral behandelt werden sollen (vgl. http://en.wikipedia.org/wiki/Net_neutrality). Dieser engen Definition setzt Vogelsang eine eher moderatere entgegen, nämlich dass „eine netzseitige Chancengleichheit des Wettbewerbs zwischen Content- und Dienstanbietern“ (Vogelsang 2007, 220) bestehen soll, bei der folglich ein größerer Interpretationsspielraum besteht, in dem man die Netzneutralität verorten kann.
Diese oben genannten Definitionen sind nur ein kleiner Teil der vorhandenen, denn sowohl die Literatur als auch die Internetgemeinde sind sich nicht einig, was man unter Netzneutralität verstehen soll. Worum geht es also bei den unterschiedlichen Forderungen?
Technische Hintergründe
Um dies nachvollziehen zu können, muss man sich anschauen, wie das Internet in seiner Struktur funktioniert. Dies kann an dieser Stelle nur auf einer oberflächlichen Basis erfolgen, die aber zumindest darlegen sollte, welche Problematik bei der Netzneutralität wichtig ist.
Das „Netz“, das der Begriff „Netzneutralität“ inkludiert, ist das Internet, eine Zusammensetzung der Begriffe „Interconnected Networks“ (Möller 2012, 21). Es setzt sich zusammen aus vielen verschiedenen Netzwerken, die miteinander verbunden sind. Beispiele dafür können Firmen-, Forschungs- oder auch Universitätsnetzwerke sein. Ebenfalls gehören die sogenannten Providernetzwerke dazu, also alle Kunden eines Internetanbieters.
Verbunden werden diese einzelnen Netzwerke von Routern, die dafür sorgen, dass die Informationen untereinander ausgetauscht und verstanden werden. Sie sind dafür verantwortlich, Datenpakete in die jeweils korrekte Richtung zu versenden und bilden somit die Knotenpunkte des Internets (vgl. http://de.wikipedia.org/wiki/Internet#Technik). Die Aktivistengruppe Anonymous verwendet in ihrem Video zur Wichtigkeit von Netzneutralität das Bild von einer Straße, auf der viele verschiedene Datenpakete unterwegs sind und deren Kreuzungen von Routern betrieben werden, welche die Datenpakete auf die jeweils korrekte Route leiten.
Das bisherige Prinzip, nach dem die Daten behandelt wurden, nennt sich das Best-Effort-Prinzip. Dieses besagt, dass alle Daten mit größtem Bemühen und schnellstmöglich weitergeleitet werden (vgl. http://de.wikipedia.org/wiki/Best-Effort-Prinzip). Sofern es trotzdem zu Staus beziehungsweise zu Überlastungen im Netz kommt, wird nach dem First-in/First-Out-Prinzip vorgegangen, so dass keine Daten bevorzugt werden, sondern alle nach der Reihenfolge ihres Eintreffens abgearbeitet werden (vgl. Becker 2008, 31).
Als beteiligte Akteure, die in Bezug auf die Netzneutralität von Bedeutung sind, gibt es zum einen die Internet Service Provider (im folgenden ISPs genannt), also diejenigen Unternehmen, die den Privatkunden die Möglichkeit geben, sich mit dem Internet zu verbinden, und somit die Netze zur Verfügung stellen. Außerdem wichtig sind die Endkunden und die Content Provider, also diejenigen, die Inhalte oder Dienste im Internet anbieten (vgl. Dewenter 2007, 6f). Die Knotenpunkte für die Daten liegen bei den Routern und an genau dieser Stelle kann Einfluss auf die jeweiligen Pakete genommen werden.
Becker zählt bei den Möglichkeiten der Einflussnahme, die man je nach Einstellung zu dem Prinzip entweder positiv als Netzwerkmanagement oder negativ als Verletzung der Neutralität ansehen kann, drei Möglichkeiten auf: das Access-Tiering, das Blocking und die Preisdiskriminierung. Bei der ersten Variante handelt es sich um eine Abkehr von dem oben beschriebenen Best-Effort-Prinzip. Hierbei werden den unterschiedlichen Datenpaketen, je nach Anwendungsart, sogenannte Quality of Service-Levels zugewiesen, und je nachdem wie stark diese von einer optimalen Vermittlung abhängig sind, werden sie priorisiert behandelt. Echtzeitdienste stehen dann an oberster Stelle, da Verzögerungen zu starken Qualitätseinbußen führen können (vgl. Becker 2008, 32). Die Unterscheidung der Daten ist mittlerweile durch „Deep Packet Inspection“ technisch möglich (vgl. http://de.wikipedia.org/wiki/Deep_Packet_Inspection).
Werden bestimmte Inhalte oder Anwendungen blockiert, so spricht man hierbei von der zweiten Möglichkeit, also dem Blocking oder auch Diskriminierung genannt. Ein Beispiel dafür wären Spam-Mails (vgl. Becker 2008, 33). Die dritte Variante „Preisdiskriminierung (oder auch Preisdifferenzierung) liegt vor, wenn ein Unternehmen für ein- und dasselbe Gut oder eine Dienstleistung von den Kunden unterschiedlich Preise verlangt“ (Becker 2008, 33).
Warum überhaupt die Diskussion?
An den Schnittstellen, bei denen lenkend eingegriffen werden kann, setzt die Diskussion um Netzneutralität an, doch es bleibt zuerst die Frage, warum es überhaupt zu Veränderungen kam und man nicht einfach bei dem bisherigen Modell bleiben kann oder will.
In den letzten Jahren haben sich zum einen Internetanwendungen und damit einhergehend auch das Datenvolumen vervielfacht. Martini nennt in seinem Beitrag „Wie viel Gleichheit braucht das Internet? – Netzneutralität zwischen kommunikativer Chancengleichheit und Infrastruktureffizienz“ aus dem Jahr 2011 ein Volumen von 2,6 Milliarden Gigabyte, welches jährlich durch die deutschen Netze wandere (vgl. Martini 2011, 7), eine Datenmenge, die beständig weiter wachsen wird.
Vor allem aber haben sich auch die Anwendungen verändert. Plattformen wie beispielsweise YouTube oder im amerikanischen Raum Netflix sorgen mit ihren Videoangeboten für ein enormes Datenvolumen. Bei diesen handelt es sich um datenintensive Dienste, bei denen es wichtig ist, dass diese Datenpakete zuverlässig und schnell übertragen werden. Dazu gehört beispielsweise auch die Internettelefonie (vgl. Martini 2011, 7f).
Dieses wachsende Datenvolumen stellt die vorhandenen Netze vor Herausforderungen, für die es zwei Lösungsansätze gibt. Der eine davon wäre der Netzausbau, den Martini zwar als den „Königsweg“ (Martini 2011, 8) bezeichnet, der aber seiner Ansicht nach schwer umsetzbar ist, da vor allem die Endkunden häufig nicht zu höheren Zahlbeträgen bereit sind (vgl. Martini 2011, 9). Inwieweit es in der Vergangenheit von den ISPs versäumt wurde, in diesen Ausbau zu investieren, wäre eine andere Frage, die er nicht näher thematisiert. Die zweite Möglichkeit, die Martini anführt, ist das Netzwerkmanagement, also die differenzierte Behandlung von Daten und somit genau das, was laut dem Prinzip der Netzneutralität nicht passieren soll.
Ein Überblick über die Debatte
Im Folgenden sollen nun die Argumentationen und Sichtweisen von Befürwortern und Gegnern der Netzneutralität dargelegt werden, mit dem Ziel, zu einer Gegenüberstellung zu kommen, die als Grundlage dienen kann, um zu einem Urteil bezüglich der Netzneutralität zu gelangen.
Matthias Bärwolff merkt nicht zu Unrecht an, dass die Diskussion um Netzneutralität enorm aufgeladen ist und „wer heute gegen Netzneutralität ist, macht sich praktisch per Definition verdächtig, nicht nur im Bunde mit profitgierigen Internet-Providern zu stehen, sondern auch gegen Freiheit, Gleichheit und Brüderlichkeit im Internet zu sein“ (Bärwolff 2011, 1).
Wenn man Veröffentlichungen von Internetaktivisten betrachtet, so entsteht dieser Eindruck relativ schnell, und es wird selten eine differenzierte Meinung dargeboten. Stattdessen wird, teilweise sehr populistisch, das Ende des Internet prognostiziert oder von der Netzneutralität als „dead man walking“ gesprochen.
Vom Prinzip her eine moralisch wertvolle Forderung, mit dem Ergebnis eines demokratischen Netzes, bei dem jeder dieselben Chancen hat und welches ein „enormes gesellschaftliches und wirtschaftliches Entwicklungspotential“ (Martini 2011, 8) besitzt, kann die extreme Auslegung von Netzneutralität doch auch an Grenzen stoßen. Werden selbst bei einer Überlast im Internet alle Daten exakt gleich und neutral behandelt, so bedeutet dies unterschiedliche Auswirkungen bei den jeweiligen Diensten. In diesem Fall sind interaktive Anwendungen und Echtzeitdienste, also beispielsweise die Internettelefonie, viel stärker von Verzögerungen betroffen. Im Vergleich dazu führen Datenstaus bei E-Mail-Andwendungen oder beim Filesharing eher zu einer schwächeren Wahrnehmung der Störungen (vgl. Kruse 2011, 4). Ist es also wirklich im Sinne aller Anwender, dass sämtliche Daten immer gleich behandelt werden oder können dabei auch Nachteile entstehen?
Wenn beispielsweise lästige Spam-Mails blockiert werden, ist dafür sicher keiner der potentiellen Empfänger undankbar. Kruse verteidigt genau deshalb eine weniger strikte Auslegung von Netzneutralität, nämlich „dass alle Datenpakete gleich behandelt werden, die den gleichen Preis für den Transport zahlen, vorausgesetzt, dass jeder Nutzer frei entscheiden kann, welche Qualität (d.h. welche Priorität) er wählt“ (Kruse 2011, 4). Nur dann könne man von einer adäquaten Netzneutralität sprechen, da nur diese Form ökonomisch effizient wäre. Führt eine Überlast bei Diensten, die in ihrem wirtschaftlichen Wert höher sind, zu einer ständigen Qualitätsminderung, so kann dies auch die Attraktivität bei Kunden schmälern. Diese Anwendungen werden dann unter Umständen „durch den geringerwertigen Dienst vollständig verdrängt“ (Kurse 2011, 11). Dazu zählt Kruse solche Dienste, die nicht datensensitiv sind, das heißt E-Mails, File-Sharing oder auch das ganz banale Surfen.
Ökonomisch gesehen wäre dies die sinnvollere Variante, da eine stabile Qualität natürlich den Wert der Anwendungen steigert und man die Verzögerung bei den weniger datensensitiven Diensten nicht so stark bemerkt (vgl. Kruse 2011, 10f). Allerdings wird hierbei trotzdem Datendiskriminierung betrieben, sei es auch unter dem Deckmantel der Nutzerfreundlichkeit, und die ISPs werden faktisch zu „Verkehrspolizisten“ (Martini 2011, 12). Kritiker merken zu Recht an, dass dies auch der erste Schritt hin zu einem Machtmissbrauch sein könnte.
Besonders bei Unternehmen, die nicht nur reine Zugangsanbieter sind, sondern auch eigene Dienste kostenpflichtig an den Mann bringen wollen, sogenannte vertikal integrierte Dienstleister, besteht diese Gefahr natürlich verstärkt. Die Option, eigene Dienste bevorzugt zu behandeln und die Möglichkeit, die „Verkehrslenkungsfunktion für ihre wirtschaftlichen Ziele auszunutzen“ (Martini 2011, 12) ist eine Versuchung und wurde auch bereits in der Vergangenheit teilweise praktiziert. Ein Beispiel dafür wäre die Blockierung der Mobilfunkanwendung von Skype, die von T-Mobile eine Zeit lang auf dem iPhone blockiert wurde.
Der potentielle wirtschaftliche Verlust durch die Abwicklung von Telefonaten über Skype sorgte also dafür, dass das Unternehmen seine Macht gegenüber den Kunden, in diesem Fall klar zu deren Nachteil und seinem Vorteil, ausnutzte. Auch Comcast, ein Anbieter auf dem amerikanischen Markt, blockierte den Zugang zu Datenaustauschdiensten, mit denen man Bilder, Videos oder Musik tauschen konnte (vgl. Martini 2011, 13). Ebenfalls gab es bereits Beispiele für Zensur, indem Internetseiten, die sich kritisch mit dem Anbieter Freenet auseinandersetzten, gesperrt wurden. Ein möglicher düsterer Ausblick auf die Zukunft oder nur ein Einzelbeispiel - ganz unberechtigt scheinen solche Befürchtungen jedenfalls nicht zu sein.
Dass die Netzbetreiber in den oben genannten Fällen aus Eigennutz so handelten, ist relativ deutlich ersichtlich. Ihre Argumentation in dieser Hinsicht kann jedoch teilweise nachvollzogen werden. Als Netzbetreiber sind sie die Einzigen, die in den Ausbau der nötigen Infrastruktur investieren, während die großen Gewinne dabei aber häufig von den Content Providern eingestrichen werden. Martini nennt ein Verhältnis des Gesamtumsatzes zwischen Inhalte- und Netzanbietern von 62 zu 17 Prozent (vgl. Martini 2011, 15). Die Forderung einer gerechteren Lastverteilung der Kosten für den Netzausbau ist also bei diesen Zahlen nachvollziehbar.
Allerdings merkt Martini auch an, dass das Verhältnis zwischen diesen beiden Akteuren ein komplementäres darstellt und die Teilhabe an den Kosten somit zweischneidig sein könnte. „Zwar lässt sich fragen: Was wäre Google ohne die Transportnetze? Umgekehrt gilt es aber auch zu fragen: Was wären die Netze ohne Google, Facebook, Twitter und Tausende anderer Anwendungen?“ (Martini 2011, 18). Ein zweiter Punkt, den er für bedenkenswert hält, ist die Frage, ob durch die Machtkonzentration auf die ISPs und somit die auf diese entfallende Entscheidungsgewalt bezüglich Inhalten, dafür sorgt, dass der „Innovationsmotor Internet ins Stottern“ (Martini 2011, 18) gerät.
Die Grundidee des Internets besteht darin, dass man lediglich einen einzigen Zugang benötigt, um auf sämtliche verfügbare Inhalte zugreifen zu können. Damit einher geht die Möglichkeit der ökonomischen Teilnahme, da das Internet niedrige Marktzutrittschancen vorweist, sowie die Option, es in Bezug auf die „demokratische(…) Gesellschaft“ (Martini 2011, 27) als Partizipationsmöglichkeit wahrnehmen zu können.
Wenn die ISPs nun beginnen würden, mit den Content Providern über Zugangsmodelle zu verhandeln, könnte dies darin resultieren, dass kleinere Startups möglicherweise nur sehr geringe Chancen haben, sich durchzusetzen. Martini merkt an, dass „die große Mehrheit der erfolgreichsten Internetanwendungen unserer Zeit ihren Siegeszug von der Hinterhof-Garage an die Wall Street“ (Martini 2011, 24) antraten und dies nur möglich war, da sie nicht von vornherein mächtige Konkurrenzunternehmen als Verhandlungsgegner hatten (vgl. Martini 2011, 24f).
Somit könnte das sogenannte „multi-sided-pricing“, also die Aufteilung der Kosten auf alle beteiligten Akteure, durchaus dazu führen, dass sich Innovationen, die eventuell viel mehr im Interesse des Nutzers wären, nicht immer durchsetzen (vgl. Martini 2011, 25). Auch bleibt die Frage, ob diese Formen von Netzwerkmanagement dazu führen könnten, dass die dringend notwendigen Investitionen in den Netzausbau ausblieben, etwas, das kaum im Interesse der Gesellschaft sein kann (vgl. Martini 2011, 27).
Die Möglichkeiten der Zensur, die sich durch die Kontrolle von Inhalten ergeben, ist ein weiterer Punkt, der sehr kritisch zu betrachten ist, denn das Netz „hält nicht nur ein unerschöpfliches Reservoir an Informationen vor, sondern ist spätestens mit dem Web 2.0 universelles Partizipationsinstrument mit einem nie dagewesenen Maß an Pluralität und Interaktion geworden“ (Martini 2011, 27f). Eine negative Entwicklung in dieser Hinsicht wäre sicher ein Rückschritt und nicht im Sinne der Nutzer.
Schlussbetrachtung
Diese Ausführungen können sicherlich nur einen kleinen Teil der großen Diskussion um pro und contra, sowie um Definitionen der Netzneutralität darstellen. Den potentiellen Nachteilen von Datenstaus und dem Wunsch der ISPs nach einer Kostenaufteilung stehen dabei die Befürchtungen um Machtmissbrauch, der sich sowohl ökonomisch als auch gesellschaftlich negativ auswirken könnte, sowie die Angst vor einer Art „Einheitsbrei Internet“ gegenüber.
Unabhängig davon, welche Seite nun Recht hat, erscheint eine Regulierung, die zumindest einen Teil der Bedenken auflöst, wünschenswert. Hierbei ist es meiner Meinung nach essentiell, dass man vor allem neutral an dieses Vorhaben herangeht und zumindest der Versuch unternommen wird, die Diskussion weniger emotionsgeladen zu führen.
Die zu Beginn des Beitrags genannte Uneinigkeit bezüglich einer genauen Definition der Netzneutralität erschwert eine Regulierung zusätzlich. Simon Möller scheint in seinem Aufsatz zu eben dieser Problematik zu Recht die Metapher eines „Klappstuhl-Prinzip(s)“ (Möller 2012, 17) zu verwenden. Versuche man diesen aufzubauen, so stelle einen dies vor folgendes Problem: „Hat man auf der einen Seite (der Definition) einen sinnvollen Ansatzpunkt gefunden, muss man regelmäßig feststellen, dass sich auf der anderen Seite (der praktischen Anwendbarkeit) Veränderungen ergeben, die das Konzept der „Netzneutralität“ entweder völlig unpraktikabel oder völlig ineffizient machen“ (Möller 2012, 17).
Er spricht hierbei also nicht nur die Problematik einer Definition an, sondern inkludiert ebenfalls auch die Notwendigkeit, zu bedenken, dass diese Definition auch anwendbar sein muss. Ob eine nationale Regulierung des Prinzips überhaupt sinnvoll ist, in Anbetracht der Tatsache, dass sich das Internet in einem globalen Raum bewegt, bleibt eine offene Frage.
Literatur
Bärwolff, M. (2011): Netzneutralität: Fünf Fragen und Antworten. Abgerufen am 11.01.2014 unter http://www.bärwolff.de/publications/2011-01-Netzneutralitaet.pdf.
Becker, A. (2008): Die Diskussion um die Netzneutralität. In: MedienWirtschaft, Jg. 5, Heft 2/2008, S. 30-34.
Dewenter, R. (2007): Netzneutralität. Abgerufen am 10.01.2014 unter www.hsu-hh.de/download-1.4.1.php?brick_id=Xm2gxEVQumfc4aM8.
Kruse, J. (2011): Netzneutralität - Soll die Neutralität des Internet staatlich reguliert werden? Abgerufen am 11.01.2014 unter www.hsu-hh.de/download-1.4.1.php?brick_id=YAdWQj0lRzRy4fIE.
Martini, M. (2011): Wie viel Gleichheit braucht das Internet? Netzneutralität zwischen kommunikativer Chancengleichheit und Infrastruktureffizienz. Abgerufen am 27.12.2013 unter http://www.dhv-speyer.de/PUBL/Vortraege/Heft96.pdf.
Möller, S. (2012): Was ist eigentlich Netzneutralität? In: Krone, J.; Pellegrini, T. [Hrsg.]: Netzneutralität und Netzbewirtschaftung. Multimedia in Telekommunikationsnetzwerken. Baden-Baden, S. 17-35.
Vogelsang, I. (2007): Infrastrukturwettbewerb und Netzneutralität. In: Picot, A.; Freyberg, A. (Hrsg.): Infrastruktur und Services – Das Ende einer Verbindung?, Berlin, S. 219-233.
Keine Kommentare:
Kommentar veröffentlichen