Netzneutralität

Wie steht es um die Netzneutralität?

Ein bestimmter Vorstoß verschiedenster Telekommunikationsanbieter wurde von vielen Seiten mit großer Sorge beobachtet, denn die Unternehmen haben vor eine künstliche Verknappung einer zentralen Infrastruktur des gesellschaftlichen und wirtschaftlichen Lebens herbei zu führen. Diese Verknappung, in Form der angekündigten Volumensbegrenzung ist weder technisch noch wirtschaftlich notwendig. Wenn fehlende Kapazitäten solche Maßnahmen bedingen, stellt das den eigentlichen Skandal dar. Der Verbrauch von Bandbreite ist zwar in den letzten Jahren exponentiell gewachsen, stellt allerdings nichts dar, womit ein internationaler Konzern, nicht rechnen, beziehungsweise sich darauf vorbereiten hätte können.

Der immer weiter steigende Bandbreiten- und Volumenbedarf wird von einem tiefgreifenden Wandel in Wirtschaft und Gesellschaft angetrieben. Dieser Nachfrage nach zunehmender Vernetzung mit einer Verknappung des Netzzuganges zu begegnen macht marktwirtschaftlich keinen Sinn und ist volkswirtschaftlich gefährlich.
Ein Volumen-Limit wird die Entwicklung gewisser datenintensiver Internetdienste abbremsen bzw. einen rückläufigen Trend entwickeln. Datensicherung in der Cloud, Musik- und Film-Streamingdienste, Teleworking und eLearning können mit Verträgen inklusive Bandbreitenlimitierungen nicht mehr sinnvoll oder nur noch in niederer Qualität genutzt werden.

Werden eigene Angebote (wie angekündigt) bevorzugt, kommt dies der Abschaffung der Netzneutralität gleich, da ein doppelter Markt eingeführt wird. Neutrales Internet wird nur noch in Kontingenten verkauft und alle darüber hinaus gehenden Dienste werden auf einem eigenen Markt gehandelt. Dort ist dann nicht mehr der Kunde, sondern der Netzbetreiber Akteur. Die daraus resultierende Ungleichbehandlung von Datenströmen durch den Provider ist der Grund wieso Chile, die Niederlande oder Slowenien bereits Gesetze zum Schutz der Netzneutralität erlassen haben. Provider gefährden durch Eingriffe in die Neutralität der Netzinfrastruktur sowohl den Markt als auch die Meinungsfreiheit in ihren Netzen, was im Falle von großen Anbietern wie eben der Deutschen Telekom diese Frage letztendlich zu einer politischen anstelle einer rein wirtschaftlichen Entscheidung macht.

Was das Internet aber zu einem so guten Katalysator für Innovation und Vielfalt macht, ist genau diese Netzneutralität. Neue Ideen sind schnell umgesetzt, die Markteintrittshürde ist gering, etablierte Angebote und Newcomer stehen gleichberechtigt nebeneinander und Kunden haben absolute Wahlfreiheit. Diese Charakteristik begründet sich in der Neutralität der Infrastruktur: Welche Kommunikation stattfindet, wird ausschließlich an den Endpunkten des Netzwerks – beim Kunden einerseits und beim Anbieter andererseits – entschieden, das Netzwerk selbst trifft hingegen keine Unterscheidungen über die Priorität, Qualität oder Legalität eines Datenpaketes.

Einmal mehr wäre Transparenz eine Option, welche Klarheit in diese Belange bringen könnte. Die Verpflichtung für Netzbetreiber, die Kapazitäten ihrer Infrastruktur offen zu legen, würde besonders in Österreich mit seiner hohen staatlichen Förderung von Infrastrukturinvestionen auch im Sinne der Transparenz staatlichen Handelns eine sinnvolle Maßnahme darstellen.

 

Grundlegende Veränderungen durch technologische Entwicklung

Seit Bekanntwerden der Überwachungsaffäre rund um PRISM sind Medien und Laien an Technologien interessiert, die bisher nur für einen kleinen Kreis von technikaffinen Menschen von Bedeutung waren.
Die Auskenner, die Ewigmorgigen, die Avantgarde der Hightech-Spießer haben eine ganz andere Sicht auf technologische Entwicklungen als der Durchschnittsbürger.

Als in den Fünfzigerjahren Bildschirme für Computer eingeführt wurden, wiesen sie diese Zumutung von sich. Was sollte man von Menschen halten, die keine Ahnung vom Lochkartenstanzen haben? Als in den Siebzigerjahren das Betriebssystem Unix seinen Siegeszug durch die akademisch-digitale Welt antrat, entstand eine neue Art von Gurutum. Unix war komplex und mächtig, und unter anderem unerlässlich, um ein Netzwerkprotokoll namens „Internet“ zu bedienen. Zugleich gab es eine neue Art von blutigen Anfängern, die ihre Spielzeugcomputer („PC“, “MacIntosh“) mit fahrbaren Hilfetasten für Idioten („Maus“) bedienten.
1993 dann der Schock: Marc Andressen programmierte den ersten visuellen Browser für’s Internet, den sogar ältere Damen mit Hut nach zehn Minuten bedienen konnten – ohne jemals etwas von Unix gehört haben zu müssen. Dies war eine schwere narzisstische Kränkung. Die Welt war danach eine Andere.

Es ist kein Verdienst, schon ganz früh dabei gewesen zu sein. Auch wenn das für viele Neuland sein dürfte: Niemandem nützt es heute noch etwas, wenn er erfährt, wie man eine virtuelle Lochkartenstanze in einem IBM-Mainframe bedient oder wie man auf einem C64 ein Maschinenspracheprogramm startet. Als historisches Wissen fördert es das Verständnis und sollte deshalb einen angemessenen Stellenwert haben. Aber das Wissen über die sich entwickelnde digitale Welt wird immer schneller historisch.
Technologische Entwicklungen erfolgen so schnell und verändern die Natur unserer Gesellschaft so grundlegend, dass wir Gefahr laufen, über unser eigenes Schicksal nicht mehr selbst bestimmen zu können. Neue Systeme können es Regierungen ermöglichen, große Datenmengen über Privatpersonen zu sammeln und dadurch in letzter Konsequenz die Freiheit des Individuums einschränken.

Wenn wir möchten, dass alle so von Technologie begeistert sind wie die Enthusiasten unter uns, müssen wir dafür sorgen, dass auch alle an dieser interessanten Reise in die Zukunft teilhaben können. Nur gemeinsam können wir kritisch an einer Weiterentwicklung arbeiten. Im Moment gibt es die Lösung noch nicht. Die Entwicklung ist das Wesentliche. Überall auf der Welt versuchen Menschen zu lernen, wie man online miteinander umgehen kann. Wie man im Internet leben kann. Wir sollten alle einladen nicht nur die öffentlich gewordenen Überwachungssysteme kritisch zu hinterfragen, sondern auch aktiv an möglichen Zukunftsszenarien zu arbeiten.

Computer als Arbeitswerkzeug

Im Gegensatz zu mobilen Geräten, beeindruckte der PC für lange Zeit vor allem jene Personen, die den Computer als (Arbeits-)Werkzeug schätzten. Programmiererinnen waren angeregt durch die Möglichkeit, sich tief in die Interna des Maschinen-Codes einzugraben. Sollte es notwendig sein, könnte man sogar seinen eigenen Kernel schreiben. Diese Gruppe von Anwenderinnen lehnt Einschränkungen, wie sie bei neumodischen intelligenten Geräten üblich sind, ab. Die durchschnittliche Nutzerin eines Power-PCs erkennt, dass die vorherrschende Art des Umgangs auf mobilen Geräten zwar gut für Muggels ist, aber für die eigene Arbeitsweise keine Stützräder gebraucht werden.

Es existiert eine Tendenz den Universalrechner als Repräsentant einer Befreiungsbewegung anzuerkennen. Aus einer ganzen Reihe an Gründen, von der Beseitigung größerer Probleme des Urheberrechts bis zur Förderung revolutionärer Gedanken, sollte der PC-Stil erhalten bleiben. Der Webboom beschert uns eine Neuauflage des Großrechner-Terminal-Modells. Es ist keineswegs sicher, dass es gegenüber den dezentralen Ansätzen wie dem Personal Computing wieder die Oberhand erringen wird. Ohne unsere chaotischen Maschinen besteht die Gefahr, dass das Internet ähnlich dümmlich wird, wie Fernsehen.

Der PC wurschtelt sich währenddessen weiter und windet sich einen Weg ins technische Ghetto. Muggels wechseln in Scharen zu App-Plattformen (weil das Leben einfach zu kurz ist), während der PC zunehmend ein Gerät von Entwicklerinnen für Entwicklerinnen wird. Über die Zeit wird sich die Balance zwischen „richten“ Computern und App-Plattformen verschieben. Wofür und von wem wird der PC dann noch verwendet?

Ende des Universalrechners

Das Ende des Universalrechners wirft seine Schatten voraus. Durch zunehmenden Druck kommt es zu Veränderungen. Die Welt in der wir heute leben wird von Computern bestimmt. Selbst die einfachsten Gerätschaften sind meist schon Universalrechner mit spezieller Software. Die Folgeerscheinungen der weiteren Entwicklung unserer computerisierten Welt sind noch völlig unklar. Immer deutlicher wird hingegen, dass Restriktionen nicht zum gewünschten Ziel führen.
An einem Beispiel wird die grundsätzliche Veränderung besser deutlich: Die Verordnungen bezüglich Rundfunkgeräten basieren auf der Idee, dass die Eigenschaften eines Gerätes zum Zeitpunkt der Herstellung festgelegt werden und danach nicht mehr verändert werden können. Es ist nicht möglich im Babyfon einen Schalter umzulegen um andere Signale einzufangen. Für leistungsfähige softwaregestützte Signalempfänger genügt das Einspielen einer Erweiterung um den Funkverkehr von Notdiensten oder Fluglotsen mithören zu können.
Als Konsequenz darauf ergibt sich die Frage ob Computer versiegelt werden sollten um nur von einer zentralen Behörde erlaubte Programme ausführen zu können.

Die Zukunft lässt sich durch den Nebel der Unsicherheit bereits erahnen. Die 3D-Druck-Technologie wird Anlass für viele kleine und größere Beschwerden sein. Richterinnen und Richter werden sich mit vielfältigen Fällen beschäftigen müssen. Viele Möglichkeiten des 3D-Drucks können wir uns heute noch nicht einmal vorstellen.
Es braucht keinen Science-Fiction-Schriftsteller um zu verstehen warum Regulierungsbehörden zunehmend nervös werden. Durch den Benutzer veränderbare Firmware in selbstfahrenden Autos oder das Potenzial von DNA-Sequenzern – die Perspektiven sind beunruhigend. Stell dir vor, was passieren wird wenn Monsanto eines Tages beschließt, dass es wirklich wichtig ist sicherzustellen, dass Computer nicht Programme ausführen können die spezialisierte Peripherie dazu bringt benutzerdefinierte Organismen zu produzieren die dein Mittagessen verzehren. Ende des Universalrechners weiterlesen