Im ersten Teil der Reihe beschäftige ich mich mit der Aufarbeitung der Netzsperrendiskussion. Nach einem Jahr ist es Zeit, diese Debatte noch einmal unemotional und analystisch auszubreiten. Eine Beschäftigung mit der damaligen Frage beinhaltet die Grundlage dessen, wo und in welcher Weise der Korridor einer Politik im Internet verlaufen kann und welche Fallstricke es dabei zu vermeiden gilt.
Es ist viel passiert, zwischen der re:publica letztes Jahr und dieses mal. Wie schon der 26c3 stand die re:publica unter den Eindrücken und dem Relevanzgewinn, den die Netzszene mit ihren Themen im Zuge der Zensursula-Debatte gewonnen hatte. Plötzlich ist man nicht mehr nur ein Häuflein irrlichtener Nerds, die einer speziellen Vorliebe nachgeht, sondern ein politischer und gesellschaftlicher Faktor. So fühlte sich das an: größer, wichtiger, relevanter, irgendwie auch erwachsener und das ist auch richtig so.
Zensursula ist ein Epochemachendes Ereignis gewesen, so muss man das wohl einordnen. Es wirkte damals, als seien die Leute aus dem Netz wie ein einziger Mensch aufgestanden und hätten in vollkommener Einigkeit und mit voller Wucht auf den Tisch gehauen. Der Kontrolle über die Internetinhalte musste Einhalt geboten werden. Alle waren sich einig!
War es so?
Auf der re:publica haben wir – Dirk Baranek, Christian Heller und ich – der Netzcommunity die Gretchenfrage einfach mal ganz offen gestellt: Wie weit darf der Eingriff des Staates und des Rechts in das Netz gehen? Oder: „Darf denn Freiheit grenzenlos sein?„. Dafür nahm Dirk Baranek die Extremposition ein, dass Rechte (zumindest die Menschenrechte) unter allen Umständen auch im Internet durchgesetzt werden müssen, was in der Forderung gipfelte, die UNO möge in das Internet einmarschieren. Christian Heller hingegen vertrat die maximale Position, dass egal um welche Äußerung es sich handele, es illegitim sei, diese Äußerung in irgendeiner Art zu zensieren. Ich moderierte. Es dauerte nur sehr kurze Zeit bis wir das gesamte Publikum, das man ohne Übertreibung so gut wie ausnahmslos den Netzsperrengegnern zuordnen konnte, polarisiert hatten. Eine Diskussion entbrannte im Publikum, die emotional und unerbittlich geführt wurde. Was dabei herauskam war kein Ergebnis, das nicht, aber ein Aufbrechen einer vermeintlichen homogenen Masse, die sich nur nach Außen, in Richtung Zensursula und den Politischen Akteuren homogenisiert hatte.
Die Diskussion war eines der interessantesten und erhellendsten Erlebnisse, die ich auf der re:publica hatte. Denn der allgemein angenommene Konsens ist mitnichten so einträchtig, wie gedacht. In Sachen Durchsetzung von Normen und Werten wurden tatsächlich eine ganze Menge Forderungen an das Internet herangetragen, was viele sicher erschreckt haben dürfte. Diese Homogenität aufgebrochen zu haben, ist wichtig, um die Diskussion auf einer ehrlicheren, grundsätzlichen Basis führen zu können.
Denn ich glaube, dass diese Diskussion, genau so wie die Netzsperrendiskussion insgesamt, am eigentlichen Problem vorbei geht. Die Frage ist nicht, wo wir die Grenze ziehen, sondern ob. Es gibt hier keine noch so ausgefeilten Grauwerte und die Frage ist auch nicht, welche unserer Werte universell genug sind, damit wir sie im Internet durchgesetzt sehen wollen oder gar müssen. Vielmehr geht es um die Frage, ob wir eine Infrastruktur im Internet zur Durchsetzung – welcher Werte auch immer – aufbauen, oder nicht.
Der politische Kontrollverlust
Es ist also die Frage nach dem Umgang mit dem Kontrollverlust. Es ist meine Frage, die ich hier immer wieder thematisiere, diesmal ist sie es allerdings auf einer sehr konkreten Ebene und mit einer enormen Reichweite. Es ist nämlich nicht zuletzt die Frage, in wie weit eine „gestaltende Politik“ im Internet überhaupt möglich ist. Die Krux an dieser Frage ist nämlich, dass sie keine Kompromisse kennt. Wo immer die Politik derzeit hingreifen möchte, hat sie die Kontrolle verloren. Sie sollte sich aber gut überlegen, ob sie sie tatsächlich zurück fordern soll.
Früher konnte sich der Staat, die Politik und die Gesellschaft an die Fersen der wenigen Sender heften. Nach dem Krieg wurden Lizenzen zum drucken einer Zeitung unter strengen Auflagen von den Alliierten vergeben. Noch heute braucht man eine Sendelizens, will man einen Radio oder Fernsehsender betreiben. Es gibt Regulierungsbehörden, Landesmedienanstalten, den Presserat, die Landesprüfstellen für Jungendgefährdende Schriften und viele andere Institutionen, die das Senden von Informationen bisher geregelt und kontrolliert haben. Wenn Thomas de Maizière also sagt: „Jede Form von Kommunikation […] braucht auch staatliche Regeln,“ dann drückt sich genau dieses Selbstverständnis aus, das dem Staat von Anfang an die Hoheit über die öffentliche Kommunikation zubilligt. Ein Naturrecht der Politik sozusagen, dass nur kurzzeitig – quasi aus versehen – abhanden gekommen war.
Doch im Internet sind die Sender überall und nirgends. Jeder kann Sender sein. Außerdem ist das Internet international aufgestellt, dezentral strukturiert, unfassbar schnell und kostengünstig in der Distribution von Information, polymorph in seiner der Gestaltung und flüchtig in seiner Lokalisierbarkeit. Alles Umstände, die oft genug attestiert wurden. Alles spezielle Problemstellungen bei der Kontrolle der Sender. Nichts neues also, der alltägliche Wahnsinn und der Grund, warum wir in Sachen Internetregulierung bislang so wenig hörten. Wo sollte man da auch anfangen?
Doch die Politik scheint sich entschlossen zu haben, ihr Schulterzucken abzulegen. Wenn die Politik sagt, dass das Internet kein rechtsfreier Raum sein dürfe, meint sie in Wirklichkeit, dass das Internet kein der Politik sich entziehender Raum sein darf. Und das, so muss man es drastisch sagen, ist er. Er ist der Raum des Kontrollverlustes der Politik über die Kommunikation.
Und auch die Politik gelangt in ihrer Verzweiflung dorthin, wo sich – wie ich wieder und wieder betone – der eigentlich neuralgische Punkt der Machtverschiebung ereignet: bei dem Empfänger.
Es hat eine gewisse Perfidität, genau dort die Kontrollmechanismen anzusetzen. Denn anders als bei der Unorganisation der Sender, ist der Zugang zum Internet einigermaßen zentral geregelt. Es gibt nur wenige große Zugangsprovider, von denen fast alle Menschen, die in’s Internet gehen wollen, abhängig sind. Diese Provider sind zudem auch allesamt in Deutschland ansässig, lizensiert und stehen im vollen Machtbereich des Staates, also der Politik. Wenn es gelänge, dort Kontrollstrukturen zu errichten, hätte man die politische Macht über das Internet zurückgewonnen, so scheint es jedenfalls.
Ähnlich denken die Provider selbst. Sie werden sich zunehmend über ihre Macht bewusst, die sie als zentrale Institution im chaotischen Gefüge des Internets haben. So versuchen sie seit einiger Zeit diese Position auszunutzen, um Anbieter von Webservices unter Druck zu setzten. Nicht nur das Hosten von Servern und der Verkauf der Zugänge an die Endkunden, sondern auch die Durchleitung von Inhalten selber soll nun ein Produkt werden, das an die Dienstbetreiber im Internet teuer verkauft werden soll. Dafür braucht es die Kontrolle über das, was in den Leitungen passiert. Mit Deep Packet Inspection, einer Technologie zum Echtzeitscannen und Indentifizieren der Inhalte von Datenpaketen im Internet, scheint dieser Schritt möglich zu werden. Man könnte sodann den Datenverkehr zahlender Internetdienste schneller übertragen als den weniger Zahlenden. Und manche, unliebsame Dinge könnte man ganz aussperren. Niemand hielte zum Beispiel die Contentindustrie davon ab, durch Verträge mit den Providern Bit-Torrent-Dienste zu sperren, die den Providern ohnehin nur Kosten einspielen. Der Politik stünde zudem eine Infrastruktur zur Verfügung, mit der sie ihre Bedingungen für die Durchleitung im Internet an die Provider herantragen könnte.
Die Büchse der Verantwortlichkeit
Aber sobald es eine Kontrolle der Bits und Bytes in den Leitungen gibt, gibt es Verantwortlichkeit. Eine Verantwortlichkeit der Provider nur zu routen, was deutschem Recht entspricht und eine Verantwortlichkeit der Politik gegenüber jeder in Deutschland abrufbaren Website. Jeder Politiker müsste auf einmal erklären, warum er Bombenbauanleitungen, Nazipropaganda, Terroristenaquierungs- und betrügerische Websites durch leiten lässt, obwohl es doch Mittel und Wege gäbe, sie zu sperren. Jeder Provider müsste sich von den Gerichten (zumindest vom Hamburger Landgericht) fragen lassen, warum er eine Website denn durch geleitet habe, obwohl er doch durch Keyword-Analysen hätte wissen können, dass dort jemand als „Arschloch“ verunglimpft werde. Mit dieser Verantwortlichkeit würde in Nullkommanix ein Regelungstsunami unvorstellbaren Ausmaßes auf das Internet zurollen, die aus dem dann „offiziell zu empfangenden“ Internet eine Mischung aus ZDF und Disneyland machte. Ich weiß nicht, ob sich die Politik und die Provider darüber bewusst sind, dass der Kontrollverlust das einzige ist, was uns – und auch sie – davor bewahrt. Egal wie machtbewusst die Politik sich auch immer geriert und egal wie großartig das Geschäft mit Datendurchleitungen für die Provider auch zu werden verspricht, das kann nicht in ihrem Interesse sein.
Die theoretische Endgültigkeit des Kontrollverlusts
Nachdem wir diese Horrorvorstellung einmal kurz durchgesprochen haben, kommen wir zur eigentlichen Krux des ganzen. Denn die Prämisse, die wir angelegt haben – die tatsächliche und vollständige Kontrolle der Daten im Internet – ist in Wirklichkeit heute und auch in Zukunft ein Ding der Unmöglichkeit. Wie wir sehen werden, ist der Kontrollverlust endgültig, denn eine Kontrollinfrastruktur im Internet ist und bleibt immer umgehbar. Im Iran und in China werden zwar ein Großteil der Bevölkerung von bestimmten Informationen abgeschnitten, aber gerade diejenigen nicht, die sich für die zensierten Inhalte interessieren. Jeder Oppositionelle und jeder Aktivist kennt mehrere Möglichkeiten die Zensur zu umgehen. Und es ist völlig unerheblich welche Kontrolltechnik man in Zukunft anwenden wird, das wird auch so bleiben.
Im Folgenden will ich die von mir so oft postulierte Macht des Empfängers genauer betrachten und Anhand einer beliebigen Zensurinfrastruktur – aufzeigen, warum sie dauerhaft und für immer überwunden bleibt.
ERSTENS: Die Lücke. Es gibt heute im Internet vielfältige Möglichkeiten an einem System der Kontrolle vorbei zu routen. Verschlüsselung durch VPN, Anonymisierung durch Tor, Nichtlokalisierbarkeit und Mobilität durch Dynamic-DNS sind nur ein paar der Technologien, die zur Verfügung stehen, sich jeder Kontrolle zu entziehen. Jederzeit können neue Technologien entwickelt werden, die es im Zweifelsfall erlauben, anonym, ungefiltert und komplett verschlüsselt zu agieren. Wer eine Zensurinfrastruktur umgehen will, wird sie umgehen. (Man schaue sich die Liste der Möglichkeiten an, die BoingBoing jedem zur Verfügung stellt, um Zensur zu umgehen.)
John Gilmore drückt das in seinem Manifest, „First Nation Cyberspace“ so aus: „The Net interprets censorship as damage and routes around it.“ Das Internet basiert auf Kopieroperationen. Das heißt, dass es keine vollständige Kontrolle darüber geben kann, wer was liest. Wenn ein Einziger auf etwas Zugriff hat, kann er es in einer tausendstel Sekunde Milliarden Menschen zur Verfügung stellen. Damit kein einziger auf etwas Zugriff hat, müsste man die Information komplett vom Netz trennen. In Sachen Durchsetzung von nationalem Recht hieße das, das amerikanische vom deutschen Netz zu trennen, das deutsche von allen europäischen Nachbarn, und so weiter. (Und selbst dann bräuchte es nur einen über die Grenze geschmuggelten Datenträger.)
ZWEITENS: Algorithmisierung. Jeder Weg, egal wie kompliziert er ist, wie viele Umwege und Komplexitäten er auch immer zu überwinden hat, ist immer in einem Befehlssatz zusammenfassbar. Aus vielen Umwegen wird ein einziges automatisierbares Skript, dass diese Umwege für mich geht. Der Aufwand zur Überwindung noch der komplexesten Zensur wird so im Zweifelsfall wieder reduziert auf einen einzigen Klick, der wieder den Abstand bildet, zwischen mir und der zensierten Information.
DRITTENS: Kopierbarkeit. Die Kopierbarkeit habe ich oben schon genannt, sie kann aber nicht oft genug erwähnt werden. Der Computer und damit das Internet basiert auf Kopieroperationen. Und kopierbar ist alles. Nicht nur die zensierte Information selbst, sondern auch die Wege ihrer Erlangung. Die Algorithmen werden nicht nur angewendet, sondern jedem anderen zur Verfügung gestellt. Sie sind in weniger als einer Sekunde hunderte von Millionen mal kopierbar und – sofern sie genügend Nutzen stiften – auf Dauer auf jedem Rechner installiert. Es würde nicht lange dauern, bis das gesamte Internet die Zensur umroutet hat und sich aus der Lücke ein komplett neuer Abstraktionslayer erhebt, mit allen Freiheiten des Internets.
So wird Zensur umroutet: Aus einer Lücke wird ein Skript aus einem Skript eine Plattform. Bei allem Weh über die Politik, die in das Internet hereingetragen werden soll, bleibt der Trost, dass der Computer auf unserer Seite ist.
Flaschenhälse und die Trägheit der Massen
So weit die Theorie. Die Praxis hält leider noch einige Probleme bereit: So sind Dienste wie Tor oder VPN zwar schnell installierbar und Skripte zu ihrer intelligenten Kombination sind auch schnell geschrieben und kopierbar, jedoch existiert schnell ein infrastruktureller Flaschenhals. So sind Tor-Server-Infrastrukturen leider nicht besonders gut skalierbar und auch VPN ist derzeit nicht ohne einige Einbußen einsetzbar. Auch die Kompliziertheit der Interfaces lässt zu wünschen übrig. Aber all diese Probleme sind langfristig lösbar. Dezentralere Infrastrukturen durch Peer-to-Peer Netze wie BitTorrent scheinen langfristig die Grundlagen eines zensurfreien Internets bieten zu können. Auf Dauer wird das Internet also nicht kontrollierbar sein. Jedenfalls nicht für jeden.
Der Spielraum der Politik
Und genau zwischen diesen beiden Polen: der theoretischen Endgültigkeit des Kontrollverlustes und der von Politik und Providern angestrebten Kontrollüberstruktur bewegt sich die Realität und mit ihr die trägen Massen der Mainstreamnutzer des Internets. Denn machen wir uns nichts vor: dass Zensur – und damit das drohende Disney-Netz – umgehbar ist und bleibt, bedeutet nicht, dass der Großteil der Masse das auch tut. In China existiert Zensur nicht, weil die Technik so ausgefeilt ist, sondern weil sie die meisten Menschen nicht stört.
Das heißt, dass es durchaus eine Synthese beider Szenarien gibt, aber nicht auf die Weise, wie es sich Politiker gerne wünschen würde – als Kompromiss – sondern als Dualität: Es gäbe plötzlich zwei Internets, jedenfalls zunächst: das durch regulierte Internet für die Massen; ohne Gewalt und Sex, mit Sendezeiten für Tittenwebsites und Sendeschlusszeiten für gewerkschaftlich organisierte Systemadministoren. Und daneben gäbe es eine Art Darknet, wo einerseits die technisch versierten Nerds und andererseits die Kriminellen weiterhin der vollen Freiheit der Kommunikation frönen.
Und hier sehe ich den Spielraum einer Politik, die tatsächlich notwendig ist. Eine Politik, die den Kontrollverlust vollkommen anerkennt, weil sie weiß, dass die Alternative in jedem Fall und aus jeder Perspektive schlechter ist, mehr Leid und weniger Freiheit für alle bedeutet. Es braucht eine Politik, die fordert, dass ein freies Internet nicht ein Vorrecht der Nerds und Kriminellen sein darf!
[Hier würde jetzt ein flammendes Plädoyer für die politische Durchsetzung der Netzneutralität stehen, aber ich halte die Netzneutralität nur für eine Teillösung eines Teilproblems, das grundsätzlicher auf den Tisch gebracht werden muss. Das werde ich versuchen im zweiten Teil zu leisten.]
(Original erschienen auf der Website von FAZ.net)
Pingback: Managing CTRL-Verlust II – Plattformneutralität als Politik | ctrl+verlust
Pingback: Managing CTRL-Verlust III – Vorschläge zu einer Politik der herrschaftsfreien Kommunikation | ctrl+verlust