Leseprobe 4: Die Politik des Flaschenhalses als Waffe

/****

Ihr kennt das Spiel. Immer wenn es zu den Ereignisse in der Welt passende Passagen aus meinem Buch gibt, die helfen, sich in der aktuellen Situation zurechtzufinden, hau ich sie als Leseprobe heraus. Nach dem Angriff Russlands auf die Ukraine wird Russland derzeit von der Weltgemeinschaft mittels der Politik des Flaschenhalses deplattformisiert. Dass Plattformen immer wieder als geopolitische Waffe verwendet werden, ist auch Thema meines Buches. In diesem Abschnitt erkläre ich die Politik des Flaschenhalses als Waffe, die Russland derzeit überall zu spüren bekommt. Er findet sich in Kapitel 6: Plattformpolitik und dort im Unterkapitel Netzsicherheitspolitik.

*****/

Als Hillary Clinton 2010 düpiert vor der Weltöffentlichkeit stand, weil Wikileaks einen Großteil der vertraulichen Kommunikation ihres Ministeriums öffentlich gemacht hatte, setzte sie trotz ihres emphatischen Bekenntnisses zur Internetfreiheit alle Hebel in Bewegung, um Wikileaks mundtot zu machen. Einer der ersten Angriffspunkte waren Wikileaks’ Finanzströme. Das US-Außenministerium machte Druck bei den Dienstleistern, bei denen Wikileaks Kunde war: PayPal, Bank of America, Mastercard, VISA und Western Union. Sie alle froren daraufhin die Konten von Wikileaks ein und beendeten die Geschäftsbeziehungen.1

Bis dahin war vor allem China dadurch aufgefallen, dass es in netzaußenpolitischen Auseinandersetzungen auf die Politik des Flaschenhalses setzte, während die USA sich damit rühmten, ein freies und offenes Netz bewahren zu wollen und deshalb die weniger aggressive Politik der Pfadentscheidung als Mittel der Wahl zu sehen. Doch die Politik des Flaschenhalses ist dem Westen im Allgemeinen und den USA im Besonderen nicht nur nicht fremd, sie wird sogar seit vielen Jahrzehnten angewendet, um politischen Gegnern den eigenen Willen aufzuzwingen. Bei nicht netzpolitischen Angelegenheiten sprechen wir meistens von Sanktionen, die gegen den einen oder anderen Staat ausgesprochen werden. Sanktionen sind im Netz globaler Handelswege schon immer ein wichtiges Disziplinierungsmittel gewesen, und in Zeiten des Internets werden sie zur netzsicherheitspolitischen Offensivwaffe. PayPal ist das beste Beispiel. Die Plattform wird bereits seit vielen Jahren eingesetzt, um das US-Embargo gegen Kuba weltweit durchzusetzen. So können auch deutsche Händler*innen ihre Geschäfte mit Kubaner*innen nicht per PayPal abwickeln, obwohl Deutschland nie Sanktionen gegen Kuba verhängt hat.2

Doch es geht nicht nur um Finanzdienstleister. Als die USA im Oktober 2019 Sanktionen gegen Venezuela verhängen, schaltet Adobe seine gesamte Software in dem Land einfach ab. Das geht, weil das Unternehmen seine populären Produkte wie Photoshop, After Effects und Acrobat in den letzten Jahren immer mehr in die Cloud verlagert hat. Es verkauft jetzt Zugriff statt die Software selbst, was ihm ein Zugangs- und Verbindungsregime eröffnet, wie es für gewöhnlich nur Diensteplattformen haben. Auch wenn die Venezolaner*innen bereits gekaufte Kopien von Photoshop, After Effects oder Acrobat auf ihren Rechnern installiert hatten, konnten sie sie von einem Moment auf den anderen nicht mehr nutzen.3

Henry Farrell und Abraham Newman halten all die Narrative von der friedvollen wechselseitigen Abhängigkeit und dem ebenerdigen Spielfeld in den internationalen Beziehungen deshalb auch für höchst irreführend.4 Zunächst stellen Farrell und Newman in ihrem Paper Weaponized Interdependence fest, dass Netzwerke eben nicht jene heterarchischen, flachen Ebenen sind, zu denen sie oft verklärt werden, sondern im Gegenteil zu großer Ungleichheit tendieren. Netzwerkeffekte führen dazu, dass sich die meisten Verbindungen auf wenige Knoten konzentrieren. Dadurch ergeben sich neue Optionen zur geopolitischen Einflussnahme, die alles andere als friedlich sind. Die Autoren nennen zwei: den Panoptikumeffekt und den Würgepunkteffekt. Hat man als Staat Zugriff auf wichtige Kommunikationsknoten, kann man zum Beispiel die Kommunikation aller anderen Beteiligten abgreifen und die daraus gewonnenen Informationen zum eigenen Vorteil nutzen (Panoptikumeffekt). Man kann aber auch einzelne Akteure vom Nutzen des Netzwerks ausschließen oder diese Option als Druckmittel nutzen (Würgepunkteffekt). Der Würgepunkteffekt entspricht also exakt dem, was wir die Politik des Flaschenhalses genannt haben.

Farrell und Newman erklären diese Effekte anhand von SWIFT (Society for Worldwide Interbank Financial Telecommunication). Dieses System ist die Plattform für die weltweite Interbankenkommmunikation. SWIFT wurde 1973 in Belgien von einigen europäischen Banken gegründet, nachdem die First National City Bank in New York (FNCB, der Vorgänger der Citibank) ein ähnliches, aber proprietäres System, MARTI, vorgestellt hatte. Um sich der drohenden Graphnahme zu entziehen, taten sich die übrigen Banken zusammen, um eine offene, genossenschaftlich organisierte Konkurrenz zu schaffen. Bald schon schlossen sich auch amerikanische Banken an, die ebenfalls eine Dominanz der FNCB fürchteten. Es liegt auf der Hand, wie nützlich allgemeine Standards und sichere Kommunikationswege für Banken und ihre Transaktionen sind, und von daher ist es nicht verwunderlich, dass ab diesem Punkt die Netzwerkeffekte einsetzten. Waren 1977 noch 500 Organisationen aus 22 Ländern angeschlossen, stieg die Zahl bis 2016 auf 11 000 Organisationen aus über 200 Ländern, die 6,5 Milliarden Nachrichten pro Jahr austauschen. Da SWIFT mittlerweile fast eine Monopolstellung innehat, musste sogar die EU-Kommission regulierend eingreifen.5

Bereits seit 1992 dient SWIFT zur Überwachung globaler Geldströme und zum Aufdecken von Geldwäschegeschäften, spätestens seit dem 11. September 2001 auch verstärkt zur Terrorabwehr. Mit dem Terrorist Finance Tracking Program (TFTP) konnten amerikanische Behörden direkt auf SWIFT-Daten zugreifen und nutzten das zum Aufspüren der Geldquellen von Terroristen. Aber auch als Flaschenhals wurde SWIFT genutzt, als die EU in Absprache mit den USA 2012 Irans Banken praktisch aus dem Internationalen Verbund drängten.6

Komplizierter wurde die Lage, als die USA 2018 aus dem Atomabkommen mit dem Iran ausstiegen und die zwischenzeitlich gelockerten Sanktionen wieder einsetzen wollten. Die Europäer, die an dem Atomdeal festhalten, konnten die SWIFT-Sanktionen deswegen nicht mehr mittragen. SWIFT war gespalten und musste eine Lösung finden, die amerikanische und die europäische Linie unter einen Hut zu bringen. So schloss SWIFT zwar wesentliche iranische Institutionen aus, ließ aber den allgemeinen Verkehr mit dem Land grundsätzlich zu. Der deutsche Außenminister Heiko Maas ging so weit, ein eigenes, rein europäisches Interbankensystem als Möglichkeit ins Spiel zu bringen, um solche Konflikte in Zukunft zu vermeiden.7

Zusammenfassend kann man sagen, dass westliche Demokratien zwar davor zurückschrecken, im Zuge einer Politik des Flaschenhalses zivile Informationsströme zu kappen, sie aber die Machtkonzentration großer Plattformen nutzen, um sie als Waffe gegen ihre jeweiligen Gegner einzusetzen.

China ist derzeit weit weniger in der Lage, Plattformen international als Flaschenhälse zu nutzen. Die Möglichkeit dazu ergibt sich erst ab einer bestimmten Infrastrukturhegemonie, und die haben nur wenige chinesische Plattformen bereits erreicht. Doch die Sorgen mehren sich, dass das Land seine immer weiter reichenden Verbindungspunkte in die westliche Welt als Flaschenhals nutzen könnte. Insbesondere die Tatsache, dass China mittlerweile Besitzer und Anteilseigner einiger europäischer und noch mehr afrikanischer Häfen ist und zudem mit COSCO das drittgrößte Schifffahrts-Logistikunternehmen der Welt kontrolliert, sorgt für geostrategische Kopfschmerzen.8 Chinas Plattformhegemonie wächst in den letzten Jahren in vielen Bereichen beträchtlich.

Ein anderes wichtiges Feld, auf dem China eine hegemoniale Stellung anstrebt, ist künstliche Intelligenz. Schon jetzt agieren die Firmen des Landes auf Weltmarktniveau, und bis 2030 hat sich die chinesische Regierung die KI-Vormachtstellung zum Ziel gesetzt. Ein Netz aus chinesischen KI-Technologien von Start-ups wie Hikvision, CloudWalk Technology und aus Produkten wie Alibabas City-Brain-Plattform wird von Malaysia über Kenia bis Südafrika ausgerollt, und die Befürchtung besteht, dass sich der chinesische Staat dabei immer eine Hintertür offenhält.9 Huaweis Safe-City-Projekt zum Beispiel, das verspricht, Kriminalität in den Städten durch flächendeckende Videoüberwachung mit integrierter Gesichtserkennung ein Ende zu bereiten, wird überall auf der Welt eingesetzt. Schwerpunkte sind zwar vor allem Asien und Afrika,10 aber auch eine Kooperation mit Gelsenkirchen gibt es schon.11

  1. BBC: PayPal says it stopped Wikileaks payments on US letter, https://www.bbc. com/news/business-11945875, 08. 12. 2010.
  2. Bastian Brinkmann: Warum deutsche Firmen unter dem US-Embargo gegen Kuba leiden, https://www.sueddeutsche.de/wirtschaft/us-embargo-gegen-kuba- ho-ho-wo-ist-die-buddel-rum-1.1125589, 27. 08. 2012.
  3. BBC: Adobe shuts down Photoshop in Venezuela, https://www.bbc.com/news/ technology-49973337, 08. 10. 2019.
  4. Vgl. Henry Farrell, Abraham L. Newman: Weaponized Interdependence: How Global Economic Networks Shape State Coercion, https://www.mit pressjournals.org/doi/full/10.1162/isec_a_00351, 01. 07. 2019.
  5. European Commission: Following an Undertaking by S.W.I.F.T. to Change Its Membership Rules, the European Commission Suspends Its Action for Breach of Competition Rules, Pressemitteilung IP/97/870, 13. 10. 1997, S. 2.
  6. United Against Nuclear Iran (UANI): SWIFT Campaign, https://www.united againstnucleariran.com/index.php/swift, Washington, D.C. 2012.
  7. Heiko Maas: Wir lassen nicht zu, dass die USA über unsere Köpfe hinweg han- deln, https://www.handelsblatt.com/meinung/gastbeitraege/gastkommentar- wir-lassen-nicht-zu-dass-die-usa-ueber-unsere-koepfe-hinweg-handeln/22933006.html?ticket=ST-7411926-oq4wHkumxAC3d7a6ElCc-ap1,21. 08. 2018.
  8. Christopher R. O’Dea: How China Weaponized the Global Supply Chain,https://www.nationalreview.com/magazine/2019/07/08/how-china-weaponized- the-global-supply-chain/, 20. 06. 2019.
  9. Ross Andersen: Chinese AI Is Creating an Axis of Autocracy, https://www. theatlantic.com/magazine/archive/2020/09/china-ai-surveillance/614197/, September 2020.
  10. Jonathan E. Hillman, Maesea McCalpin: Watching Huawei’s »Safe Cities«, https://www.csis.org/analysis/watching-huaweis-safe-cities, 04. 11. 2019.
  11. Jarrett Potts: Gelsenkirchen: A Small, Smart City with Big Plans, https:// e.huawei.com/en/case-studies/global/2017/201709071445.

Veröffentlicht unter Kontrollverlust
Hinterlasse einen Kommentar

Leseprobe 3: Cybersouveränität versus Infrastrukturhegemonie

/*****

Da gerade eine spannende Debatte über „digitale Souveränität“ anlässlich des „Sovereign Tech Fund“ tobt (Twitterthread hier), will ich sozusagen als ein weiteres Puzzelteil, den passenden Abschnitt aus meinem Buch beisteuern. Es ist teil des sehr langen und ausführlichen Kapitels zu Plattformpolitik und dort vom Teil über Netzaussenpolitik. Durch diese Einbettung sind eventuell einige Begriffe nicht ganz geläufig, was sich aber leicht beheben lässt, indem man das ganze Buch liest.

*****/

Nicht alle Staaten lassen sich durch die Plattformsouveränität und Infrastrukturhegemonie der großen Tech-Unternehmen beeindrucken, was insbesondere das Scheitern von Google in China bezeugt. Als das Unternehmen dort 2006 seine Präsenz ausbaute und eine speziell auf die Bedürfnisse der chinesischen Regierung optimierte Suchmaschine unter google.cn startete, waren alle Beteiligten erst einmal optimistisch. Google hatte von Microsoft den taiwanesischstämmigen Kai-Fu Lee abgeworben – der als erfolgreicher USA- Auswanderer in China bereits eine Legende war –, um das Geschäft in Peking aufzubauen. Das Unternehmen würde den Zensuransprüchen der chinesischen Regierung nachkommen, verzichtete aber auf Services, die persönliche Daten in China gespeichert hätten, wie Gmail, blogger.com oder Picasa – allein um Anfragen der chinesischen Regierung nach der Herausgabe dieser Daten vorzubeugen.

Die Zensurmaßgaben wurden derweil von Google eigenwillig umgesetzt. So blendete google.cn den Nutzer*innen immer auch einen Hinweis ein, dass aufgrund von Regierungsanfragen Suchergebnisse getilgt worden seien, was der Regierung in Peking gar nicht passte. Wenn Google von ihr eine Aufforderung bekam, zehn Suchergebnisse aus dem Index zu tilgen, löschte man für gewöhnlich sieben davon, und auch die wurden nach ein paar Tages stillschweigend wiederhergestellt. Kurz: Google versuchte, seiner Mission, Informationen zugänglich zu machen, so gut es in China eben ging, gerecht zu werden und hoffte wohl darauf, durch solch stetige Akte des zivilen Ungehorsams der chinesischen Regierung und Gesellschaft den Wert der Informationsfreiheit Schritt für Schritt näherbringen zu können.

Die chinesische Führung war entsprechend unzufrieden. Offiziell verwies sie darauf, dass es mittels Google möglich sei, auf Websites mit pornographischen Inhalten zu stoßen, und weitete ihre Zensuransprüche immer weiter aus. Zu den Olympischen Spielen 2008 verlangte die Regierung sogar, Suchergebnisse für chinesischsprachige Inhalte nicht nur aus google.cn, sondern auch aus google.com zu löschen. Als dann zu Weihnachten 2009 ein großer Hackerangriff auf Gmail-Konten und Googles Versionskontrollsysteme für Software stattfand, zog das Unternehmen den Stecker. Der Hackerangriff wurde bekannt als »Operation Aurora« und konnte auf die chinesische Regierung zurückgeführt werden. Er betraf nicht nur Google selbst, sondern auch viele weitere amerikanische Firmen.1 Im Nachhinein stellte sich heraus, dass Baidu, Googles chinesischer Suchmaschinen-Konkurrent, in Zusammenarbeit mit der Regierung Ressourcen zum Aurora-Angriff beigesteuert hatte. Baidu war zwar mit circa 70 Prozent Marktanteil weit vor Google die beliebteste Suchmaschine in China, doch was dem Unternehmen Sorge bereitete, war, dass Google seine sichtbare Opposition zur Regierung und der Hauch des Verbotenen langfristig nutzen würde.2

Dass Netzwerke in der Außenpolitik eine wichtige Rolle spielen, ist nichts Neues. Bereits 1977 leiteten Joseph Nye und Robert Keohane mit ihrem Buch Power and Interdependence – World Politics in Transition einen Paradigmenwechsel in der Betrachtung internationaler Beziehungen ein. Diese sahen die beiden Autoren nicht wie herkömmlich als Nullsummenspiele, sondern als Interdependenzbeziehung an.3 Nullsummenspiele zeichnen sich dadurch aus, dass A nur gewinnen kann, was B verliert, und umgekehrt. Interdependenz dagegen setzt die Interaktionspartner häufiger in ein Win-win- oder Lose-lose-Verhältnis. A kann nur gewinnen, wenn auch B gewinnt, und umgekehrt. Handelsbeziehungen sind dafür ein gutes Beispiel: Wirtschaftliche Prosperität ist leichter zu erreichen, wenn die Handelspartner ebenfalls prosperieren. Solche Win-win-Situationen ergeben sich aus wechselseitigen Abhängigkeiten, wie wir sie schon bei Emerson kennengelernt haben. Emersons Balanceakte sind also anwendbar und finden sich in ähnlicher Form bei Nye und Keohane wieder.

Eine der wichtigsten Unterscheidungen bei Nye und Keohane ist die zwischen »Sensitivitäts-Interdependenz« und »Verletzbarkeits- Interdependenz«. Sensitivitäts-Interdependenz meint, dass Land A sensitiv gegenüber allem ist, was in Land B passiert oder was dieses tut. Stellen wir uns zum Beispiel vor, B hört aus irgendeinem Grund auf, Rohstoffe an A zu liefern, was A in Schwierigkeiten bringt, oder in B bricht eine Revolution aus, die nach A überschwappt. Verletzbarkeits-Interdependenz dagegen zeigt an, wie nachhaltig eine solche Veränderung wirkt. Kann A den Mangel an Rohstoffen ausgleichen, indem es zu vertretbaren Kosten auf andere Quellen ausweicht? Wenn ja, ist die Interdependenz weniger verwundbar.

Damit haben wir die Gegenseiten zu den Politiken der Pfadentscheidung und des Flaschenhalses. Sensitivität bedeutet, dass das Abhängigkeitsverhältnis auf diese Politiken reagiert, Verwundbarkeit bedeutet, dass die beteiligten Seiten auf eine Politik des Flaschenhalses nicht ohne weiteres mit Emersons Balanceakt 2 – also dem Erschließen alternativer Ressourcen – reagieren kann. Sie ist der Politik des Flaschenhalses also besonders ausgeliefert.

Heute sind in China fast alle großen amerikanischen Social-Media-Plattformen durch die große Firewall ausgesperrt: Google, Facebook, Twitter, sogar Wikipedia und einige journalistische Angebote.4 Das hat für die chinesische Regierung nicht nur den Vorteil, dass sie die Informationen kontrollieren kann, die ins Land kommen, sondern auch, dass sich ein eigenes Plattformökosystem hat ausbilden können, wodurch sich sowohl die eigenen Sensitivitäts- wie die Verletzbarkeits-Interdependenzen reduziert haben.5 Chinesische Plattformbetreiber wie Huawei, Alibaba, Baidu, WeChat/ Tencent, Sina/Weibo und TikTok/Douyin gehören zu den größten der Welt, obwohl sie eine weitaus geringere globale Relevanz als amerikanische Plattformen haben. Diese einzigartige Situation hat eine Kongruenz von chinesischen Graphen und chinesischem Territorium geschaffen. Die Herrschaft über die Verbindungen und den Graphen deckt sich weitestgehend mit der Herrschaft über das Territorium und die Körper. Damit sind Kontrollmöglichkeiten geschaffen, vor denen sich im Westen gern gegruselt wird.6

Mit »Cybersouveränität« wird für gewöhnlich die digitale Selbstbestimmung von Staaten bezeichnet.7 Wir können mit unserem bisherigen Theoriemodell eine klarere Definition anbieten: Cybersouveränität ist die weitestgehende Deckungsgleichheit von staatlicher und Plattformsouveränität, von Graph und Territorium.

Außer China versuchen auch andere Staaten, eine gewisse Cybersouveränität zu erreichen, allerdings nicht ganz so erfolgreich. Der Iran, die Türkei und vor allem Russland blocken unterschiedliche westliche Plattformen. Russland verlangt zudem von Diensteanbietern, ihre Server auf russisches Territorium und damit unter russische Jurisdiktion zu stellen.8 Alle drei Länder sperren Internetdienste, die ihrer Meinung nach nicht legal operieren, mittels technischer Infrastruktur aus. Weil die Sperrungen aber vergleichsweise partiell sind, kommt es häufig zu Seiteneffekten.

Als Russland den Messengerdienst Telegram bannte, nachdem dieser sich geweigert hatte, kryptographische Schlüssel herauszugeben, funktionierten auf einmal auch eine ganze Menge anderer Websites und Dienste in Russland nicht mehr. Telegram war, um Zensur vorzubeugen, mit seiner Dateninfrastruktur auf die Clouddienste von Amazon und Google umgezogen. Dadurch ist das Unternehmen unter den vielen IP-Adressen dieser Dienste erreichbar, hinter denen aber auch eine Menge andere, teils kritische Infrastruktur betrieben wird. Die russische Regierung scherte das wenig, sie sperrte ganze IP-Adressbereiche von Google und Amazon, sodass als Kollateralschaden viele unbeteiligte Internetseiten aus Russland nicht mehr erreichbar waren und sogar einige Geldautomaten nicht mehr funktionierten.9 Telegram hatte gewissermaßen auf Emersons Balanceakt 4 gesetzt – quasi eine IP-Adressenkoalition mit Google und Amazon – und so Russlands Verletzbarkeits-Interdependenz gegenüber den großen Plattformen ausgenutzt.

Die Beispiele zeigen, dass Staaten ihrerseits fähig sind, eine Politik des Flaschenhalses gegenüber Plattformen zu betreiben, dafür aber teils hohe Kosten in Kauf zu nehmen haben. Denn sie müssen den eigenen Markt sozusagen als Geisel nehmen, um den Zugang dazu zur Verhandlungsmasse zu machen. Insbesondere wenn der Markt besonders groß ist, wie im Falle Chinas, ist dieses Vorgehen aber auch sehr wirkungsvoll. Die wenigen amerikanischen Firmen, die in China arbeiten dürfen, tun dies unter strengen Auflagen. Apple zum Beispiel produziert in China und verkauft dort auch einen Großteil seiner Produkte. Als die Protestierenden in Hongkong eine eigene Karten-App, HK.map.live, in den App Store brachten, mit der sie vor allem Polizeibewegungen innerhalb der Stadt verfolgen wollten, nahm Apple sie auf Druck der chinesischen Regierung wieder aus dem Store.10 2017 hat Apple zudem auf Druck der chinesischen Regierung bereits alle VPN-Apps aus dem chinesischen App Store entfernt,11 Apps, die privates und sicheres Surfen im Internet ermöglichen sollen, aber auch zur Umgehung der chinesischen Firewall verwendet werden. 2020 nahm Apple auch die RSS-Apps aus dem Angebot, die ebenfalls Zugang zu unabhängigen journalistischen Quellen geboten hatten.12

Demokratische Staaten tun sich mit der Politik des Flaschenhalses naturgemäß schwer, vor allem wenn es um Internetkommunikation geht, denn die ist grundsätzlich durch das Menschenrecht auf Informationsfreiheit geschützt.13 Als 2015 das »Safe Harbor«-Abkommen und im Juli 2020 der Nachfolger namens »Privacy Shield« vom Europäischen Gerichtshof für ungültig erklärt wurden, freuten sich die europäischen Datenschützer*innen. Die beiden Verträge hatten als Rechtsgrundlage für den Datenaustausch zwischen den USA und der EU fungieren sollen. Gerechtfertigt wurde das damit, dass die USA ein ähnlich hohes Schutzniveau wie die EU hätten. Der EUGH wollte das, insbesondere nach den Snowden-Enthüllungen, nicht mehr akzeptieren.

Doch außer dass ein paar Jurist*innen und Politiker*innen hochschreckten, hatte das Ende der Abkommen praktisch keine Konsequenzen. Was sollte man auch tun? Die Atlantikkabel durchschneiden? Es wird auch dieses Mal darauf hinauslaufen, dass ein neues ungültiges Abkommen geschlossen wird. Rechtsgrundlage hin oder her, für eine Demokratie ist es politisch schlicht nicht durchsetzbar, internationale Datenflüsse zu unterbinden. Die juristische Sackgasse zeigt in Wirklichkeit ein politisches Dilemma auf.14

Dabei hat die EU noch einen vergleichsweise großen Einfluss auf Plattformen. Weltweit haben über 50 Länder Gesetze verabschiedet, um mehr Kontrolle über den digitalen Raum zu erlangen. Ob die Plattformen sich daran halten werden, ist eine ganz andere Frage.15 Gerade Länder mit geringer Wirtschaftskraft können Regulierungen kaum gegen die Macht der Plattformen durchsetzen.

Die Hegemonie der amerikanischen Plattformen wird deswegen insbesondere in tendenziell ärmeren Ländern des globalen Südens zunehmend kritisch gesehen. Michael Kwet geht so weit, darin eine neue, diesmal digitale Form von Kolonialismus zu sehen.16 Indem die Plattformen arme Länder mit digitaler Infrastruktur versorgen – oft sogar mit dem Anstrich humanitärer Wohltätigkeit –, okkupieren sie diese Länder in gewisser Weise. Zum einen schaffen sie Abhängigkeiten von den eigenen Infrastrukturen, zum anderen erlangen sie Besitz über die Daten. In der Tat kann man jede Ausweitung der Macht über Verbindungen von Google, Apple, Facebook, Microsoft und Amazon in anderen Ländern als Graphnahmen im geopolitischen Sinn auffassen.

  1. Vgl. Steven Levy: Inside Google’s China Misfortune, https://fortune. com/2011/04/15/inside-googles-china-misfortune/, 15. 04. 2011 (abgerufen über: https://web.archive.org/web/20201029002329/https://fortune. com/2011/04/15/inside-googles-china-misfortune/).
  2. Vgl. John Battelle: Google, China, Wikileaks: The Actual Cable, https:// www.businessinsider.com/google-china-wikileaks-the-actual-cable-2011-1, 08. 12. 2010. Hier dreht sich die Instrumentalisierung Plattform/Staat sogar um. Die Plattform nutzt den Staat, um ihr Graphmonopol gegen Konkurrenten zu verteidigen. Und in der Tat kann sich die Zusammenarbeit zwischen Plattform und Staat auch für die Plattform lohnen.
  3. Joseph S. Nye, Jr., Robert O. Keohane: Power and Interdependence – World Politics in Transition, New York 2001.
  4. Es ist dabei nicht ohne Ironie, dass die chinesische Firewall nicht ohne die Mitarbeit amerikanischer Tech-Konzerne hat gebaut werden können, allen voran Cisco, das sich deswegen vor Gericht verantworten muss. Vgl. Ryan Gallagher: How U.S. Tech Giants are Helping to Build China’s Surveillance State, https://theintercept.com/2019/07/11/china-surveillance-google-ibm- semptian/, 11. 07. 2019. und Karl Bode: EFF Wants Cisco Held Responsible For Helping China Track, Torture Falun Gong Members, https://www.techdirt.com/articles/ 20160113/06091133328/eff-wants-cisco-held-responsible-helping- china-track-torture-falun-gong-members.shtml, 14. 01. 2016.
  5. Mit Emerson könnte man sagen, dass China mit der großen Firewall zunächst einen Balanceakt 1 eingeleitet hat, also seine Motivation zur Nutzung westlicher Internetdienste reduziert hat, was dann in den Balanceakt 2 überging, also der Schaffung alternativer Services im eigenen Land.
  6. Dazu gehören unter anderem die vielen auf vagen Gerüchten, Annahmen und Vorurteilen basierenden Erzählungen, die im Westen über das »Social Credit System« kursieren. Für einen nüchternen Blick auf die Tatsachen siehe Xin Dai: Toward a Reputation State – The Social Credit System Project of China, http://dx.doi.org/10.2139/ssrn.3193577, 10. 06. 2018.
  7. Vgl. z. B. Bernhard Hämmerli: Cyber-Souveränität definiert die strategische Zukunft jeder Nation, https://www.security-finder.ch/experten-berichte/ bisherige-monatsgaeste/detail00/article/cyber-souveraenitaet-definiert-die- strategische-zukunft-jeder-nation.html, 01. 01. 2017.
  8. Carolina Vendil Pallin: Internet control through ownership: the case of Russia, https://doi.org/10.1080/1060586X.2015.1121712, 04. 01. 2016.
  9. Ingrid Lunden: Google confirms some of its own services are now getting blocked in Russia over the Telegram ban, https://techcrunch.com/2018/04/22/ google-confirms-some-of-its-own-services-are-now-getting-blocked-in-russia- over-the-telegram-ban/, 23. 04. 2018.
  10. Loise Matsakis: Apple’s Good Intentions Often Stop at China’s Borders, https://www.wired.com/story/apple-china-censorship-apps-flag/, 18. 07. 2019.
  11. Tim Bradshaw: Apple drops hundreds of VPN apps at Beijing’s request, https:// www.ft.com/content/ad42e536-cf36-11e7-b781-794ce08b24dc, 22. 11. 2017.
  12. Rita Liao: Apple removes two RSS feed readers from China App Store, https://techcrunch.com/2020/09/30/apple-removes-two-rss-feed-readers-from- china-app-store/, 30. 09. 2020.
  13. Vgl. Article 19 of The Universal Declaration of Human Rights, https://www. humanrights.com/course/lesson/articles-19-25/read-article-19.html.
  14. Michael Seemann: Informationelle Selbstzertrümmerung, https://www.ctrl- verlust.net/informationelle-selbstzertruemmerung/, 13. 04. 2016.
  15. Paul Mozur, Mark Scott, Mike Isaac: Facebook Faces a New World as Officials Rein In a Wild Web, https://www.nytimes.com/2017/09/17/technology/ facebook-government-regulations.html, 17. 09. 2017.
  16. Michael Kwet: Digital Colonialism: US Empire and the New Imperialism in the Global South, https://papers.ssrn.com/sol3/papers.cfm?abstract_ id=3232297, 05. 09. 2018.

Veröffentlicht unter Kontrollverlust
Hinterlasse einen Kommentar

Leseprobe 2: Das Regulierungparadox

Gestern wurde vom Bundestag die Umsetzung unter anderem der sogenannten Uploadfilter beschlossen. Damit kommt eine sehr umstrittene EU-Gesetzgebung konkret in Deutschland an, deren Spitzen immerhin im deutschen Gesetzgebungsprozess etwas abgemildert werden konnten. (Danke, u.a. Julia Reda!) Da ich über das Thema auch in meinem neuen Buch geschrieben habe, veröffentliche ich zu diesem Anlass den passenden Auszug. Anhand der Uploadfilter und anderer Regulierungsvorhaben erkläre ich das Regulierungsparadox. Die Stelle findet sich im Kapitel 6 – Plattformpolitik, Unterkapitel Netzaußenpolitik, S. 229 – 237.

Das Regulierungsparadox

Am 13. Februar 2019 einigte sich die EU auf eine neue Urheberrechtsrichtlinie. Gegen diese Richtlinie hatte es im Jahr zuvor viel Protest gegeben. Junge Leute, vor allem in Deutschland, gingen zu Tausenden auf die Straßen. Gegenstand der Kritik war vor allem Artikel 13 – in der endgültigen Fassung Artikel 17 – der EU-Urheberrechtsrichtlinie, in dem es um die sogenannten »Uploadfilter« geht.

Die Regelung verlangt von Internetdiensten, insbesondere von Plattformen für nutzergenerierte Inhalte, alle Inhalte vor der Veröffentlichung auf mögliche Urheberrechtsverletzungen zu prüfen. Um dem Gesetz zu entsprechen, müssen Plattformen also technische Infrastrukturen bereithalten, die ankommende Daten mit den Einträgen einer vorher eingerichteten Datenbank von urheberrechtlich geschützten Werken abgleichen, bevor sie sie zur Veröffentlichung freigeben. Ein solches Verfahren ist komplex, teuer und fehleranfällig. Es beschränkt zudem die Äußerungsmöglichkeiten der Nutzerinnen im Zweifel extrem. Den Upload eines privaten Videos kann schon ein Song verhindern, der im Hintergrund im Radio läuft. Ein zitierter Ausschnitt aus einer Berichterstattung kann durch die Rechteinhaber automatisch zensiert werden. Die gesamte, über Jahre gewachsene kulturelle Praxis der Kommunikation über Memes, wie sie unter jüngeren Internetnutzerinnen zur Alltagskultur gehört, scheint in Gefahr. 1

Für die Politikerinnen, die die Urheberrechtsnovelle vorangetrieben haben, standen aber gar nicht die potentiell drakonischen Einschnitte in die Handlungsfreiheit der Nutzerinnen im Zentrum der Diskussion, vielmehr verwiesen sie – oft mit martialischer Rhetorik – auf die Macht der Plattformen, deren Gebaren Einhalt zu gebieten sei.2

Für die institutionelle Politik, die den Aufstieg der Plattformen in den letzten Jahren durchaus argwöhnisch beobachtet hat, mag sich die Auferlegung harter Regulierungsmaßnahmen wie ein potenter Akt anfühlen. Doch für die Plattformen sind Regulierungen – sei es das oben erwähnte Recht auf Vergessenwerden, die Europäische Datenschutzgrundverordnung (DSGVO), das sogenannte »Netz- werkdurchsetzungsgesetz« (NetzDG), die Uploadfilter oder eben auch die chinesischen Ansprüche an Suchergebniszensur – erst einmal nur technische Herausforderungen. Sie werden in Code gegossen und in die ohnehin schon regulierenden Systeme eingebaut. Schlimmstenfalls muss man ein paar zusätzliche Moderator*innen anstellen und am Ende werden alle oktroyierten Regulierungen nichts weiter als eine Modifikation der Zugangs-, Query- und/oder Verbindungsregimes gewesen sein.

Plattformen sind – wie unter dem Abschnitt zur Netzinnenpolitik hoffentlich deutlich geworden ist – selbst mächtige Regulierer. Und sie sind, trotz aller berechtigter Kritik, sehr effizient darin. Sie zu regulieren, führt lediglich dazu, dass sie ihre eigene Regulierungsebene anpassen. Die Uploadfilter zum Beispiel sind, einmal implementiert, nichts anderes als zusätzliche Selektionskaskaden auf ankommende Datenströme.3 Teuer in der Entwicklung, nahezu kostenlos im Betrieb.

Doch das politisch Wesentliche passiert nach der Implementierung: Jede dieser Anpassungen verändert das Machtverhältnis zwischen Plattform und Staat zugunsten der Plattform. Emersons Balanceakt 3 bezeichnet die Strategie, sich als Akteur in der wechselseitigen Beziehung aufzuwerten und so die Abhängigkeit des Gegenübers zu erhöhen. Auf Plattformenregulierung angewendet: Jede von einer Plattform implementierte Regel erhöht die Abhängigkeit der nationalen Politiken von der jeweiligen Plattform. Die Macht der Plattformen wächst in dem Maße, wie die ihr zugewiesene Regulierungskompetenz steigt.4

Politikerinnen, die glauben, die Macht der Plattformen durch Regulierung einzuschränken, tun in Wirklichkeit meist das genaue Gegenteil. Das nenne ich das »Regulierungsparadox«.5 Reguliert man einen Regulierer, schränkt man seine Macht nicht ein, sondern weitet sie oft aus. Viele Politikerinnen, insbesondere auf der Ebene der Europäischen Union, haben diesen Mechanismus noch nicht wirklich begriffen.

Das Regulierungsparadox gilt für beinahe alle Formen der Plattformregulierung. Die DSGVO wurde vor ihrem Inkrafttreten ebenfalls als harter Schlag gegen Google und Facebook verstanden. Heute wissen wir, dass sie zu einer großen Marktbereinigung führte, die Googles und Facebooks Vormachtstellung auf dem Online-Werbe-markt weiter gefestigt hat. Allein 2018, dem Jahr des Inkrafttretens, stieg Facebooks Werbeumsatz in Europa um 40 und Googles um 20 Prozent, während der restliche Online-Werbemarkt lediglich um 14 Prozent wuchs.6 Insgesamt wuchs Googles Anteil am Online Werbemarkt um 5,4 Prozent und der Anteil am Webanalyse-Markt sogar um 7,2 Prozent in den ersten sechs Monaten seit Inkrafttreten.7 Gleichzeitig garantieren vor allem die großen Plattformen jene Errungenschaften der DSGVO, die die Politikerinnen ihren Wählerinnen versprochen haben, während viele kleine, oft nicht kommerzielle Projekte sich nicht in der Lage sahen, den hohen Anforderungen gerecht zu werden, und ihre Websites schlossen.8 Haben Publizistinnen mit unabhängiger und selbst betriebener Infrastruktur den vollen Aufwand und das volle Risiko, wenn sie ihre Angebote an die neuen Regelungen anpassen, brauchen Nutzerinnen der großen Plattformanbieter meist nur einen Knopf zu betätigen, und die Plattform erledigt den Rest. Es ist schließlich genau dieses Abfangen von Reibung und Komplexität, das die Plattformen so erfolgreich gemacht hat.

Im Falle der Uploadfilter wird sich Ähnliches einstellen. Nicht nur werden die Uploadfilter als Erstes von den großen Plattformen entwickelt und implementiert werden, kleinere Projekte werden die Software auch von ihnen lizenzieren müssen. Und was den freien und kreativen Umgang mit Memes und Remixes betrifft, wird es Dienste geben, die wie heute schon GIPHY9 Lizenzverträge mit Tausenden von Rechteinhaberinnen haben und den Nutzerinnen ein rechtssicheres Angebot machen, bei dem sie aus einer kuratierten Datenbank vorgefertigte Inhalteschnipsel für etwas nutzen können, was ein bisschen so ähnlich aussieht wie die Kreativität, die das Internet einmal hervorgebracht hat.

Derweil freut man sich in Europa, mit der DSGVO einen internationalen Standard gesetzt zu haben, und verweist stolz darauf, dass Google und Facebook im eigenen Land, den USA, sogar dafür werben, vergleichbare Regulierungen einzuführen.10 Doch natürlich ist die Internationalisierung dieses Standards gerade für die Plattformen enorm sinnvoll. Schließlich haben sie bereits darin investiert, die komplizierten Regeln in die eigenen Regimes zu übersetzen. Es ist ökonomisch also nur folgerichtig, dies als Wettbewerbsvorteil auf möglichst vielen Märkten auszuspielen.
Positiv ausgedrückt kann man Europas Politik gegenüber den Plattformen als »Politik der Pfadentscheidung« verstehen.11 Durch den Hebel der Regulierung, die durch die Plattformen implementiert und weltweit ausgerollt wird, strukturiert Europa den Entscheidungsraum aller anderen Staaten vor und wirkt weit über die eigene Jurisdiktion hinaus.

Zusammengefasst lässt sich festhalten, dass Regulierung durchaus ihre explizit formulierte Intention verwirklicht, gerade dann, wenn sie von großen Plattformen implementiert wird. Wenn die Hintergrundintention allerdings ist, die Macht der Plattformen einzuschränken, wird man damit das Gegenteil erreichen.

Fußnoten

  1. Ein Meme ist ein vom Wort »Gen« abgeleiteter Begriff, der netzkulturelle Artefakte beschreibt, die sich über Selektion, Variation und Kopie viral über das Internet verbreiten.
  2. Etwa Axel Voss im Interview mit Zeit Online: Lisa Hegemann: »Was YouTube macht, ist eine Art Enteignung», https://www.zeit.de/digital/internet/2019-03/ axel-voss-artikel-13-uploadfilter-urheberrechtsreform/komplettansicht, 25. 03. 2019.
  3. Die Ironie der Geschichte will, dass ausgerechnet Google das Konzept des Uploadfilters und somit das Vorbild für die Gesetzesvorlage in die Welt setzte. Content-ID ist ein System zur automatischen Erkennung urheberrechtlichen Materials, das bereits seit 2007 auf YouTube aktiv ist. Vgl. Leonhard Dobusch: Mario Barth vs. »Die Anstalt« – ein anschauliches Beispiel für Probleme mit Uploadfiltern, https://netzpolitik.org/2019/mario-barth-vs- die-anstalt-ein-anschauliches-beispiel-fuer-probleme-mit-uploadfiltern/, 17. 03. 2019.
  4. Internetaktivist*innen haben auf diesen Umstand immer wieder hingewiesen, vgl. z. B. Joe McNamee: Ist Artikel 13 wirklich das Ende des freien Internets, https://netzpolitik.org/2019/ist-artikel-13-wirklich-das-ende-des-freien-internets/, 19. 03. 2019.
  5. Michael Seemann: Das Neue Spiel, S. 146.
  6. Nick Kostov, Sam Schechner: GDPR Has Been a Boon for Google and Face- book, https://www.wsj.com/articles/gdpr-has-been-a-boon-for-google-and- facebook-11560789219?mod=rsswn, 17. 06. 2019.
  7. Vgl. Christian Peukert, Stefan Bechtold, Michail Batikas, Tobias Kretschmer: Regulatory export and spillovers: How GDPR affects global markets for data, https://voxeu.org/article/how-gdpr-affects-global-markets-data, 30. 09. 2020.
  8. Nach Inkrafttreten der DSGVO schlossen Hunderte Blogs, Foren und andere Projekte. Vgl. Enno Park: Statt Links der Woche: Tote Links der Woche, http://www.ennopark.de/2018/05/27/statt-links-der-woche-tote-links-der- woche/, 27. 05. 2018.
  9. Vicotoria Green: A Very Brief And Incredibly Animated History of GIPHY – And What It All Means For Brands, https://marketwake.com/a-very-brief-and-incredibly-animated-history-of-giphy-and-what-it-all-means-for-brands/, 14. 06. 2019.
  10. Henry Farrell: Facebook is finally learning to love privacy laws, https://www. ft.com/content/67b25894-5621-11e9-8b71-f5b0066105fe, 04. 04. 2019.
  11. Tatsächlich gibt es bereits einen Namen für den Effekt, dass vergleichsweise strenge Regulierungen sich als Pfadentscheidung über die eigene Jurisdiktion auswirken: California-Effect. Vgl. Sebastiaan Princen: The California Effect in the EC’s External Relations, http://aei.pitt.edu/2367/1/003780.1.pdf, 05. 06. 1999.

Veröffentlicht unter Kontrollverlust
1 Kommentar

Leseprobe: Die Macht der Plattformen

Heute erscheint mein neues Buch, Die Macht der Plattformen. Wie mein erstes Buch, basiert es in vielerlei Hinsicht auf den in diesem Blog entwickelten Thesen.

Die Kernthese des Buches ist, dass eine spezifische Form der Macht gibt, die ich Plattformmacht nenne und die ich in dem Buch im Detail analysiere. Plattformmacht besteht aus zwei Teilen: Netzwerkmacht und Kontrolle. Die Kontrolle wiederum kommt als unterschiedliche Hebel daher, die ich im 4. Kapitel darstelle. Unter diesen sechs Kontrollregimes findet sich zum Beispiel die Kontrolle des Zugangs zur Plattform (Zugangsregime), die Kontrolle über die Sichtbarkeit von Dingen auf der Plattform via Algorithmen (Queryregime), das Interfaceregime, das Verbindungsregime und so weiter. Das erste Regime, dass ich bespreche, ist das Infrastrukturregime. Der hier veröffentlichte Auszug aus dem Buch stellt es vor:

Das Infrastrukturregime

2014 gibt Facebook bekannt, über 50 neue Geschlechterkategorien im Registrierungsprozess einzuführen.1 Das Medienecho ist riesig. Egal, ob die jeweiligen Kommentator*innen den Schritt begrüßen oder problematisieren, wird er doch allgemein als ein einschneidendes Ereignis gelesen. Und zwar zu Recht.

Denn digitale Infrastrukturen prägen Gesellschaften. Das gilt nicht nur für die Geschlechterfrage. Das größte soziale Netzwerk strukturiert mit seinen Kategorien und Klassifikationen unseren kulturellen Kosmos ganz entscheidend mit. Egal, ob »es ist kompliziert« als Beziehungsstatus oder das »Like« als Geste der Zustimmung, Facebooks Designentscheidungen haben einen Einfluss darauf, wie wir denken, handeln und kommunizieren – auf Facebook, aber auch außerhalb. Doch das ist nur die Spitze des Eisbergs.

Das Internet ist voll mit Standards und Klassifikationen, die unser Leben regieren. Ein Beispiel ist das Domain Name System (DNS). Es sorgt dafür, dass wir in die Browser-Adressleiste Domains wie spiegel.de oder facebook.com eingeben können statt die Zahlen einer IP-Adresse. Schon zu ARPANET-Zeiten wollten sich die Menschen keine numerischen Adressen merken, sondern lieber Namen. Eine Frau namens Elisabeth Feinler entwickelte und pflegte zu diesem Zweck ein öffentliches Verzeichnis, indem sie in einer Datei auf ihrem Computer den numerischen Adressen Namen zuordnete und die Datei über das ARPANET abrufbar machte.2 Ihre Institution nannte sie bald NIC (Network Information Center) und siedelte sie bei ihrem Arbeitgeber, dem Stanford Research Institut (SRI) in Kalifornien, an. Feinler richtete darüber hinaus den ersten Whois-Dienst ein, eine öffentliche Datenbank, in der man Informationen über die Betreiber von ARPANET-Knoten abfragen kann. Bis heute ist Whois ein wichtiger Dienst, der Auskunft über Domainbetreiber*innen liefert. Feinler war es schließlich auch, die die Idee für die sogenannten Top-Level-Domains einbrachte wie .de, .edu, .com etc. Damit waren bereits alle Grundsteine für das DNS gelegt.

Als in den 1980er Jahren das ARPANET auf das Internet umgeschaltet wurde, stellte sich Feinlers System allerdings als zu unflexibel und zu hierarchisch heraus, um beim rasanten Wachstum des Netzes mitzuhalten. 1983 veröffentlichte die Internet Engineering Task Force (ein Gremium, das regelmäßig über neue Netzwerkstandards befindet) Richtlinien zur Entwicklung des DNS. 1984 wurde es zum ersten Mal implementiert: auf einem Unix-System an der Universität Berkeley.

Das System sollte aus verteilten Name-Servern bestehen, die von der Top-Level-Domain abwärts Domains IP-Adressen zuordnen. Jede Domain hat einen Namensraum, der dann wiederum in Namensräume unterteilt werden kann. Der Betreiber der .de- Domain (in dem Fall DENIC) registriert zum Beispiel alle Domains, die auf .de enden, wie spiegel.de oder mspr0.de. Die Domain-Inhaber haben ihrerseits die Möglichkeit, Subdomains einzurichten, wie content.spiegel.de etc.

Obwohl das System von Anfang an international angelegt war, konnten Domains jahrzehntelang nur ohne sprachspezifische Sonderzeichen angemeldet werden. Das hat einen einfachen Grund: DNS basiert auf einem limitierten Zeichensatz, der Umlaute und andere Sprachelemente nicht enthält. Seit 2009 kann das System zwar auch Umlautdomains verarbeiten, doch weil man sich nicht überall auf die korrekte Implementierung des jeweiligen Zeichen- satzes verlassen kann, bleibt es bis heute eher eine theoretische Option, die nur wenig genutzt wird. Die Priorisierung des englischen Sprachraums und seines eingeschränkten Zeichensatzes ist in der Infrastruktur von DNS – und vielen anderen Systemen – quasi eingebacken.

Infrastrukturen sind ineinander verschränkte Erwartungserwartungen. Es sind die akkumulierten Standards, Vorselektionen, Pfadentscheidungen, Klassifikationssysteme, die Plattformen strukturieren und damit vorgeben, wie wir mit ihnen interagieren. Susan Leigh Star hat zusammen mit Geoffrey C. Bowker in Sorting Things out – Classification and Its Consequences einen Infrastrukturbegriff konzipiert, der genau diese Art von Regime gut auf den Punkt bringt.3 Infrastruktur weist unter anderem folgende Eigenschaften auf:

  1. Infrastruktur ist eingebettet in andere soziale, technische und wirtschaftliche Strukturen.
  2. Infrastruktur ist transparent in dem Sinne, dass sie zwar zur Verfügung steht, wenn auf sie zurückgegriffen wird (sonst müsste man sie ständig neu erfinden), aber in ihrer unterstützenden Wirkung unterhalb der Wahrnehmungsschwelle bleibt.
  3. Die Benutzung von Infrastruktur wird gelernt, aber es wird verlernt, dass sie gelernt wurde. Sie erscheint ihren Benutzer*innen dadurch »natürlich« in der Handhabung.
  4. Infrastruktur steht in einem wechselseitigen Beeinflussungsverhältnis mit den Konventionen ihrer Benutzer*innen. Die Konventionen verändern die Infrastruktur, und die Infrastruktur beeinflusst Konventionen.
  5. Infrastruktur basiert auf anderer Infrastruktur und »erbt« deren Limitierungen und Eigenschaften.
  6. Infrastruktur wird nur sichtbar, wenn sie zusammenbricht.
  7. Infrastruktur ist träge und lässt sich nur langsam, lokal und inkrementell ändern, niemals global und ad hoc.

Wie wir in Kapitel 2 gezeigt haben, sind Plattformen einander Infrastruktur, wobei Infrastruktur in unserem Sinne die Gesamtheit der Plattformen ist, auf der eine andere Plattform oder eine konkrete Verbindung aufsetzt. Alle Plattformen basieren auf Infrastruktur, und alle Plattformen sind wiederum Infrastruktur – weswegen alle Plattformen ein Infrastrukturregime implementieren. Infrastruktur kontrolliert auf subtile, aber sehr grundlegende Weise unsere Handlungen und übernimmt die Vorselektionen der Infrastruktur, auf der sie selbst basiert, und reicht sie nach oben durch.

Dass in Domainnamen lange keine Umlaute oder sonstige nicht englische Buchstaben verwendet werden konnten, liegt zum Beispiel am ASCII-Standard. ASCII (American Standard Code for Information Interchange) gibt einen Satz von 128 Zeichen als Standard vor, der universal für beinah alle Computer der Welt interpretierbar ist. Dazu gehören das lateinische Alphabet in großen und kleinen Buchstaben, die Zahlen von 0 bis 9 und einige Satz-, Sonder- und Steuerzeichen. ASCII wurde in den 1960er Jahren von der American Standards Association entwickelt. Danach breitete es sich zunächst als Standardzeichensatz für Unix-Systeme aus und wurde in Computern aller Art auf sehr tiefer Ebene implementiert. Nach Grewal kann man sagen, dass ASCII zumindest im Computerbereich den Schwellenwert der Universalität erreicht hat. Fast alle Internet-Standard-Spezifikationen setzen ASCII voraus – so auch DNS. ASCII ist also Teil der Infrastruktur von DNS.

Doch in seinem Design ist ASCII alles andere als universell. Es ist speziell für die englische Sprache optimiert und kann fremdsprachige Sonderzeichen wie unser »ö« oder »ß« oder gar ganz andere Zeichensysteme wie Mandarin, Kyrillisch oder Sanskrit-Dialekte lediglich über komplizierte Umwege abbilden.

Wenn ein Infrastrukturregime nur mit genügend Netzwerkmacht ausgestattet ist, wird es hegemonial im Gramsci’schen Sinn. So wird aus einer unbedachten Designentscheidung aus den 1960er Jahren ein Kulturdeterminismus, der sich bis heute in der Technologie fortpflanzt und sich der ganzen Welt aufzwingt. Manche gehen so weit, von einem ASCII-Imperialismus zu sprechen.4

Dabei muss das Infrastrukturregime seine Lenkungswirkung gar nicht intendieren. Die Designentscheidungen in Infrastrukturen sind oft einfach Resultat nicht hinterfragter Anschauungen und Wertvorstellungen. Sie sind sedimentierte gesellschaftliche Diskurse und eingelassene Vorurteile, doch nichtsdestotrotz oder gerade deswegen sind sie hochpolitisch.

Als nach und nach die Beschränktheit von ASCII überwunden wurde und Anfang der 1990er mit dem neuen Standard Unicode größere Zeichensätze in vielen Betriebssystemen implementiert wurden, blieben auch hier die eingebackenen Pfadentscheidungen unbedacht. Als Anfang der 2010er Jahre aus Japan der Trend zu kleinen zeichenbasierten Emotionsbildchen – sogenannten Emojis – in westliche Betriebssysteme schwappte, wiederholte sich die Geschichte. Wie Kate M. Miltner in ihrer Studie zur Einführung von Emojis durch Unicode 7 nachweist, waren die begleitenden Diskurse ignorant gegenüber der Wichtigkeit von ethnischer Repräsentation, weswegen das originale Emoji-Set – bis auf zwei Ausnahmen – nur weiße Emojis enthielt.5

Alle Plattformarten implementieren Klassifikationen und Standards auf die ein oder andere Art. Auch Protokolle brauchen definierte Zustände und valide geformte Anfragen. In diese Festlegungen fließen viele Vorannahmen ein. Wie lange muss ein Netzwerkteilnehmer auf eine Antwort warten, bis es ein Time-out gibt? Wie lang ist eine »normale« Nachricht, welches Schriftsystem soll verwendet werden? Wie wird auf Unvorhergesehenes reagiert? Für all diese Festlegungen lassen sich völlig unpolitische und politisch problematische Fälle denken. Und doch werden auf jeden Fall die Aktionsmöglichkeiten von Nutzer*innen in Bahnen geleitet und in bestimmten Fällen konkret eingeschränkt.

Die Einführung der 50plus Geschlechter durch Facebook 2014 ist genau deswegen so stark diskutiert worden, weil hier eine Infrastrukturentscheidung eben nicht implizit war, sondern explizit gemacht wurde. Da die Macht des Infrastrukturregimes ständig droht, in Vergessenheit zu geraten, ist es umso wichtiger, immer wieder an sie zu erinnern.

Fußnoten

  1. Bernd Matthies: Mann, Frau und die 50 anderen, https://www.faz.net/aktuell/ gesellschaft/geschlechter-liste-alle-verschiedenen-geschlechter-und-gender- arten-bei-facebook-13135140.html 16. 02. 2014.
  2. Cade Metz: Before Google and GoDaddy, There Was Elizabeth Feinler, https:// www.wired.com/2012/06/elizabeth-jake-feinler/, 18. 06. 2012.
  3. Susan Leigh Star, Geoffrey C. Bowker: Sorting Things out – Classification and Its Consequences, Cambridge 2000.
  4. Vgl. Daniel Pargman, Jacob Palme: ASCII Imperialism, in: Martha Lampland, Susan Leigh Star: Standards and Their Stories – How Quantifying, Classifying, and Formalizing Shape Every Day Life, Cornell 2009, S. 177–199.
  5. Kate M. Miltner: »One part politics, one part technology, one part history«: Racial representation in the Unicode 7.0 emoji set, https://journals.sagepub.com/ eprint/EBZICCFWSDHSXFIIXYZJ/full#articleCitationDownloadContainer, Januar 2020.

Veröffentlicht unter Kontrollverlust
Hinterlasse einen Kommentar

Warum die Festlegung auf die dezentrale Variante der Corona-Warn-App ein Fehler war

Nächste Woche soll die Corona-Warn-App herauskommen. Es gab die letzten Wochen viele Diskussionen über technische Hintergründe, vermeintlichen Gefahren für die Privatsphäre und den Sinn und Unsinn dieser App. Ich habe mich lange Zeit eher auf der Befürworterseite der App wiedergefunden. Nun sind aber Erkenntnisse über das Virus bekannt geworden, die die ganzen Dikussionen in einem neuen Licht erscheinen lassen. Ich bin mittlerweile überzeugt, dass insbesondere das Beharren auf dem dezentralen Ansatz ein entscheidender Fehler war, der das ganze Unterfangen jetzt nahezu sinnlos gemacht hat. Aber von vorn.

Kontaktverfolgung

Contact Tracing – oder Kontaktverfolgung – ist grundsätzlich erstmal eine sehr sinnvolle und effektive Maßnahme zur Pandemiebekämpfung. Dabei wird die Kontakthistorie von erkrankten Menschen erfragt und diese Kontakte werden dann ihrerseits gebeten sich zu isolieren. Es geht darum, Infektionsketten zu durchbrechen, also dafür zu sorgen, dass Leute, die in Gefahr sind, sich angesteckt zu haben, ihrerseits niemanden mehr anstecken. Gerade bei Covid19, bei dem Ansteckungen oft symptomfrei passieren, ist ein solches Vorgehen besonders wichtig.

In der Praxis geschieht das erstmal manuell, mit speziell geschultem Personal. Sie interviewen die kranke Person und sie telefonieren hinter den Kontakten hinterher. Diese Praxis hat mehrere Probleme: 1. Sie ist sehr personalaufwändig, die Gesundheitsämter mussten dafür bereits sehr viele zusätzliche Leute anstellen. 2. Die Methode ist ist lückenhaft. Man erinnert sich vielleicht noch an jeden einzelnen Kollegen und jedes Familienmitglied mit dem man interagiert hat, aber nicht, neben wem man eine viertel Stunde in der Bahn gesessen hat. 3. Die Methode ist sehr zeitaufwändig. Das ist wahrscheinlich das größte Problem, denn Zeit ist hier der kritische Faktor. Jede zusätzliche Stunde, die ein potentiell Angesteckter nicht gewarnt wird, bedeutet, dass er oder sie weitere Personen anstecken kann.

Auf alle drei dieser Probleme scheint die Corona-Warn-App die Lösung zu sein. Statt, dass sich die Leute selbst merken, mit wem sie wann in Kontakt standen, merkt sich einfach das Telefon, welche anderen Telefone es in der Nähe gesehen hat. „Gesehen“ meint hier, Identifikationscodes anderer Telefone per Bluetooth LE empfangen zu haben. Die Technologie erlaubt sogar eine Abstandsmessung mit einer gewissen Präzision.

Schon im März kam man auf den Gedanken, dass eine solche Methode relativ datenschutzfreundlich umsetzbar ist. Durch Bluetooth kann man getrost auf jede Lokalisierung verzichten. Es geht schließlich nicht um Orte, sondern um relative Entfernungen der Personen zueinander. Obendrein haben findige Sicherheitsforscher ein Konzept entwickelt, wie der Austausch der Identifikationscodes komplett anonymisierbar ist. Es wurde schnell eine europäische Initiative aus Wissenschaftlerinnen, NGOs und Unternehmen gegründet: PEPP-PT (Pan European Privacy Preserving – Proximity Tracing). Es wurde vieles richtig gemacht: Es wurde früh eine breite Debatte angestoßen und es wurden viele zivilgesellschaftliche Akteure und Spezialistinnen eingebunden.

Der Streit

Eine Frage aber schien die Initiative schon früh zu spalten: Nämlich, ob die App zentral oder dezentral funktionieren soll. Zentral würde bedeuten, dass die Daten von den Telefonen gesammelt, aber gleich an einen zentralen Server weitergesendet werden, der dann die Auswertung der Kontakte unternimmt und die Warnungen verschickt. Dezentral bedeutet, dass die Daten vorerst auf den Telefonen bleiben und dort ausgewertet werden. Nur im Infektionsfall würden Daten zentral verarbeitet und an alle Telefone weitergeleitet werden, die dann anhand der jeweilig lokalen Kontakthistorien überprüfen können, ob sie mit dem Identifikationscode des Erkrankten in Berührung gekommen sind.

Die Verfechter der dezentralen Lösung legten als erste eine eigene Spezifikation genau für diese Methodik vor: DP-3T (Decentralized Privacy-Preserving Proximity Tracing). Sie hatten alle Argumente auf ihrer Seite: Eine Zusammenführung der Daten auf dem zentralen Server war schlicht nicht notwendig und aus Datenschutzsicht sogar potentiell gefährlich. Statt die zentrale Variante aber argumentativ zu verteidigen, entschied man sich bei PEPP-PT, DP-3T kommentarlos aus der Initiative zu werfen und ansonsten die Bundesregierung um Unterstützung zu ersuchen. Die stellte sich zwar daraufhin auf Seiten der zentralen Lösung von PEPP-PT, doch das brachte wenig.

Am Ende entschieden nämlich Apple und Google über die Umsetzung. Vor allem die Zusammenarbeit mit Apple war für die Umsetzung egal welcher Lösung absolut notwendig, weil sie aus Sicherheitsgründen den Zugriff auf das Bluetooth ihrer Geräte begrenzen. Apple und Google favorisierten ganz klar die dezentrale Lösung und setzten sie auch noch in Windeseile in Form einer API auf Betriebssystemebene um. Deutschland und Frankreich versuchten das Ganze noch ansatzweise zu eskalieren, um die zentrale Variante doch noch möglich zu machen, doch all das aber brachte nichts. Zumindest Deutschland lenkte bald ein. PEPP-PT verlor.

Das was nun nächste Woche veröffentlicht wird, ist also die dezentrale Variante der App. Ein Sieg der Datenschützer*innen und von Apple und Google.1 Doch es ist ein Pyrrhussieg, denn die grundlegende Designentscheidung, sich auf Dezentralität festzulegen, wird der App nun zum Verhängnis.

Der Paradigmenwechsel

Über die Effektivität der App wird bereits seit langem gestritten. Zwei wesentliche Punkte tauchen dabei immer wieder auf: Zum einen gibt es die Sorge, dass die App in erster Linie Falschpositive Ergebnisse produzieren wird, also Warnungen, die aufgrund von Messfehlern oder falschen Einschätzungen von Kontaktereignissen entstanden sind und die Leute nur verwirren. Zum Anderen und entscheidender: Es braucht es eine enorm hohe Installationsrate, damit die App wirklich effektiv sein kann. (Edit: allerdings bringt auch ein bisschen auch schon was2) Bei 70% Installationsrate würden überhaupt nur 50% der Kontakte registriert. Doch 70% sind ansich schon völlig illusorisch. Selbst die erfolgreichsten Apps überhaupt schaffen gerade mal 60% Abdeckung. Die meistgenutzte Contacttracing-App gibt es auf Island und sie schafft gerade mal 40%. Immer noch ein Traumwert. Wenn wir in Deutschland auf 20% kämen, wäre das bereits ein enormer Erfolg. Ich persönlich fand allerdings keines dieser Argumente so stark, dass es den Versuch nicht wenigstens Wert gemacht hätte.

Meine Meinung änderte sich erst mit dem Auftreten neuer Erkenntnisse zum Virus selbst. Wir wissen zwar schon lange, dass die Reproduktionzahl (R0) des Virus zwischen 2 und 3 liegt (ein Kranker steckt im Normalfall und im Schnitt 2 bis 3 Leute an), wir wussten aber wenig, wie sich diese Ansteckungen verteilen. Bisher sind wir implizit davon ausgegangen, dass sich die Ansteckungen statistisch zufällig verteilen, dass also der eine mal eine Person, die andere vier, die nächste wieder zwei, auch mal jemand niemand und so weiter ansteckt. So ist das zum Beispiel bei der Grippe, mit der wir die meiste Erfahrung haben. Wir wissen aber heute aus mehreren Studien, dass SARS2 – ähnlich wie sein naher Verwandter SARS – eine sehr hohe Dispersion hat. Eine hohe Dispersion heißt, dass die allermeisten Kranken kaum irgendwelche Leute anstecken, aber ein sehr geringer Teil der Kranken gleich sehr viele Leute anstecken. Die sogenannten Superspreader. Wie hoch die Dispersion genau ist, ist noch strittig. Nicht strittig ist jedoch, dass dieses Ungleichgewicht existiert und dass es vergleichsweise hoch ist.3

Was bedeutet das für die Corona-Warn-App? Es bedeutet eine grundlegende Verschiebung der Aufgabenstellung beim Contact Tracing. Kurz: das Verfolgen von Einzelkontakten wird weniger wichtig, das Aufspüren von Clustern rückt ins Zentrum. Der Reihe nach:

Erstens: der Einzelkontakt wird weniger wichtig, weil die Wahrscheinlichkeit der Ansteckung bei Einzelkontakten sinkt. Bei einer normalverteilten Dispersion würde sich die Ansteckungswahrscheinlichkeit auf alle Einzelkontakte gleichmäßig verteilen. Da wir jetzt aber wissen, dass sich ein Großteil der Gesamtwahrscheinlichkeit der Ansteckung auf Superspreading-Events konzentriert, verteilt sich nur noch wenig Restwahrscheinlichkeit für Ansteckungen auf die Einzelkontaktereignisse. Anders: Die Chance, dass ich mich bei dem Typen, der neben mir in der Ubahn gesessen hat, anstecke, ist geringer als wir dachten. Mich davor zu warnen, ist deswegen zwar nicht völlig sinnlos, aber wesentlich wirkungsloser, als wenn wir es mit einer Normalverteilung des Ansteckungsgeschehens zu tun hätten.

Was dagegen jetzt ins Zentrum rückt, sind damit die Superspreading-Events, denn sie haben offensichtlich eine entscheidende Bedeutung für das Ansteckungsgeschehen. Wenn wir jemanden als krank identifizieren, ist es sehr wahrscheinlich, dass diese Person sich in einem Cluster angesteckt hat. Die Priorität verschiebt sich jetzt dahin, das eventuelle Cluster, in dem sich der Patient angesteckt hat, zu identifizieren und alle Menschen des Clusters zu isolieren. Die manuellen Contact Tracer der Gesundheitsbehörden können ein solches „Clusterbusting“ leisten und tun das auch bereits. Doch die Corona-Warn-App kann das nicht. Und zwar grundsätzlich nicht, wegen ihres dezentralen Designs.

Das dezentrale Design eignet sich nur und ausschließlich, um Einzelkontakthistorien zu sammeln und zu analysieren. Wenn es aber darum geht, herauszufinden, wo und unter welchen Umständen man sich angesteckt hat, zu überprüfen, ob es sich dabei um einen Cluster handeln könnte und alle weiteren Leute, die sich in diesem Cluster aufhielten zu warnen, dann ist das mit der dezentralen Variante schlicht nicht umsetzbar.

Rechnen wir uns einen konkreten Fall mal durch: Bei einer Party mit 100 Leuten steckt ein infizierter Gast 30 andere Gäste an. Um die Wirkung der App auf dieses Ereignis zu beurteilen, müssen wir zunächst eine grundlegende Unterscheidung machen: in Fall 1 nutzt der Kranke die App, in Fall 2 nutzt der Kranke die App nicht. Fall 1 ist genau so wahrscheinlich, wie hoch die allgemeine Installationssrate der App ist. Bei 30% Installationsrate (was enorm hoch gegriffen ist), wäre die Chance eben 30%, dass Ansteckungsereignisse überhaupt registriert werden. Die Chance, dass es gar nichts registriert wird liegt also bei phänomenalen 70%. Von den anderen Gästen haben aber auch wiederum nur 30% die App installiert. Also selbst für dem unwahrscheinlich glücklichen Fall, dass der Krankte die App hatte, würden nur 9 der 30 angesteckten gewarnt und könnten sich isolieren.

Und wie ist mit den sekundären Fällen, also die 30 Leute, die sich dort angesteckt haben? Die werden ja vielleicht auch getestet und hatten unter Umständen eine App. Zwar ist es möglich, in ihrer Kontakthistorie entsprechend weit zurückzugehen und alle Leute auf der Party zu warnen, die sich länger mit ihnen unterhalten haben. Aber das bringt genau nichts, weil sie ja zu dem Zeitpunkt gar nicht ansteckend waren. Würden in diesem Fall tatsächlich Leute gewarnt, die sich angesteckt haben, wäre das reiner Zufall. Wie man es dreht und wendet, die dezentrale App ist zum Clusterbusting weitestgehend nutzlos.

Der Zentrale Ansatz hätte es gebracht

Mit der zentralen Variante wäre das Clusterbusting dagegen sogar ziemlich leicht umsetzbar. Würden alle Kontaktgeschehnisse auf einem zentralen Server zusammengeführt, wären solche Cluster-Ereignisse recht leicht und automatisch erkennbar. Es müssten sogar nur vergleichsweise wenige Leute die App nutzen, damit der Verdacht eines Clusters aufscheinen kann.

Rechnen wir das nochmal durch. Bei 30% Installationsrate würden neun der 30 auf der Party infizierten in der Datenbank zusammen als Cluster aufleuchten. Das Signal wäre eindeutig, das RKI und oder die Gesundheitsbehörden könnten entsprechend handeln, den Cluster aufspüren und alle Personen isolieren. Sogar bei nur 10% Installationsrate würden drei Ereignisse in einem vernetzten Zusammenhang auftauchen, was zumindest für einen Verdacht auf einen Cluster völlig ausreicht. Mit anderen Worten: Die zentrale App wäre sogar bei vergleichsweise geringer Nutzung sehr nützlich, um Cluster aufzuspüren.

[EDIT: Es scheinen sich an dieser Stelle einige Mißverständnisse zu ergeben, die es nötig machen, hier noch mal sehr viel weiter ins Detail zu gehen: konzeptionell unterscheiden sich zentrale und dezentrale App zunächst erstmal gar nicht so sehr, insbesondere in Fall 1, also wenn der Erkrankte die App hat. Es werden egal ob zentral oder dezentral 9 Menschen benachrichtigt (und wohl noch ein paar mehr Falsepositives). Auch bei Fall 2 scheint es erstmal ganz ähnlich zu laufen. 30 Leute haben sich sekundär angesteckt, davon werden ein paar symptomatisch, einige davon lassen sich testen, von denen haben einige die App und werden jeweils einige der Leute auf der Party benachrichtigen (jedenfalls, wenn die App so eingestellt ist, dass sie zeitlich weit genug zurückgeht).

Der Unterschied liegt aber in dem, was serverseitig passiert. Bei der dezentralen App kommen nach den Tests nur die Identifikationscodes der Erkrankten an, die dann an die Telefone weitergereicht werden. Die Identifikationscodes sagen aber nichts über Kontaktereignisse aus. Der Server bleibt in der Hinsicht dumm. Nur die Telefone können jeweils lokal abgleichen, ob die Identifikationscodes zu Kontakteignissen passen.

In der zentralen App werden dagegen nicht nur die Identifikationscodes der Erkrankten gesammelt, sondern alle Identifikationscodes. Auf dem Server wird dann überprüft, ob Kontakte stattgefunden haben. So entsteht ein Gesamtgraph aller Kontaktereignisse, egal ob hier Infektionen stattgefunden haben oder nicht. Das heißt, wenn die Sekundärerkrankten ihre Testergebnisse bekommen, ist auf dem Server automatisch nachvollziehbar, dass

  1. die Erkrankten eine gemeinsame Kontakthistorie hatten und wann das der Fall war. Mit anderen Worten: Das Cluster wird erkannt. Ein Cluster ist ein Bereich in einem Netzwerk, der enger vernetzt ist, als der Rest. Das Cluster ist serverseitig schon vorher als solches sichtbar, mit den Testergebnissen wird aber klar, dass dort mehre Ansteckungen passierten. Alarm.
  2. innerhalb des Cluster lassen sich dann alle Personen mit App identifizieren, die ebenfalls beim Ereignis dabei waren, unabhängig davon, ob sie eine primäre Kontakthistorie mit den Getesteten hatten. Das heißt, auch die Cousine, die auf der Party war, aber gar nicht mit einem Erkrankten interagiert hat, kann dem Cluster zugerechnet werden.
  3. Das heißt: Alle diese Clusterkontakte können nun auch benachrichtigt werden, nicht nur die Primärkontakte der Erkrankten.
  4. Sie können zudem anders kontaktiert werden. Mit höherer Dringlichkeit und mit der Bitte, sich sofort zu melden, alle Leute, die auch auf dem Event waren, zu benachrichtigen (auch die ohne App) und sich einer behördlichen Quarantäneanordnung zu unterziehen.

All das ginge mit der dezentralen App halt nicht, weil weder das Wissen um das Cluster an irgendeiner Stelle existiert, noch die Möglichkeit das Cluster direkt als solches zu adressieren. Das Gesundheitsamt würde dann wahrscheinlich im Nachhinein bei der Befragung trotzdem drauf kommen, dass es ein Cluster ist, würde sich die entsprechenden Kontakte erfragen und würde entsprechende Maßnahmen treffen. Das ist dann aber alles wieder manuell und zeitlich und personell aufwändig. Mit der zentralen App ginge das im Nu.]

Fazit

Das frühe Festlegen auf die Dezentralität war ein Fehler. Ein Fehler, den man vorher nicht absehen konnte. Ich selbst habe den dezentralen Ansatz favorisiert mit der einfachen Überlegung, dass ein etwas datengeschützterer Ansatz vielleicht zu einer höheren Akzeptanz führen würde. (Was sich angesichts der tatsächlich stattfindenden Debatte ebenfalls als fraglich herausgestellt hat.)

Es ist hier niemanden ein Vorwurf zu machen. So ist das mit Entscheidungen unter unsicherer Informationslage. Die Chance, das man falsch liegt, ist da nun mal hoch und die dezentrale App schien wie eine gute Idee.

Ok, vielleicht ist doch jemandem ein Vorwurf zu machen. PEPP-PT hätte solche Eventualitäten als Argumente in ihrem öffentlichen Auftreten nutzen können. Sie hätten den „Case“ für die zentrale Lösung sehr viel überzeugender machen können. Stattdessen hat man sich eingemauert und geglaubt mit der Macht der Regierung die eigenen Vorstellungen durchdrücken zu können. Das ging vorhersehbar schief. Schade, das war eine verpasste Chance.

Ich bin aber deswegen aber nicht besorgt oder traurig. Ein weiterer Effekt der Überdispersion ist nämlich, dass wir Covid19 wahrscheinlich auch ganz prima ohne App in den Griff bekommen. So lange wir Superspreading-Events weiterhin vergleichsweise unwahrscheinlich machen und nebenher auf Gesundheitsamtsebene wachsam das Infektionsgeschehen im Blick behalten, ist die Gefahr gering, dass uns die Krankheit noch mal außer Kontrolle gerät.

EDIT: Mtt hat in den Kommentaren auf eine Möglichkeit hingewiesen, wie sich das Problem lösen ließe.

Das würde nicht nur den zentralen Ansatz dazu befähigen, Cluster erkennbar zu machen (Alle, die zu der Zeit diese Innenraum-Id empfangen haben gehören zum Cluster), sondern würde auch ein zweites grundlegendes Problem der App lösen (das ich aus Übersichtsgründen hier nicht mitbehandelt habe). Nämlich die Fokussierung auf Entfernungen. Wir wissen heute, dass Entfernungen fast immer egal sind. Sie sind draußen egal, weil draußen kaum Ansteckungsereignisse passieren. Sie sind aber auch drinnen egal, weil ein Großteil der Ansteckungen durch Aerosole passieren, denen Entfernung mehr oder weniger egal ist. Es braucht also eigentlich eine App, die versteht, wann und mit wem man sich in Innenräumen aufhält und wie lange.

Der genannte Ansatz würde das möglich machen. Sobald die App eine Innenraum-Id empfängt, würde sie alle IDs im Raum aufsammeln – Entfernungen sind dabei egal. Wenn jemand nun positiv testet, würde er nicht nur seine eignen Ids, sondern auch alle Innenraum-Ids mit auf den Server senden. Alle leute des Clusters werden dann gewarnt.

Die Innenraum-IDs wären am besten von normalen IDs unterscheidbar, so dass auch der Server (also das RKI) von dem Cluster sofort unterrichtet wird. (Mehrere positive Testergebnisse mit der Innenraum-ID zu einem gemeinsamen Zeitpunkt sind ein Superspreading-Event.) Innenraum-Ids wären zudem nicht-anonym (Restaurants haben keine Persönlichkeitsrechte), so dass die Behörden auch erfahren, welcher Ort betroffen ist.

Meines Erachtens wäre das eine um ein vielfaches effektivere App und sogar der Datenschutz wäre damit wenig bis kaum angetastet.

Wie ich aber lese, sind solche Ansätze sogar vorgeschlagen worden. Mir ist völlig unverständlich, warum sie nicht umgesetzt wurden.

  1. Allein dazu gibt es noch eine Menge zu sagen, was ich hier getan habe, https://www.youtube.com/watch?v=kwQ6VIDVKQo&list=PLLpGyoDLvP2TH3Avi9d4Q0x31txQrO-gr&index=1
  2. Patrick Howell O’Neill: No, coronavirus apps don’t need 60% adoption to be effective, https://www.technologyreview.com/2020/06/05/1002775/covid-apps-effective-at-less-than-60-percent-download/
  3. Vgl. Lars Fischer: Wie Sars-CoV-2 in Deutschland aussterben kann, https://www.spektrum.de/news/wie-sars-cov-2-in-deutschland-aussterben-kann/1741310

Veröffentlicht unter Algorithmenkritik Postprivacy Queryology
24 Kommentare

Die große Manipulations-Erzählung

/***** Dieser Text erschien im Magazin Hohe Luft Kompakt (Sonderheft 1/20). Dies ist die unredigierte Version, aber dafür mit Fußnoten. ******/

Es war im Jahr 1957, als ein Amerikaner namens James Vicary herausfand, dass man Menschen mittels bewusst kaum wahrnehmbarer Botschaften manipulieren kann. Blendet man zum Beispiel im Kino für den Bruchteil einer Sekunde die Botschaft „Esst mehr Popcorn“ ein, steigt nachweisbar der Popcorn-Umsatz. Vicarys Studie zu „Sublimnal Stimuli“ wurde weltberühmt. Allerdings nicht durch Vicary selbst, sondern über ein Buch, das im selben Jahr Furore machte: „Die Geheimen Verführer“ von Vance Packard.1 Dort wird unter anderem Vicarys Studie beschrieben, natürlich negativ, als Warnung an uns alle. Die Welt war zutiefst beunruhigt und das Wissen um Sublimnal Stimuli hat sich bis heute im kulturellen Unterbewusstsein festgebissen. Im Kultfilm Fight Club von 1999 hat sie einen Auftritt als Tyler, der im Film als Kinovorführer jobbt, einzelne Bilder aus einem Porno in einen Hollywoodfilm schneidet, woraufhin die Kinder anfangen zu weinen.

Wie viele spannende Geschichten, hat auch diese einen Haken. Das Experiment von James Vicary war rein erlogen und „Sublimnal Stimuli“ gibt es nicht. Obwohl Vicary in einem Interview von 1962 selbst zugab, das Experiment zur Steigerung des Umsatzes seines Marketingunternehmens erfunden zu haben, hält sich die Mär bis heute.2

Die Geschichte reiht sich damit nahtlos in einen kulturellen Kontext ein, der sich als eigenes Genre fassen lässt: die Erzählung von der großen Manipulation. Von der „Schwarzen Magie“ bis zur deutschen Nachkriegserzählung vom „verführten Volk“, vom „Rattenfänger von Hameln“ bis zur der Rede vom „falschen Bewusstsein“, von den Illuminaten bishin zur Gedankenkontrolle durch „Chemtrails“ haben schon immer Narrative der Massenmanipulation den allgemeinen Diskurs bestimmt und halten sich hartnäckig.

Besonders auffällig ist, dass solche Geschichten das Auftauchen neuer Medien begleiten. Dem Roman, dem Radio, dem Film und der Schallplatte wurde zunächst mißtraut und etablierte Medien nutzten die Gunst der Stunde gerne, gegen die unliebsame Konkurrenz Stimmung zu machen. Ein berühmtes Beispiel ist die Massenpanik, die es angeblich 1938 in New York gegeben hatte, nachdem Orson Wells Radio-Inszenierung von „War of the Worlds“ uraufgeführt wurde. Die Massenpanik hat es nie gegeben, sondern war vor eine Erfindung der Zeitungen, die dem neuen Medium Radio so eifersüchtig wie argwöhnisch gegenüberstanden. 3

Deswegen überrascht es vielleicht nicht, wenn angesichts der digitalen Medienrevolution, viele neue, faszinierende Beispiele dieses Genres auftauchen. Demnach haben uns Facebook und Google algorithmisch voll im Griff, Donald Trump und seine Berater sind in Wirklichkeit keine plumpen Gauner, sondern ein gewiefte Medien-Manipulatoren, die nebenbei mit Cambridge Analytica Wege gefunden haben, mittels Big-Data-Psycho-Wunderwaffen die Präsidentschaft an sich zu reißen. Was sich so absurd anhört, ist aber nicht Gegenstand von Verschwörungstheorien aus den ungefegten Ecken des Internets, sondern wird genauso in seriösen Publikums-Medien verbreitet. 

Ich bin skeptisch. Das soll nicht heißen, dass Manipulation nicht stattfindet. Offensichtlich gibt es Manipulation. Ohne wäre der Werbemarkt nicht existent und PR-Fachleute arbeitslos. Manipulation findet statt, doch mir scheint, dass sie anders stattfindet, als gerne erzählt wird. Das mag daran liegen, dass sich die Wahrheit oft nicht so gut erzählt – womit wir schon bei der Problembeschreibung sind. Ich behaupte: die effektivste Manipulation funktioniert über Geschichten und nichts ist manipulativer als die Erzählung von der großen Manipulation.

Manipulation, wissenschaftlich gesprochen, ist erst mal ein neutraler Begriff. Jeder Eingriff in die Welt ist eine Manipulation. Im allgemeinen Sprachgebrauch hat sich allerdings durchgesetzt, das Wort dann zu verwenden, wenn dieser Eingriff erstens gegenüber einer Person und zweitens entgegen dessen Willen vorgenommen wird. Man muss den Manipulationsbegriff außerdem gegenüber der reinen Überredung abgrenzen, also dem transparenten Versuch, jemanden von der eigenen Meinung zu überzeugen. Manipulation passiert immer verdeckt. Bleibt die Frage, ob Manipulation immer bewusst passieren muss. Muss der Manipulator wissen, dass er manipuliert, um zu manipulieren? Ein Mensch, der zum Beispiel eine falsche Nachricht weiterträgt, ohne, dass ihm bewusst ist, dass es eine falsche Nachricht ist, ist eher kein Manipulator. Phillip Hübl hat in seinem Buch “Bullshit-Resilienz” Harry Frankfurts Unterscheidung zwischen dem Lügner, der die Unwahrheit sagt, obwohl er die Wahrheit kennt und dem Bullshitter, dem die Wahrheit egal ist, noch den Trottel hinzugestellt. Dem Trottel ist die Wahrheit nicht egal, aber er ist unwillig oder unfähig, die Fakten zu prüfen und auf Plausibilität abzuklopfen. Der Lügner/Manipulatorin braucht Trottel, um seine Botschaft zu verbreiten.4

Feindliche Erfüllungsgehilfen

Im Dezember 2016, kurz nach der überraschenden Wahl Donald Trumps zum Präsidenten der USA, erschien im schweizerischen Magazin „Das Magazin“ ein Artikel mit der reißerischen Überschrift: «Ich habe nur gezeigt, dass es die Bombe gibt»5. Darin beschreiben die Autoren Hannes Grassegger und Mikael Krogerus, wie die bis dahin kaum bekannte Daten-Analyse Firma „Cambridge Analytica“ mittels eines neuen Big-Data-Verfahrens eine Art Psychomarketing-Kampagne ins Werk gesetzt hatte, die – so zumindest die Einschätzung der Autoren – entscheidend gewesen sei, den Außenseiterkandidaten Donald Trump zum Gewinner zu machen. Der Artikel selbst schlug ein wie eine Bombe und zwar international: Es folgten Artikel, z.B.  im britischen Guardian, denn Cambridge Analytica war auch mit dem Brexit im Bunde. Die Geschichte wurde immer größer und besser. Zuletzt produzierte sogar Netflix mit „Der große Hack“ eine populäre Dokumentation dazu 6. Cambridge Analytica ist wahrscheinlich die populärste Manipulations-Erzählung unserer Zeit.

Die Geschichte geht so: Aleksandr Kogan, ein Forscher an der Universität Cambridge, wird angeheuert, um Daten für die zwielichtige Firma Cambridge Analytica zu sammeln. Über ein Facebook-Quiz zur Persönlichkeits-Selbstverortung werden Millionen Profildaten abgegriffen. Das Quiz weist den mitmachenden Facebook-Nutzer*innen ein Persönlichkeitsprofil im Sinne des OCEAN Modells (auch „Big Five“ genannt) zu, bei dem die Persönlichkeit anhand von fünf feststehenden Merkmalen kategorisiert wird: Offenheit, Gewissenhaftigkeit, Extraversion, Verträglichkeit und Neurotizismus.7

In einem zweiten Schritt wird das statistische Verhältnis der Persönlichkeitsprofile der Nutzer mit deren vergebenen Likes auf Nachrichtenseiten, Bands, Lieblingsessen, Prominente, etc als statistischer Zusammenhang (Korrelation) festgehalten. Dieses statistische Verhältnis kann nun umgedreht angewendet werden: Finde ich Leute mit entsprechenden Likes, kann ich davon auf deren Persönlichkeits-Profil schließen. Eine Werbekampagne könnte also speziell auf bestimmte Persönlichkeitsprofile zugeschnittene Facebook-Werbung an Leute versenden, die ein korrespondierendes Like-Profil aufweisen. 

So verbreitet es zumindest Alexander Nix, seines Zeichens CEO von Cambridge Analytica, auf etlichen Sales-Pitches und Marketing-Konferenzen. Es ist zunächst nur die Werbeerzählung eines Unternehmens, das seine Leistungen verkaufen will.

Doch als Donald Trump am Morgen des 9. November 2016 überraschend als Präsident feststeht, klingt sie auf einmal nicht mehr wie fadenscheiniger Selbstvermarktungs-Bullshit, sondern wie die Lösung des Rätsels. Es ist eine unglaubliche und genau deswegen glaubhafte Erzählung über individualisierte Massenmanipulation, die das Unerklärliche erklärbar macht.

Mit der großen Manipulationserzählung lässt sich ein Präsident Trump nicht nur erklären, sondern auch gut relativieren. Es ist schwer zu akzeptieren, dass viele Millionen Amerikaner bereit waren, einen so plumpen wie korrupten Schreihals und offenen Rassisten ins Weiße Haus zu wählen. In Deutschland kennen wir das. Jahrzehntelang hielt sich nach dem Krieg die Erzählung vom verführten Volk. Allein das demagogische Talent von Hitler und Goebbels sei es gewesen, das Millionen Deutsche zum Massenmord inspirierte. Jede große Manipulations-Erzählung hat den großen Manipulator. Statt ein strukturelles, komplexes Problem hat man durch ihn ein einfaches, adressierbares: der große Bösewicht und seine Schergen. Im Grunde ist es eine optimistische Erzählung.

Problematisch wird es nur, wenn man Belege für die Geschichte sucht.

Dass Hillary Clinton viel ausgefeiltere und bessere Datenanalyst*innen auf ihrer Seite hatte, die mit noch mehr Aufwand und noch mehr Werbegeld die Massen per Facebook ansprachen: Details!8 Dass es für den groß angelegten Einsatz der Methoden von Cambridge Analytica im Trump-Wahlkampf keinerlei Beweise gibt und der Kampagnenleiter für Digitales das bestreitet: Nebensache.9 Dass Ted Cruz, der vor Trump mittels derselben Firma erfolglos versuchte im Vorwahlkampf zu gewinnen, Cambridge Analytica wegen Nutzlosigkeit feuerte: dahingestellt.10 Dass auch die Trump-Kampagne die Cambridge Analytica Daten zugunsten denen, welche die republikanische Partei bereitstellte, links liegen ließ: egal! 11 Dass eine extra eingesetzte Untersuchungskommission zu dem Urteil kam, dass die gesammelten Facebook-Daten bei der Brexit-Kampagne überhaupt nicht zum Einsatz kamen: was solls!12 Dass es keinen einzigen Nachweis gibt, dass die Psychomarkting-Methode überhaupt wirksam ist und dass führende Wissenschaftler aus diesem Gebiet das aus guten Gründen bezweifeln – was sind solche Einwände schon, gegen eine gute Maniupulationsgeschichte? 13

In seinem Buch, „The Storytelling Animal“ legt Jonathan Gottschall dar, wie die evolutionäre Veranlagung, Geschichten zu erzählen und Geschichten zu rezipieren, die definierende Eigenschaften der menschlichen Spezies wurde.14 Das Erzählen von Geschichten war und ist eine universelle Wissenstechnik zu allen Zeiten und in allen Teilen der Welt. Menschen definieren sich über Geschichten, sie erzählen sich. Als Spezies, als Glaubensgemeinschaft, genauso wie als Individuen. 

Geschichten waren die ersten und wichtigsten Träger von Wissen, die von Generation zu Generation über tausende Jahre weitergereicht wurden. Geschichten bieten evolutionär gesehen einen niedrigschwelligen Zugang zu unserem Gehirn. Eine Erzählung bleibt in Erinnerung, weil sie auf einer emotionalen Ebene funktioniert. Deswegen lassen wir uns von Geschichten eher überzeugen, als von Daten, Studien und harten Fakten.

Das Narrativ von der großen Manipulation ist also erstens erfolgreich weil sie eine gute Geschichte erzählt und wir prädispositioniert sind, darauf anzuspringen. Hinzu kommt zweitens, dass die Erzählung von der Manipulation eine einfache Erklärungen für das Unbegreifliche liefert. Eine Erklärung, die, drittens, ganz nebenbei die Verantwortung für unschöne, gesellschaftliche Ereignisse von uns weglenkt – hin zu einem großen Strippenzieher, als dessen Marionetten wir uns – oder alle anderen – wähnen. Doch es gibt noch einen weiteren, einen vierten Grund, warum ausgerechnet dieses Genre der großen Erzählungen alle anderen überflügelt: Es ist eine merkwürdige Allianz zwischen dem vermeintlichen Manipulator und demjenigen, der vor ihm warnt. 

Zur Erinnerung: Es war nicht Vicary, der die „Subliminal Stimuli“ bekannt machte, auch wenn er es versuchte. Es war Vance Packard, mit der Intention vor ihm zu warnen. Es war nicht zuvorderst Alexander Nix, der Cambridge Analyticas angebliche Superkräfte in das kollektive Bewusstsein brachte, es waren Journalisten und Dokumentarfilmer, die uns vor Augen führen wollten, wie wir alle manipuliert wurden.

Der feindliche Erfüllungsgehilfe

Hier passiert etwas spannendes: Die Manipulation spaltet sich. Da ist zunächst die behauptete Manipulation. Sie ist erlogen, im besten Fall übertrieben. Nennen wir sie Manipulation 1. Die Erzählung der Manipulation 1 widerum ist aber als solche selbst manipulativ. Das ist Manipulation 2. Sie ist die eigentliche, die wirksame Manipulation. Sie bringt tatsächlich Leute dazu, ihr Verhalten zu ändern, Sündenböcke zu suchen, sich Wochenlang mit nichts anderem zu beschäftigen.

Während sich für Manipulation 1 Lügner und Bullshitter verantwortlich zeichnen, wird Manipulation 2 von den Warnern herbeigeredet. Nach der Hüblschen Definition könnte man sie als “Trottel” abtun, vielleicht als “nützliche Trottel”, doch dabei käme nicht zum Ausdruck, dass sie sich doch als Gegner der Manipulation glauben. Es braucht einen eigenen Begriff dafür. Ich nenne sie “feindliche Erfüllungsgehilfen”. Erst die feindlichen Erfüllungsgehilfen machen aus dem vermeintlichen einen echten Manipulator. 

Bildungsbürger schauen gerne auf die Verschwörungstheoretiker hinab, die allen möglichen Unfug glauben: von Gehirnwäsche per 5G-Strahlung, Autismus per Masernimpfung oder der Gedankensteuerung über Kondensstreifen. Sicher, die Manipulationserzählung des liberalen Bildungsbürgers sind abstrakter, intellektueller, aber sind sie so viel besser?

Wie die ordinäre Verschwörungstheorie, hat auch die Manipulationserzählung eine distinguierende Funktion. Man fühlt sich erhaben, als auserwählt, denn im Gegensatz zu den meisten anderen hat  man das Spiel durchschaut. Es ist deswegen kein Zufall, dass Manipulationserzählungen häufig eine Abwehr gegenüber neuer Medientechnologie ausdrücken. Cambridge Analytica ist ein gutes Beispiel, aber Affekte gegen neue Medien spielten schon bei den „Subliminal Stimuli“ (Kino) und der angeblichen Massenpanik durch Orson Wells (Radio) eine entscheidende Rolle. Neue Medien bedrohen den Status alter Medien und damit auch den Status von Eliten, ihrer Art zu leben und die Welt wahrzunehmen. Manipulationserzählungen fungieren als zweifache Abgrenzungsbewegung: gegen die neue Medientechnologien auf der einen, und vor allem den sie nutzenden Massen auf der anderen Seite.

Nichts erfüllt diese Abgrenzungsleistung besser, als die Rede vom „Überwachungskapitalismus“.15 Der digitale Kapitalismus – so die Autorin und Sozialpsychologin Shoshana Zuboff – basiere heute weniger auf der Ausbeutung von Arbeit, – sondern auf der Ausbeutung durch Manipulation. In ihrem Bestseller „Das Zeitalter des Überwachungskapitalismus“ behauptet sie, dass die Wertschöpfung im Digitalen in erster Linie auf der Fähigkeit der Tech-Konzerne basiert, mittels der horrenden Datenmassen, die sie über uns sammeln, Vorhersagen über unser Verhalten zu machen. Diese Verhaltensvorhersagen werden dann dafür verwendet, uns zu manipulieren. Die Differenz zwischen Vorhersage und schließlichem (manipulierten) Verhalten nennt sie „Behavioral Surplus“, also den „Verhaltensmehrwert“.

Zuboffs Buch ist eine wundervoll erzählte Geschichte, die nicht völlig falsch ist. Detailliert zeichnet sie die Werdung des Geschäftsmodells von Google und Facebook nach. Aber im Grunde reproduziert sie nur ihre Selbsterzählung – als Karikatur. Aus “Wir verkaufen personalisierte Werbung mit der wir punktgenau Konsumenten erreichen” wird “Google und Facebook haben die totale Kontrolle über unser Verhalten.”

Doch ähnlich wie bei Cambridge Analytica sind die Belege für die Manipulations-Allmacht der Tech-Konzerne rar. In einer gemeinsamen Studie zu behavioral Advertisement kommen Forscher*innen der Universitäten von Minnesota, Kalifornien, Irvine und Carnegie Mellon zum Schluss, dass der Unterschied zwischen personalisierter und nicht personalisierte Werbung lediglich 4% Mehrumsatz bringt, als ungetargetete Werbung. 16

Im Zuge einer Studie hatte Ebay 2014 für einen Zeitraum von 11 Wochen alle ihre Anzeigen bei Google eingestellt.17 Normalerweise erscheint bei fast allen gegooglten Alltagsgegenständen ein entsprechendes Angebot von Ebay in den Anzeigen-Listenplätzen. In diesem Zeitraum aber nicht. Ebays Marketing-Abteilung war davon ausgegangen, dass die Umsätze ohne die Googleanzeigen dramatisch zusammenbrechen würden. Stattdessen waren die Umsatzeinbußen viel geringer, als die eingesetzen Werbegelder. Für jeden in die Googlewerbung eingesetzten Dollar, verlor Ebay 63 Cent. Der Grund: Die meisten Leute hätten eh bei Ebay gekauft und auch in der “natürlichen” Suche erscheinen Ebay-Angebote oft recht weit oben.

Im Grunde basiert die Erzählung von der Massenmanipulation durch getargetete Werbung auf einem allgemeinen Mißverstehen über statistische Mechanismen. Facebook verdient sein Geld mit Werbung und die Daten dienen dazu, zu steuern, wem die Werbung gezeigt wird. Wenn ich eine Facebook-Werbung sehe geht es nicht darum, dass ich als Individuum, Michael Seemann, überredet werden soll, auf die Werbeanzeige zu klicken. Ich bin Facebook egal und ob mich die Werbung anspricht oder nicht, sagt überhaupt nichts darüber aus, wie gut oder schlecht getargetet wird. Ich bin nur Teil einer auf statistischen Kriterien zusammengestellten Gruppe und Facebook hofft mit Targeting erreichen zu können, dass von 1000 Leuten in dieser Gruppe 21 statt nur nur 20 Personen auf die Werbeanzeige klicken. Ein einziger, zusätzlicher Klick mehr pro Tausend Personen scheint eine eher überschaubare Manipulationsleitung zu sein. Doch damit kann man Millionen verdienen. Vorausgesetzt man ist so groß wie Facebook.

Die viel interessantere Frage ist, weshalb Werbekunden bereit sind, für die 4% Extra-Umsatz bis zu 2,68 Mal so viel Werbeetat springen zu lassen, als bei normaler Werbung.18 Es hat sicher damit zu tun, dass Facebook und Google eine marktbeherrschende Stellung im Online-Werbemarkt einnehmen und niemand so viele Leute erreichen kann, wie sie. Vielleicht ist aber auch die Erzählung von der Wunderwaffe “getargetete Werbeanzeigen” manipulativer als ihre behauptete Wirkung. Und Zuboff übertreibt mit ihrer Erzählung des “Überwachungskapitalismus” diese Geschichte auch noch ins Groteske. Vielleicht können Google und Facebook dank ihrer anatogistischen Erfüllungsgehilfin ja bald ihre Werbepreise erhöhen.

Fazit

Niemand will manipuliert werden, auch ich nicht. Ich bin deswegen vorsichtig geworden, wenn ich eine gute Geschichte höre. Ich analysiere dann die Interessenstrukturen. Wer erzählt die Geschichte und warum? Und wer hat überhaupt ein gegenteiliges Interesse? Besonders mißtrauisch macht es mich, wenn die Geschichte allen nutzt.

Und ich habe gelernt, mir selbst zu mißtrauen. Meinem fehleranfälligen Denken, meinen eigenen Interessen und Ängsten, meinem Wunsch nach einfachen Antworten, meiner Unfähigkeit Unwissen oder Widersprüche auszuhalten. Warum gefällt mir diese Geschichte gerade so gut? Bestätigt sie meine Vorurteile, meine Ressentiments? Nützt mir die Geschichte vielleicht sogar oder passt sie mir anderweitig in den Kram?

Ironischer Weise versuche ich auch meine Angst vorm Manipuliertwerden zu überwinden, denn es ist wie Niklas Luhmann in “Vertrauen” schreibt: “Wer mißtraut, braucht mehr Informationen und verengt zugleich die Informationen auf die er sich zu stützen getraut. Er wird von weniger Informationen stärker abhängig. Damit gewinnt die Möglichkeit, ihn zu täuschen wiederum an Berechenbarkeit.”19

Mein Tipp: Seien wir weniger berechenbar, indem wir uns dafür halten.

  1. Vance Packard: Die geheimen Verführer – Der Griff nach dem Unbewußten in jedermann, Berlin 1976.
  2. Wikipedia: Iss-Popcorn-trink-Cola-Studie, https://de.wikipedia.org/wiki/Iss-Popcorn-trink-Cola-Studie
  3. Mark Memmott: 75 Years Ago, ‚War Of The Worlds‘ Started A Panic. Or Did It?, https://www.npr.org/sections/thetwo-way/2013/10/30/241797346/75-years-ago-war-of-the-worlds-started-a-panic-or-did-it, 30.10.2013.
  4. Philipp Hübl: Bullshit-Resistenz, Berlin 2019
  5. Hannes Grassegger, Mikael Krogerus: Ich habe nur gezeigt, dass es die Bombe gibt, https://www.dasmagazin.ch/2016/12/03/ich-habe-nur-gezeigt-dass-es-die-bombe-gibt/, 19.02.2020.
  6. Netflix: The Great Hack, https://www.netflix.com/de/title/80117542
  7. Wikipedia: Big Five, https://de.wikipedia.org/wiki/Big_Five_(Psychologie)
  8. Kris-Stella Trump: Four and a half reasons not to worry that Cambridge Analytica skewed the 2016 election, in: Washington Post, https://www.washingtonpost.com/news/monkey-cage/wp/2018/03/23/four-and-a-half-reasons-not-to-worry-that-cambridge-analytica-skewed-the-2016-election/, 23.03.2018.
  9. Kendall Taggert: The Truth About The Trump Data Team That People Are Freaking Out About, in: buzzfeed, https://www.buzzfeednews.com/article/kendalltaggart/the-truth-about-the-trump-data-team-that-people-are-freaking#.anxmzqpwE, 16.02.2017.
  10. Ted Cruz hat CA eingesetzt und gefeuert. Heather Timmons: If Cambridge Analytica is so smart, why isn’t Ted Cruz president?, in Quartz, https://qz.com/1234364/cambridge-analytica-worked-for-mercer-backed-ted-cruz-before-trump/, 21.03.2018.
  11. David Karpf : On Digital Disinformation and Democratic Myths, https://mediawell.ssrc.org/expert-reflections/on-digital-disinformation-and-democratic-myths/, 10.12.2019
  12. BBC: Facebook appeals against Cambridge Analytica fine, https://www.bbc.com/news/technology-46292818, 21.11.18
  13. Andrew Bosworth: https://www.facebook.com/boz/posts/10111288357877121, 07.01.2020.
  14. Jonathan Gottschall: The Storytelling Animal: How Stories Make Us Human, New York 2012.
  15. Shoshana Zuboff: The Age of Surveillance Capitalism: The Fight for the Future at the New Frontier of Power, New York 2019.
  16. Veronica Marotta, Vibhanshu Abhishek, Alessandro Acquisti: Online Tracking and Publishers’ Revenues: An Empirical Analysis, https://weis2019.econinfosec.org/wp-content/uploads/sites/6/2019/05/WEIS_2019_paper_38.pdf, Mai 2019.
  17. Thomas Blake, Chris Nosko, Steven Tadelis: Consumer Heterogeneity and Paid Search Effectiveness: A Large Scale Field Experiment, http://faculty.haas.berkeley.edu/stadelis/Tadelis.pdf, 08.04.2014.
  18. Howard Beales: The Value of Behavioral Targeting, https://www.networkadvertising.org/pdfs/Beales_NAI_Study.pdf, 2009.
  19. Niklas Luhmann: Vertrauen. Ein Mechanismus der Reduktion sozialer Komplexität, Stuttgart 1973, S. 79.

Veröffentlicht unter Algorithmenkritik Demokratische Wahrheit Kontrollverlust Plattformpolitik
Verschlagwortet mit
7 Kommentare

An Unsettling Question for Digital Capitalism

/****** This Essay was first published in German at „Aus Politik und Zeitgeschehen“ and also as an extended version on this blog. The translation was provided by Lisa Contag. ******/

A spectre is haunting (not only) Europe — the spectre of digital capitalism. And as is fitting for the times we live in, it comes in many shapes and colours: as information capitalism, data capitalism, platform capitalism, surveillance capitalism and cognitive capitalism. A multitude of digital capitalisms have come into existence, however, they essentially indicate the same thing: that we are witnessing fundamental changes. And this exact point leads me to the unsettling question: is this still capitalism?

When using the word “unsettling”, I don’t mean the discomfort the authors of numerous and diverse characterizations of digital capitalism obsess about. My goal is not to demonstrate that capitalism’s new digital variety is worse than all its predecessors. My unease rather concerns capitalism itself. I figuratively place my hand on its shoulder, as it were, and quietly ask: “Everything ok there, capitalism?” While many authors identify capitalism to have further radicalized in its digital version, my impression is the opposite. I believe capitalism isn’t doing well at all in the digital realm. This is why I want to ask more fundamentally whether capitalism in its digital variety in fact still meets the criteria we use to describe this economic system and way of organizing society.

There are various definitions of capitalism which at the core, however, are more or less the same. Accordingly, capitalism is seen to meet the following five criteria: it is characterized by the antagonism of capital and labour (at least for Marx), the fact that economy is controlled by markets (neoclassical definition), by private ownership of means of production, the dominance of ownership order, as well as the principle of accumulation (or growth). Below, I will investigate what happens to these criteria in the digital realm.

Capital 

Let’s start with the obvious: private ownership of means of production, “capital”. Much has happened here in particular due to digitalization. In Marx’ days, means of production were mostly land, buildings, machines and perhaps vehicles. To illustrate how strongly the essence of capitalism has changed through digitalization, you only need to consider this: Uber, the world’s largest taxi company, doesn’t own a single vehicle. Alibaba, the world’s most valuable retailer, has no inventory. Airbnb, the world’s largest accommodation provider, owns no real estate.

Jonathan Haskel and Stian Westlake have researched this context more systematically in their book “Capitalism without Capital”. Its subtitle “The Rise of the Intangible Economy” already indicates that capital hasn’t simply disappeared1. Rather, it dematerialized. Tangible capital goods as they had already been known to Marx, were at some point complemented by software, data bases, designs, brands, advanced trainings and other intangible, immaterial assets. But these weren’t simply added. In the United States, the UK and Sweden investments in intangible assets have surpassed tangible assets long since. 84 percent of the US S&P 500 companies’ assets are intangible2. The digital industry is at the forefront here and a driver of this development. 

“Tangible, intangible, what difference does it make?”, one might ask. Haskel and Westlake point out four systemic differences: intangible assets are firstly sunk costs, meaning that capital invested in intangible assets is difficult to re-sell. Secondly, there are often spillovers: it’s hard to maintain exclusive ownership of information — which all intangible assets are. Thirdly, intangible assets are scalable: once produced, an intangible asset can be used anywhere with no further limitations or additional costs. Fourthly, intangible assets are synergistic: often they only form new products or result in new cases of application in combination with other intangible assets. 

The spillover effect is the most interesting. We encounter it whenever copyrighted works are shared on the internet. For industrial manufacturers this can also simply mean that competitors copy the manufacturing processes of their products or their software. Legal protection is available for some — but by far not all — intangible investments. This is in fact where we return to our criterion of capitalism. Only intangible investments, protected by copyright, patents or trade mark registrations, can be considered personal property and appear as assets in the balance sheets. However, structurally, even these forms of private ownership, i.e. intellectual property, are highly questionable in their classification as property, their worth being determined almost arbitrarily. Essentially, these are monopoly exploitation rights3, or, put pointedly, pretensions to ownership.

Labour

The function of labour, or rather the juxtaposition of labour and capital as elements of the production process, plays an essential part in any definition of capitalism. According to Marx’ theory, human labour, or more precisely socially necessary labour time, is the factor that creates a commodity’s economic value in the first place. Because the labourer is not fully compensated for the value he produces, but only to the extent necessary to reproduce his labour-power (reproduction), the capitalist pockets the difference (surplus value) as profit. 


Let’s take a closer look at the use of labour and generated value in the digital economy with the particularly impressive example of the US video-rental chain Blockbuster in comparison to online streaming service Netflix: Netflix, counting 5400 employees, generated 15.7 billion dollars in revenue in 2018, whereas the video-rental chain, which went broke, generated 3.24 billion dollars with 25,000 employees in its last year (2010). This means that while employing five times the amount of people Netflix does, Blockbuster only generated one fifth of Netflix’ revenue — despite their similar lines of business4. Digital economy thus appears to generate much more value added per employee than the former analogue economy.

In economic science, this correlation is measured as workforce productivity. If you look at the overall economy (e.g. of the G20 states), you will indeed notice enormous growth of workforce productivity, but only low growth of wages, with the margin consequently ending up in the capitalists’ pockets, a fact that has been described by economist Thomas Piketty who illustrated how the growth of fixed assets has been decoupled from the growth of wages5. Numerous IT firms are among the companies with the highest workforce productivity in the world. Apple generates nearly 2 Million dollars in revenue per employee. Facebook and Google follow in second and third place, with well over 1 Million dollars per employee6. None of these companies are known for paying bad wages — to the contrary. In relation to the market prices, particularly developers and IT specialists earn far above average. In relation to the generated revenues, however, their wages are no more than “peanuts”. And considered from the perspective of Marx’ logic of exploitation they could even be counted among the most badly exploited people in the world, given the enormous amount of extracted surplus value. 


On the other hand, however, it is difficult if not impossible to measure how the perceived social surplus value relates to the economic surplus value, especially since surplus value is generated so differently today to what Marx observed in his time. In his book “Das Kapital sind wir”, writer and researcher Timo Daum not only provided an interesting description of the digital economy but also his own hypothesis about value creation in the digital realm7. According to Daum, value isn’t created through the production of goods but through innovation. And we are all contributing to it: because we are constantly monitored when we use digital tools. The data collected in this way is used for the development of new innovations and for improving existing products. Harvard economist Shoshana Zuboff has taken the same line, however, she makes value creation sound a lot more insidious. She too sees the surveillance of users at the centre, but rather than innovation she identifies manipulation (behaviorial surplus) as key for the internet companies’ creation of value.8 Nick Srnicek, a lecturer in digital economy, on the other hand, describes data as a kind of resource which only gains value when being processed. He thus identifies the work of programmers, analytical algorithms and most of all data scientists as responsible for value creation9. In his book “Post Capitalism”, journalist Paul Mason even came to the conclusion that capitalistic economies will not be able to continue if information rather than labour becomes the central resource for value creation.10

When asking about the role of labour in the digital realm, we are thus confronted with a variety of differing, contradictory theories and observations. The only common denominator seems to be that labour in the classical understanding is no longer where the creation of surplus value essentially happens. 

Market

Much has happened in economic science since Karl Marx authored “The Capital”. Many economists no longer consider the production process as central, but the market. Accordingly, there’s hardly any contemporary definition of capitalism that will not refer back to the market, identifying it as capitalism’s essential control mechanism. By keeping the equilibrium between production and consumption via the price mechanism, the market ensures that goods are only produced roughly in the amounts they are demanded and that they remain within an affordable range — at least in theory, which is often and readily criticized because it builds on presumptions that can hardly be put into practice: complete transparency of the market, people as rational economic subjects, the non-existence of transaction costs, not taking into account influences and costs (externalities) not represented in the market, and so on.

Generously ignoring these inaccuracies, the market could be seen as an “information system”11 which coordinates the signals of providers and consumers as input. From this point of view, one should think that the market would be compatible with the digital realm. And as it turns out, market mechanisms are indeed easily recreated in algorithms. This is exactly what for example Uber did with “surge pricing”. The number of Uber drivers on the road varies, depending on the time of day or night, likewise demands for drivers vary. Uber users are thus presented with a surge price next to the standard price. In case of uncertainty, this is higher than the standard price, on the other hand it ensures that people immediately get a car. In a way, this is a market price — except that it is calculated by an algorithm. 

A lot more insights can be gained from the millions of user decisions for and against surge prices. People whose smart phone battery is about to run out, for example, are more willing to pay a higher price for an immediate Uber ride. This also allows for the calculation of the consumer surplus, as a team around economist Steven Levitt demonstrated with the example of Uber12. Consumer surplus, in short, is the difference between the price I factually pay for a product and the price I would be prepared to pay if it were higher. The difference that I did not pay is the bonus I as a consumer end up with in the end. Because the readiness to pay certain prices varies from person to person, every consumer “receives” an individual consumer surplus. The general consumer surplus is then calculated by adding up individual differences. Levit et. al.’s research showed that Uber generated roughly 2.9 billion dollars in consumer surplus 2015. This is not the kind of money reflected in statistics. It’s money that wasn’t spent but possibly would have been if every customer had been shown a personalized price. However, if you know that a customer would pay more, why then not indicate that price instead?

Let’s look at what is happening here: if the market price is an information system and computers, the internet and shop systems are also information systems, then the former was in a way hacked by the latter. The providers’ IT systems are simply more intelligent than the market.

Property

A both simple and elegant definition of capitalism, which distinguishes itself both from the Marxist and the neoclassical definition without being incompatible with either, was developed by economists Gunnar Heinsohn and Otto Steiger.13 They define capitalism as an ownership order,i.e. a society which is structured by the concept of property. What may sound banal, obvious and hardly productive at first becomes interesting when you take a closer look at the implications of the term “ownership.” 

While Marx locates capitalism’s original setting in production, and the neo-classical economists in the market exchange, Heinsohn and Steiger locate it in the difference between “ownership” and “possession”. This distinction itself is not economical, but mainly legal. “Possession” is anything I have power of control over; which distinguishes it from “ownership”: ownership is a legal title, an abstract claim. This means that I can give objects that I own into the possession of others while they remain my property. However, this is only possible if an external power ensures that this legal title is enforceable and the object is returned to me in cases of doubt. Ownership thus requires a state monopoly on the use of force. 

When applying this definition to the digital realm, the online music platform Napster comes to mind. Launched in 1999, this service made all the music files on a user’s computer available to other Napster users. The program featured a search mask which allowed searches for any kind of music, producing a list of users who had the titles in question and were prepared to share them. One mouse click sufficed to start the download. For collectors, this was a true El Dorado. For the music industry, however, this El Dorado was a major spillover, the total loss of control and the sudden end of their business model. Following Heinsohn / Steiger’s definition of capitalism, one could say that the music industry fell back from ownership order to a download ‘possession order’. The music industry (and a number of rights distributors) lobbied extensively for more restrictive copyright laws, nonetheless it wasn’t able to get rid of thepeer-to-peerfile sharing platforms.

And this is where it gets interesting: The fact that the music industry does have a business model again today is not due to the state enforced ownership order but because a totally new, unique order formed on the internet: the order of platforms. When Apple approached music labels in 2002 and presented them with iTunes, the company’s own commercial online platform for music, the music industry had its back to the wall. Not even the major labels had succeeded in introducing legal online platforms that could compete with the file sharing platforms. Apple’s Steve Jobs was able to dictate the terms to the labels in the end14because his company had something they didn’t have: I call it “marketable power of control”. Apple was not only able to commercially and legally offer music, but also to withhold it via iTunes’ technological infrastructure, without requiring any additional entity to enforce this (the state). Many companies which today shape the “platform economy” would soon follow Apple’s example. First and foremost, their platforms are control infrastructures to artificially shorten potentially boundless goods.

The platforms’ marketable power of control has overcome its limitations to actual legal titles long since. Facebook has no ownership rights of our personal data and yet their business model is based on executing marketable power of control over them. The platforms are already executing a form of control that operates without the ownership order and merely reflects it in parts. This, however, means that in the digital realm, the legal concept of ownership is at stake, at least to some degree.

Growth

One criterion keeps reappearing both in the Marxist and the neoclassical type definitions of capitalism, namely growth. What part does it play in digital economy?

In “The Rise and Fall of American Growth”15, economist Robert J. Gordon argued that despite all the future promises digitalization may offer, economic growth is no longer driven by factual innovation today. He substantiated his findings with reference to the so-called total factor productivity (TFP) — a measure of economic efficiency which is calculated by subtracting growth rates of labour and capital inputs from growth in output, and thus determining the portion of growth in output not explained by growth in these factors. The TFP to Gordon represents a way to measure growth effects of innovation. The fact that the US TFP averaged somewhat more than one percent annually from the 1930s to the 1970s, but was much lower before and after, leads Gordon to the conclusion that digitalization has resulted in hardly any innovation. He thus picks up on an observation by economist Robert Solow back in 1978: “You can see the computer age everywhere but in the productivity statistics.16

I would like to object. In my opinion, digital innovations are as real as technological innovations once were, the difference being that they can’t really be measured by conventional standards. Both the gross domestic product and all values derived from it, such as growth, productivity or the TFP, are based on how much revenue is generated in different industries, meaning: anything not leading to a transaction is not considered. However, there are many reasons why especially digital innovations often appear transaction-neutral or even reductive.

Firstly, market transparency has increased through the internet. Our consumer decisions today are much more knowledgeable than they were before the internet, which also means less misinvestments (and thus less transactions). Secondly the mentioned spillover effect has also led to the situation that we have a much larger variety of cultural offerings at our disposal without having to spend substantially more money. We don’t have to illegally stream movies but the mere fact that we could forces companies to create attractive commercial options that are legal. This also leads to a minus in growth performance. Thirdly we shouldn’t forget how much free knowledge we have access to today. Apart from collecting donations, Wikipedia is completely free. On the other hand, it creates a big red minus in the overall economic balance sheets, given the losses of numerous encyclopaedia publishers. Though many attempts have been made, there is no sensible way of determining Wikipedia’s enterprise value17. Similar effects for the economy can be observed in the case of open source software.

In general, many economic processes are becoming more efficient thanks to technology. The introduction of Artificial Intelligence and Big Data is advertised time and again as enabling substantial savings. Savings, however are transactions that didn’t take place. They streamline the balance sheets without necessarily being complemented by additional investments. This means that digital innovations save more transactions than they add. Why is there still economic growth then? My hypothesis: similar to 2007, we are in a bubble, this time, it’s the intangible assets bubble. I think intangible assets are massively overrated — simply because they are artificially prevented from spillovers, the “natural state” of any information in the digital realm. Platform control, draconic copyright laws and the enforcement thereof, have led to an artificial shortage of ideas, thoughts and creative achievements, which make our lives poorer on the one hand, in order to sell them to us at an even higher price on the other.

Growth used to mean that more people could do more things, that products became cheaper, that more people had access to running water, electricity, consumer goods. In the digital economy, growth merely means that the consumer surplus is exploited more efficiently, i.e. that more people are needlessly paying more than they would have to under normal market conditions. Growth means that immaterial goods are made scarce more successfully.

Conclusion

All five criteria I identified at the beginning of this text are rendered absurd by digital economy. The unsettling question more precisely then is:

Is capitalism still capitalism when capital is merely purported, labour is superfluous, it is not controlled by the market, it has abandoned the ownership order and the little growth that remains is the result of the artificially fabricated scarcity of intangible goods?


Probably not. But what is it then? At the moment, we still have one foot in good old analogue capitalism. And with respect to the digital foot: we only ever learned to perceive capitalism in contrast to communism or socialism — in the best case anarchism and feudalism. What the digital economy is doing, is none of those. We have to understand the novelty of the situation at this point. For all of us, digitalization is something new, hence we should consider the possibility that this could also be a totally new form of economy, one we don’t have a name for yet and one of which we don’t really know how it works. Something still in progress that’s not automatically better or worse than capitalism, but sufficiently different. “The old world is dying, and the new world struggles to be born: now is the time of monsters”, Marxist philosopher Antonio Gramsci is said to have noted once.18We too are dealing with a monster, here, a creature that doesn’t have a name yet. Monsters aren’t necessarily evil but they frighten us because we don’t understand them. 

_

  1. Cf. Jonathan Haskel/Stian Westlake, Capitalism Witho ut Capital. The Rise of the Intangible Economy, Oxfordshire 2017.
  2. Cf. The Value of Intangible Assets, April 10, 2019, http://www.saltaresolutions.com/2018/10/17/the-value-of-intangible-assets«.
  3. Cf. Marcel Weiß, Kann es ein Eigentum an Geistigem geben? Nein., February 23, 2012, https://neunetz.com/2012/02/23/kann-es-ein-eigentum-an-geistigem-geben-nein«.
  4. Cf. the Wikipedia articles about Netflix and Blockbuster LLC (last accessed on April 23, 2019).
  5. Cf. Thomas Piketty, Das Kapital im 21. Jahrhundert, Munich 2014.
  6. Cf. Anaele Pelisson/Dave Smith, These Tech Companies Make the Most Revenue per Employee, September 6, 2017, http://www.businessinsider.de/tech-companies-revenue-employee-2017-8«.
  7. Cf. Timo Daum, Das Kapital sind wir: Zur Kritik der digitalen Ökonomie, Hamburg 2017.
  8. Cf. Shoshana Zuboff, The Age of Surveillance Capitalism. The Fight for the Future at the New Frontier of Power, New York 2019.
  9. Cf. Nick Srnicek, Platform Capitalism, London 2016.
  10. Cf. Paul Mason, PostCapitalism. A Guide to Our Future, London 2015.
  11. As for example Friedrich August von Hayek does in Der Wettbewerb als Entdeckungsverfahren, in: idem., Freiburger Studien, Tübingen 1969, pp. 249–265, here p. 249.
  12. Cf. Peter Cohen et al., Using Big Data to Estimate Consumer Surplus: The Case of Uber, National Bureau of Economic Research, NBER Working Paper 22627/2016, http://www.nber.org/papers/w22627«.
  13. Cf. Gunnar Heinsohn/Otto Steiger, Eigentum, Zins und Geld. Ungelöste Rätsel der Wirtschaftswissenschaft, Marburg 2002.
  14. Cf.. Steve Knopper, iTunes’ 10th Anniversary. How Steve Jobs Turned the Industry Upside Down, April 26, 2013, http://www.rollingstone.com/culture/culture-news/itunes-10th-anniversary-how-steve-jobs-turned-the-industry-upside-down-68985«.
  15. Cf. Robert J. Gordon, The Rise and Fall of American Growth. The U.S. Standard of Living Since the Civil War, Princeton 2016.
  16. Cf. Simon Dudley, The Internet Just Isn’t That Big a Deal Yet: A Hard Look at Solow’s Paradox, November 12, 2014, http://www.wired.com/insights/2014/11/solows-paradox«.
  17. Cf. e.g. Leonhard Dobusch, Wert der Wikipedia. Zwischen 3,6 und 80 Milliarden Dollar?, October 5, 2013, https://netzpolitik.org/2013/wert-der-wikipedia-zwischen-36-und-80-milliarden-dollar«.
  18. Quoted from Slavoj Žižek, A Permanent Economic Emergency, in: New Left Review 64/2010, https://newleftreview.org/issues/II64/articles/slavoj-zizek-a-permanent-economic-emergency«. The quote’s authenticity is subject to controversy, however. Presumably, Žižek freely paraphrased the following lines: “The crisis consists precisely in the fact that the old is dying and the new cannot be born, in this interregnum a great variety of morbid symptoms appear.” Antonio Gramsci, “Wave of Materialism” and “Crisis of Authority”, The Prison Notebooks, New York 1971 (1949 / 51), p. 275 et seq.

Veröffentlicht unter Das Neue Spiel english extern Plattformpolitik
1 Kommentar

WasWäreWenn-Mag: Gestapelte Demokratie

/***** Für das WasWäreWenn-Magazin habe ich mich mal wieder in konstruktiven Vorschlägen geübt und eine Idee unterbreitet, wie man Plattformen sinnvoll demokratisieren kann. Das ist schwerer als zu kritisieren und auch undankbarer, denn man macht sich angreifbar. Aber nach so vielen Jahren, in denen ich Demokratsierungsversuche von Plattformen kommen und gehen habe sehen, weiß ich zumindest, wo einige der Fallstricke liegen. Das Thema ist kompliziert und verlangt nach einer komplexen Lösung und ich habe zumindest eine Möglichkeit gefunden, bei der ich gerade keinen Grund finde, warum sie scheitern sollte. Was natürlich nicht bedeutet, dass sie nicht scheitern würde, denn noch hat sie niemand ausprobiert. Kritik ist sehr willkommen. ****/

Es ist eine Hass­lie­be, die die Gesell­schaft mit den Platt­for­men wie Face­book und You­tubepflegt. Auf der einen Sei­te geben sie vie­len Men­schen das ers­te Mal eine Stim­me, mit der sie sich in der Öffent­lich­keit arti­ku­lie­ren kön­nen, oft sogar poli­tisch (es gab zumin­dest mal eine Zeit, als das als etwas Gutes galt). Auf der ande­ren Sei­te han­delt es sich um Wirt­schafts­un­ter­neh­men, die jeden Cent aus unse­rer Auf­merk­sam­keit und unse­ren per­sön­li­chen Daten pres­sen wol­len. Zudem ähneln die­se Orte weni­ger öffent­li­chen Plät­zen, als viel­mehr pri­va­ten Ein­kaufs­zen­tren, in denen man nur wenig bis kei­ne Rech­te und Mit­be­stim­mungs­mög­lich­kei­ten hat.

Es ist des­we­gen nahe­lie­gend, eine Demo­kra­ti­sie­rung die­ser Platt­for­men zu for­dern, wenn wir sol­che Infra­struk­tu­ren schon mit unse­ren Mei­nun­gen und Daten füt­tern. Was das heißt oder hei­ßen kann, ist ein wei­tes Feld und im Detail eine schwie­ri­ge Dis­kus­si­on. Daher ori­en­tie­ren sich hier mei­ne For­de­run­gen nach Demo­kra­ti­sie­rung an den Model­len und Kon­zep­ten, die wir aus den west­li­chen Indus­trie­na­tio­nen ken­nen: Wir wol­len gewis­se Rech­te haben, wir wol­len mit­be­stim­men, wo die Rei­se hin­geht, wir wol­len Min­dest­stan­dards der Mode­ra­ti­on, Trans­pa­renz sowie nach­voll­zieh­ba­re Pro­zes­se. Und wir wol­len, dass die enor­me Macht die­ser Platt­for­men nicht miss­braucht wird.

Doch wie genau soll das pas­sie­ren? Platt­for­men sind kei­ne Staa­ten, wir kön­nen deren Kon­zep­te nicht eins zu eins über­tra­gen. Zunächst möch­te ich vier Mög­lich­kei­ten der Demo­kra­ti­sie­rung von Platt­for­men vor­stel­len, ihre Vor- und Nach­tei­le dis­ku­tie­ren und am Ende einen Lösungs­vor­schlag unterbreiten.

WEITERLESEN BEI WWW-MAG >>>>

Eine Sache noch. An einer Stelle musste der Text gekürzt werden und da es für die Argumentation nicht ausschlaggebend war, musste der Teil über Finanzen weichen. Leider sind Finanzen aber sehr, sehr wichtig, wenn wir über die Unabhängigkeit von Strukturen nachdenken. Deswegen hier noch mal als Ergänzung, meine Gedanken zu Finanzen:

Finanzen

Ein Thema, das extra Bearbeitungen verdient, ist das liebe Geld. Denn Geld bedeutet immer auch Abhängigkeit, weshalb die Finanzierungsstruktur des Modells eine wichtige Frage ist, die gesondert behandelt werden muss. An dieser Stelle tue ich einfach so, als gäbe es das Modell bereits und beschreibe eine fiktive Zukunft, auch damit man sich eine Vorstellung vom real existierenden Modell machen kann.

Am einfachsten ist die Geldfrage bei den Clients zu beantworten, für die sich einfach ein freier Markt auftut und bei denen alle möglichen Geschäftsmodelle zum Tragen kommen. Die drei populärsten Clients sind der mit personalisierter Werbung von Google, der auf iOS vorinstallierte Client von Apple und der Client des größten Hubs „Hub-Verse“, der umsonst an seine Mitglieder verteilt wird. Es gibt aber noch viele weitere, auch nicht-kommerzielle Opensource-Projekte mit unterschiedlichen Feature-Schwerpunkten.

Hubs sind sehr unterschiedlich finanziert. Staaten betreiben oft eigene öffentlich-rechtliche Hubs, die kostenfrei für ihre Bürger/innen nutzbar sind. Allerdings kann man sich dort nur mittels der staatlichen Identität registrieren, was aber auch einige Vorteile für die Nutzer/innen mit sich bringt (Beispielsweise rechtsverbindliche Kommunikation). Meist haben die Leute aber noch Zweit- oder gar Drittidentitäten auf anderen Hubs. Ansonsten kann jeder einen Hub betreiben und ein Geschäftsmodell daraus machen, allerdings ist es schwierig angesichts der öffentlich-rechtlichen Konkurrenz damit Geld zu verdienen. Wirtschaftlich erfolgreich sind zum Beispiel Hubs, die speziell für Firmenaccounts kostenpflichtige Services anbieten, oder Fanpage-Accounts für Prominente. Es gibt auch einen erfolgreichen Hub, der mit Werbung Geld verdient und einen Hub, der zu einem günstigen Preis einen werbefreien Premiumdienst anbietet. Es gibt aber auch viele genossenschaftliche Hubs, die den Mitgliedern gehören und durch Beiträge finanziert werden. Die zwei größten genossenschaftlichen Hubs haben dezidiert weltanschauliche Einschläge: es gibt einen großen eher konservativen und einen nicht ganz so großen eher progressiven Hub (und viele, viele kleine, linke Subkultur-Hubs) und sie unterscheiden sich vor allem auch hinsichtlich ihrer Moderationsstatute und Mitbestimmungsregeln. Große Firmen betreiben oft eigene Hubs, in denen ihre Mitarbeiter zwecks interner Kommunikation eine zweite Identität pflegen. Diese sind aber oft nicht Mitglied im Modell und wenn, dann nur zu Außendarstellungszwecken.

Die Metagovernance-Struktur wird aus zwei Töpfen gespeist: Auf der einen Seite gibt es ein spezielles Konsortium der UN, dass ein jährliches Budget bereitstellt. Nicht alle Länder, die Teil der UN sind, sind Mitglieder in dem Konsortium, aber durchaus einige der größten. Die UN hat keinerlei Einflussmöglichkeit auf die Strukturen der Metagovernance, sondern muss nur einmal jährlich deren Etat beschließen. Den Haushalt und die Etatbeantragung macht das Metagovernance selbst. Die UN darf nur mit guter Begründung einen abweichenden Etat beschließen. Im Budget des Metagovernance enthalten sind auch Hosting- und Versionierung der Hub-Codebasis.

Ein zweiter Topf speist sich aus Abgaben der Clients und Hubs. Es gibt sowohl für Client- als auch Hub-Anbieter eine verpflichtende Gebührenordnung mit einem geringen Mindestbetrag, der an das Metagovernance abgeführt werden muss. Kommerzielle Anbieter zahlen zusätzlich einen geringen Prozentsatz ihrer Einnahmen. Aus diesem zweiten Topf werden vor allem Codebasis-Entwicker/innen, als auch Moderator/innen des Metagovernance bezahlt.

Am teuersten war die Entwicklung der Code-Basis natürlich am Anfang. In einer ersten Phase wurden die Grundstrukturen von einem temporären Konsortium aus verschiedenen Firmen im Auftrag und mit Mitteln der EU entwickelt. In einer zweiten Phase wurden erste Testinstallationen aufgesetzt und der Code unter einer Opensource-Lizenz veröffentlicht. Es bildeten sich sodann Startups, die unter anderem mit öffentlicher Anschubförderung eigene Distributionen aus der Code-Basis entwickelten. In der dritten Phase waren Staaten (fast alle EU-Staaten sowie Kanada, Brasilien und Indien) die ersten Betreiber von Hubs und sorgten für die nötigen Netzwerkeffekte, um das Modell für weitere Entwickler/innen attraktiv zu machen.


Veröffentlicht unter Das Neue Spiel extern Plattformpolitik Queryology
1 Kommentar

Fünf beunruhigende Fragen an den digitalen Kapitalismus (Directors Cut)

/*****
Für die Zeitschrift der Bundeszentrale für politische Bildung „Zu Politik und Zeitgeschichte“ (APuZ) habe ich meinen Vortrag über den digitalen Kapitalismus vom vom letzten Herbst verschriftlicht. Aus Platzmangel wurde er rund um die Hälfte zusammengekürzt, auch wenn die Grundaussage gut erhalten blieb. Dennoch erlaube ich mir hier nun die Directors Cut Version zu posten, für alle, die gerne noch ein paar mehr Argumente hören möchten, warum der digitale Kapitalismus vielleicht not so much ein Kapitalismus ist. Die APuZ kann man hier runterladen oder bestellen.
*****/

[PDF Download]

Ein Gespenst geht um in Europa, es ist das Gespenst des digitalen Kapitalismus. Und wie es sich im konsumgeilen Kapitalismus ziemt, kommt er in vielen Formen und Farben: Informationskapitalismus, Daten-Kapitalismus, Plattform-Kapitalismus, Surveillance Capitalism und kognitiver Kapitalismus. Der digitalen Kapitalismen gibt es mittlerweile so viele, dass man sich wie bei Rossmann vor dem Shampoo-Regal fühlt.

Ich habe mir einen Großteil der Literatur angeschaut und ich habe Fragen. Genauer gesagt habe ich fünf beunruhigende Fragen an den Kapitalismus.

Mit „beunruhigend“ meine ich im übrigen nicht dieselbe Unruhe, in die sich die Autor/innen der unterschiedlichen Digital-Kapitalismus-Beschreibungen hineinsteigern. Es geht mir nicht darum, zu zeigen wie nun diese neue, die digitale Spielart des Kapitalismus schlimmer ist als alle vorhergehenden. Meine Beunruhigung gilt vielmehr dem Kapitalismus selbst. Ich lege ihm gewisser Weise meine Hand auf die Schulter und frage leise: „Alles OK mit dir, Kapitalismus“?

Denn während die meisten Autor/innen in der Digitalversion des Kapitalismus eine weitere Radikalisierung des Kapitalismus ausmachen, habe ich eher das gegenteilige Gefühl. Ich glaube, dem Kapitalismus geht es nicht gut im Digitalen. Ich will deswegen grundsätzlicher fragen, ob der Kapitalismus in seiner digitalen Spielweise wirklich noch die Kriterien erfüllt, mit denen wir dieses System des Wirtschaftens und der Organisation der Gesellschaft beschreiben.

Ich habe mir also verschiedene Kapitalismus-Definitionen angeschaut und versucht den Kern daraus zu extrahieren. Darunter war natürlich Marx’ einflussreiche Analyse des Kapitalismus, aber auch die Definition in der Wikipedia, als auch des Gabler Wirtschaftslexikons, sowie weitere aus spezifischen Sachbüchern.1 Diese Definitionen weichen hier und da von einander ab aber haben dann doch einen kleinsten gemeinsamen Nenner, eine Art übereinstimmenden Kern, weswegen es mir gelang, die fünf wichtigsten Kriterien herauszuziehen, von denen ich glaube, dass sie als allgemein Zustimmungsfähig gelten können:

Kapitalismus erfüllt folgende fünf Kriterien:

  1. Privateigentum an den Produktionsmitteln (Namensgebend: Kapital)
  2. Der Widerspruch zwischen Kapital und Arbeit (Zumindest bei Marx)
  3. Die Steuerung der Wirtschaft durch den Markt (Neoklassische Definition)
  4. Das Vorherrschen einer Eigentumsordnung (Heinsohn/Steiger)
  5. Das Prinzip der Akkumulation. (oder auch: Wachstum)
  6. Fazit

Ich möchte mir also im Folgenden genauer anschauen, wie diese fünf Kriterien auf den digitalisierten Kapitalismus passen.

 

Das Kapital

Fangen wir mit dem Offensichtlichsten – dem Privateigentum an den Produktionsmitteln, dem “Kapital” – an. Wir bewegen uns hier sofort in marxistischer Terminologie, aber auch in den übrigen Wirtschaftswissenschaften dürfte unstrittig sein, dass dies einer der wesentlichen Grundpfeiler des Kapitalismus ist.

Doch hat sich gerade hier durch die Digitalisierung viel getan. Zu Marx’ Zeiten waren die Produktionsmittel in erster Linie Land, Gebäude, Maschinen und vielleicht noch Fahrzeuge. Um sich zu veranschaulichen, wie krass sich die Essenz des Kapitals durch die Digitalisierung geändert hat, braucht man sich nur folgende, mittlerweile sprichwörtliche Aufzählung, vor Augen zu führen:

  • Uber, das größte Taxiunternehmen der Welt, besitzt keine Fahrzeuge.
  • Alibaba, der wertvollste Einzelhändler der Welt, hat kein eigenes Inventar.
  • Airbnb, der weltweit größte Übernachtungs-Dienstleister besitzt keine Immobilien.

Das klingt erstaunlich, aber doch nach anekdotischer Evidenz. Systematischer haben diesen Zusammenhang Jonathan Haskel und Stian Westlake in ihrem Buch „Capitalism without Capital“ untersucht. Der Untertitel – „The Rise of the Intangible Economy2 – zeigt auch schon an, dass natürlich das Kapital nicht wirklich verschwunden ist. Es hat sich nur dematerialisiert. Zu den materiellen Investitionsgütern die bereits Marx kannte, traten irgendwann Software, Datenbanken, Design, Marken, Fortbildungen und sonstige nicht-anfassbare, immaterielle Werte hinzu.

Und sie kamen nicht nur hinzu. In den USA, Großbritannien und Schweden hat der Anteil an immateriellen Investitionen die in materiellen Werte längst überflügelt. Bei den „Standard & Poors“ Top 500 Unternehmen nach Marktwert sind bereits 84% der Werte immateriell.3
ABB. 1 Aus Capitalism without Capital

Und die Digitalbranche ist hier Vorreiter und Treiber der Entwicklung. Die Tech-Unternehmen führen die Liste der Unternehmen mit den meisten “Intangible Assets” bis zum Platz 8 an, mit Amazon an der Spitze ($827 Mrd., 96% iA) gefolgt von Microsoft ($ 686 Mrd., 95 % iA).4

Nagut, materiell, immateriell, was macht das für einen Unterschied?“ kann man jetzt fragen. Es sind genau vier systemische Unterschiede, die Westlake und Haskel herausarbeiten.

Immaterielle Investitionen …

  1. sind “versunkene Kosten” (sunk cost). Man kann einmal in immaterielle Werte investiertes Kapital oft schlecht weiterveräußern.
  2. schwappen über (spill over). Man kann Informationen – und das sind immaterielle Güter immer – schlecht für sich allein behalten.
  3. skalieren (scalable). Einmal hergestellt kann ein immaterielles Gut unbegrenzt und ohne Zusatzkosten überall eingesetzt werden.
  4. sind synergetisch (synergy). Immaterielle Güter ergeben oft erst in der Kombination mit anderen immateriellen Gütern neue Produkte, bzw. führen immer wieder zu neuen Anwendungsfällen.

Zusammengenommen hinterlassen diese Unterschiede und damit einhergehende Effekte wiederum riesige Furchen im Kapitalismus selbst. Die beiden Autoren zeigen zum Beispiel, wie die Verschiebung hin zu immateriellen Kapital eine Rolle bei der zunehmenden ökonomischen Ungleichheit in der Gesellschaft oder dem vergleichsweise geringen Wirtschaftswachstum spielen.

Am spannendsten ist jedoch der Spill-Over-Effekt. Wir kennen den Effekt überall dort, wo gerade im urheberrechtlich geschützte Werke in Internet getauscht werden. Für industrielle Produzenten kann es aber auch einfach heißen, dass sich der Konkurrent die „Best Practice“ zur Herstellung von einem Produkt abschaut, oder eine von ihm eingesetzte Software nachbaut.

Einige – aber lange nicht alle – immaterielle Investitionen kann man deswegen rechtlich schützen lassen. Und hier kommen wir überhaupt erst wieder ins Fahrwasser unseres Kapitalismus-Kriteriums. Nur immaterielle Investitionen, die man über Urheberrechte, Patente oder Markeneintragung schützen kann, können überhaupt als „Privateigentum“ gelten und tauchen als “Assets” in den Bilanzen auf.

Aber selbst diese Formen von „Privateigentum“, also „Geistigem Eigentum“ sind in ihrer Eigentumsstruktur höchst fragwürdig, die bemessung ihres Wertes ist an der Grenze zur Beliebigkeit. Im Grunde handelt es sich um reine Monopolverwertungsrechte. Es sind also Behauptungen derart: „Der Staat sagt, dass nur ich diese Idee/Information/Marke/Logo nutzen darf.5

Und das führt mich zu meiner ersten beunruhigenden Frage:

„Ist ein digitaler Kapitalismus mit nur noch behaupteten Kapital überhaupt noch Kapitalismus?“

 

Arbeit

Ein wesentlicher Bestandteil jeglicher Kapitalismus-Definition und insbesondere bei Marx ist die Funktion von Arbeit, bzw. die Gegenüberstellung von Arbeit und Kapital als Teile des Produktionsvorgangs. Der marx’schen These nach ist menschliche Arbeit (genauer: gesellschaftlich notwendige Arbeit) dasjenige, was überhaupt den „Wert“ (als Tauschwert einer Ware innerhalb der Ökonomie) erschafft. Da der Arbeiter aber nicht in der vollen Höhe seiner Wertschöpfung entlohnt wird, sondern nur in etwa in der Höhe, die notwendig ist, um seine Arbeitskraft zu wieder herzustellen (Reproduktion), streicht der Kapitalist diese Differenz (Mehrwert) als Profit ein.

Auch in den herkömmlichen Wirtschaftswissenschaften sind sowohl Arbeit als auch Kapital die wesentlichen Produktivkräfte, jedoch wird dort ein anderer Werttheorie-Ansatz verfolgt. Wir kommen noch dazu.

Doch wenn wir uns zum Beispiel den Einsatz von Arbeit und erzieltem Wert in der Digitalwirtschaft anschauen, springen uns einige Dinge sofort ins Auge. Am besten vielleicht verdeutlicht, wenn wir die amerikanische Videothekskette Blockbuster mit dem Videostreamingdienst Netflix vergleichen.

Netflix machte im Jahr 2018 mit 5400 Mitarbeiter/innen $15,7 Milliarden Dollar Umsatz6, während der mittlerweile pleite gegangene Videoverleih-Riese Blockbuster in seinem letzten Jahr (2010) mit 25.000 Mitarbeiter/innen nur 3.24 Milliarden Dollar umsetzte. Das bedeutet, dass Blockbuster mit 5 mal so vielen Mitarbeiter/innen gerade mal 20% des Umsatzes von Netflix machte, obwohl beide in einem ähnlichen Business sind.7
Pro Angestellte/r scheint die Digitalwirtschaft viel mehr Wertschöpfung zu produzieren, als die alte, analoge Wirtschaft. Gemessen wird dieser Zusammenhang in der Wirtschaftswissenschaft als Arbeitsproduktivität und wenn wir die Zahlen für die Gesamtwirtschaft (zum Beispiel für die G20 Staaten) anschauen, sehen wir in der Tat ein enormes Wachstum der Arbeitsproduktivität aber nur ein geringes Wachstum der Löhne.
ABB 2. Aus International Labour Organization Organisation for Economic Co-operation and Development, The Labour Share in G20 Economies

Dass diese Differenz bei den Kapitalisten landet ist also folgerichtig und bereits bei Piketty untersucht, der zeigte, wie sich das Wachstum der Anlagevermögen entsprechend von dem Wachstum der Löhne entkoppelt hat. r > g bringt die wachsende Ungleichheit auf den Punkt.8

Diese Entwicklung zeigt sich auch in einem weiteren Phänomen, der heutigen Weltwirtschaft: dem stetigen Sinken der Lohnquote. Über viele Jahrzehnte lag der Anteil des Volkseinkommens (Bruttoinlandsprodukt/GDP), der in Form von Löhnen ausgezahlt wurde, sehr stabil bei etwa zwei Drittel. Seit den letzten 30 Jahren scheint sich das zu ändern. In der ganzen Welt sinkt die Lohnquote. In den USA um 6%, in Deutschland 7%, in Frankreich sogar um 14%.9 Es gibt verschiedene Erklärungsmuster, bei denen meist Globalisierung und Automatisierung im Mittelpunkt stehen. In ihrer Studie „The Fall of Labor Share and the Rise of Superstar Firms“ machen die Autor/innen einen anderen Grund aus: Superstar Firms.10 Konkret: Die Wirtschaft hat sich immer mehr konzentriert und wird in immer mehr Branchen von übermächtigen Playern dominiert. Diese sind enorm wirtschaftlich, verbuchen ein Großteil der Innovationen und nehmen den Wettbewerbern die Luft zum Atmen. Vor allem erwirtschaften sie mit erstaunlich wenigen Mitarbeiter/innen enorme Umsätze.

Ein großteil dieser Superstar Firms sind natürlich wiederum unsere Tech-Giganten. Unter den arbeitsproduktivsten Firmen der Welt, finden wir viele IT-Konzerne. Apple macht fast zwei Millionen Dollar Umsatz pro Mitarbeiter.11 Im Durchschnitt. Auch Facebook und Google verdienen auf Platz zwei und drei weit mehr als eine Millionen Dollar pro Mitarbeiter. Aber alle diese Firmen sind nicht dafür bekannt, dass sie ihre Mitarbeiter/innen schlecht bezahlen – im Gegenteil. In Bezug auf Marktpreise verdienen vor allem die Entwickler/innen und IT-Spezialist/innen Löhne weit über dem Durchschnitt. Aber gemessen am erzielten Umsatz verdienen sie nur “Penuts” und aus einer marx’schen Ausbeutungs-Logik heraus betrachtet, sind sie die vielleicht ausgebeutetsten Menschen der Welt, da der extrahierte Mehrwert so enorm ist.

Dabei ist unklar, inwieweit Automatisierung oder gar “Künstliche Intelligenz” bereits in diese Entwicklung mit reinspielt. Die sinkende Lohnquote scheint jedenfalls nicht stark an die Arbeitslosenquote gekoppelt zu sein – derzeit verzeichnen sowohl Deutschland als auch die USA eine historisch geringe Arbeitslosigkeit. Und doch erschienen in den letzten Jahre viele Studien, die einen enormen Jobverlust durch Künstliche Intelligenz prophezeiten: Die Spannen der Prognosen gehen allerdings weit auseinander und nicht alle Experten sind sich darüber Einig, ob wir überhaupt weniger Arbeitsplätze verzeichnen werden.12 Ein paar einschlägige Beispiele:

2013 warnte die Oxford University in einer vielbeachteten Studie, dass bis zu 47% aller Jobs in den USA bis 2033 in Gefahr seien.13 2017 sprach McKinsey von 400 bis 800 Millionen Jobs weltweit bis 2030 14 und letztes Jahr prognostizierte die OECD gerade noch 9% Jobverlust in ihren Mitgliederstaaten.15

Dass wir noch keine Ausläufer dieser Umwälzungen spüren, könnte auch damit zu tun haben, dass die Digitalisierung neue Jobs – allerdings im Niedriglohnsektor – schafft. Man denke an das wachsende unterbezahlte Heer der Paketbot/innen oder an die Essenslieferant/innen und Uberfahrer/innen der digitalen Gig-Economy (die aber mit nur 1% einen überraschend kleineren Anteil haben.16). Aber es ist auch nicht überall KI drin, wo KI draufsteht. Oft wird sie nur simuliert oder zumindest flankiert von im Hintergrund arbeitenden Click-Worker/innen in Niedriglohnländern.17 Der wachsende Anteil Niedriglohnbeschäftigter dürfte als Faktor auch in die sinkende Lohnquote reinspielen.

Doch wenn sich durch Digitalisierung einerseits die Produktivität auf immer weniger Firmen konzentriert, eine unbekannte aber doch vorhandene Menge an Jobs durch Automatisierung wegfällt, dazu immer mehr immer mehr Geringverdienerjobs entstehen, stellt sich die Frage ob das nicht auf Kosten der Mittelschicht-Jobs geht.

Sicher, ein Großteil der Leute arbeitet noch in herkömmlichen, sehr analogen Berufen. Für den Rest könnte David Graebers These von den „Bullshit Jobs“ eine gute Erklärung bieten.18 Graeber schätzt bis zu 40% der Jobs in der aktuellen Ökonomie seien Jobs, bei denen die Angestellten selbst nicht mehr nachvollziehen können, auf welche Weise er überhaupt produktiv ist. Bullshit-Jobs fehlt meist jeglicher „Sinn“ im gesellschaftlichen Kontext – zumindest wird er so empfunden. In ihrer Studie, „Socially Useless Jobs“ werteten Robert Dur, Max van Lent Umfragen von 100.000 Teilnehmern aus, die aus verschiedenen Zeiträumen und unterschiedlichen Ländern stammen und kommen zu dem Ergebnis, dass es zwar eine Menge der „Bullshit-Jobs“ gibt, sie aber nicht ganz so dominant sind, wie Graeber vermutet.19 Gerade mal 8% gehen davon aus, dass ihr Job keine gesellschaftlichen Nutzen stiftet. Weitere 17% sind sich des gesellschaftlichen Mehrwerts ihrer Arbeit aber zumindest nicht sicher.

Wie der gefühlte gesellschaftliche Mehrwert mit dem ökonomischen Mehrwert zusammenhängt, ist allerdings nur schwierig bis unmöglich zu messen. Vor allem, da die Art der Wertschöpfung heute ganz und gar anders von statten geht, als Marx es damals beobachtete. Wie hängen also Daten, Arbeit und Wert zusammen? Wo kommt der enorme Reichtum der Tech-Giganten her?

In dem Buch „Das Kapital sind wir“ hat Timo Daum nicht nur eine interessante Beschreibung der digitalen Ökonomie abgeliefert, sondern eine ganz eigene These zur Wertschöpfung im Digitalen aufgestellt.20 Diese geschehe nicht bei der Produktion von Waren, sondern in Form von Innovation. Und wir alle Arbeiten daran mit, denn wir werden jederzeit vermessen, während wir die digitalen Tools verwenden. Die gesammelten Daten werden dann für die Entwicklung neuer Innovation und Verbesserung der Produkte genutzt. Eine Interessante digitale Variante von Marx’ Arbeitswert-Theorie.

Shoshana Zuboff schlägt in eine ganz ähnliche Kerbe, allerdings klingt bei ihr die Wertschöpfung wesentlich perfider.21 Auch bei ihr steht die Überwachung der Nutzer/innen im Mittelpunkt, doch statt um Innovation geht es bei ihr um Manipulation. Dabei ist sozusagen das Delta von vorhergesagtem Verhalten zu manipuliertem Verhalten der Punkt, an dem Wert geschöpft wird. Dieser „Verhaltens-Mehrwert“ (behavioral surplus) würde dann als „Surveillance Capital“ abgeschöpft.

In dem Buch „Platform Capitalism“ von Nick Srnicek sind Daten hingegen eine Art Rohstoff, der erst in der Verarbeitung/Verfeinerung (zum Beispiel mittels Big Data) wirklich an Wert gewinnt.22 Hier wären es die Programmierer der Auswertungsalgorithmen und vor allem Data Scientists, deren Arbeit den Wert schöpft.

Paul Mason kam in seinem Buch „Post-Capitalism“ sogar zum Schluss, dass wenn Information statt Arbeit zum zentralen Bestandteil der Wertschöpfung wird, sich die kapitalistischen Ökonomien nicht werden halten können.23

Um ehrlich zu sein, lässt mich die Frage nach Rolle der Arbeit im Digitalen mit vielen unterschiedlichen, einander widersprechenden Theorien und Beobachtungen zurück. Einigkeit scheint allein darüber zu bestehen, dass Arbeit im klassischen Sinn zumindest nicht mehr der wesentliche Ort der Wertschöpfung zu sein scheint.

Ich frage also mit genauso viel Ratlosigkeit wie Beunruhigung:

„Ist ein digitaler Kapitalismus mit nur noch behauptetem Kapital und überflüssiger Arbeit überhaupt noch Kapitalismus?“

 

Markt

Seit Marx „Das Kapital“ schrieb ist allerdings auch in den Wirtschaftswissenschaften viel passiert. Die heute etablierte Ökonomie hat eine ganz andere Sicht auf den Kapitalismus. Für sie steht nicht der Produktionsprozess im Mittelpunkt des Geschehens, sondern der Markt. Und so findet sich kaum eine zeitgenössische Kapitalismus-Definition, die nicht auch auf den Markt rekurrieren würde. Markt – so die Wirtschaftswissenschaftler – sei das wesentliche Steuerungsinstrument des Kapitalismus. Indem der Markt das Angebot (Produktion) und die Nachfrage (Konsumtion) über das Instrument des Preises im Gleichgewicht hält, sorgt er dafür, dass zu jederzeit immer ungefähr genauso viel von einer Ware produziert wird, wie auch gebraucht wird und sich dieses Angebot auch im Rahmen bezahlbaren bewegt. So jedenfalls die Theorie, die oft und gerne kritisiert wird, da sie eine ganze Reihe von Annahmen voraussetzt, die in der Realität kaum zu erfüllen sind: Völlige Markttransparenz, Menschen als rationale Wirtschaftssubjekte (Homo Oeconomicus), die Nichtexistenz von Transaktionskosten, das Ausblendung von nicht im Markt abgebildeten Einflüssen und Kosten (Externalitäten), etc.

Doch blendet man diese Ungenauigkeiten gutwillig aus, wie das in theoretischen Versuchsanordnung in der Physik ja auch Standard ist, kann man den Markt als „Informationssystem24 verstehen, der als Input die Signale von Anbietern und Nachfragern koordiniert.

Wenn man den Markt als Informationssystem begreift, muss man annehmen, dass er inhärent anschlussfähig an die Digitalsphäre sein sollte. Und Tatsächlich. Es stellt sich heraus, dass sich Marktmechanismen leicht in Algorithmen nachbauen lassen. Genau das hat zum Beispiel Uber mit seinem „Surge Pricing“ gemacht. Je nach Tages- und Nachtzeit sind unterschiedlich viele Uber-Fahrer/innen unterwegs und es gibt unterschiedlich hohe Nachfrage nach Uber-Fahrten. Ubers Surge-Pricing versucht darauf eine Markt-adäquate Antwort zu finden, indem es dem Kunden neben dem Standard-Preis auch noch den Surge-Preis anzeigt. Der Surge-Preis ist im Zweifelsfall höher als der Standard-Preis, aber dafür kommt das Auto sofort. Der Surge-Preis ist also eine Art Marktpreis – mit dem Unterschied, dass er von einem Algorithmus berechnet wurde.

In gewisser Weise führt es die Idee des Marktes ad absurdum, einen Marktmechanismus als datenbankgestützen Algorithmus nachzubauen, bietet aber auch ganz neue Möglichkeiten. So kamen Wirtschaftswissenschaftler um den Ökonom Steven Levitt auf Uber zu und fragten, ob sie denn mal einen Blick in die dabei generierten Daten werfen dürften. In ihrem Paper „Using Big Data to Estimate Consumer Surplus – The Case of Uber“ wurde dann auch etwas revolutionäres gezeigt: nämlich die Nachfragekurve – Beziehungsweise die Konsumentenrente.25

Um zu erklären, was es damit auf sich hat, müssen wir kurz zurück zur neoklassischen Vorstellung vom Markt. Während die Angebotskurve eine empirisch vergleichsweise leicht nachzuvollziehende Tatsache ist (man zähle die Hersteller eines Produkts sowie deren Output bei unterschiedlichen Absatzpreisen) war die Nachfragekurve immer nur eine lauwarme Behauptung der Ökonomen. Weder kann man wirklich messen, wieviele Leute bereit wären, ein Produkt zu kaufen, noch, wieviel sie zu welchem Preis bereit wären, davon zu kaufen. Was man machen kann ist, tatsächliche Kunden zählen und alle anderen Leute in Marktforschungsanaylsen zu befragen, aber all das gibt höchstens vage Anhaltspunkte für die Nachfragekurve. Kurz: um die Nachfragekurve zu kennen, müsste man in die Köpfe der Leute schauen.

Mit den Uber-Daten konnten die Wissenschaftler nun genau das tun. In den vielen Millionen Entscheidungen für und gegen den Surge-Preis bei Uber steckt die Nachfragekurve quasi drin – sowie eine ganze Menge andere Erkenntnisse. Beispielsweise sind Leute mit niedrigem Smartphone-Akku in der Regel bereit einen sehr viel höheren Preis für eine sofortige Uber-Fahrt zu bezahlen. Wer hätte das gedacht?

Aber die Beschreibung der Nachfragekurve beinhaltet noch etwas anderes: das, was Ökonomen „Konsumentenrente“ nennen. Die Konsumentenrente ist kurzgesagt die Preisdifferenz zwischen dem Preis, den ich für ein Produkt tatsächlich zahle und dem, den ich zu bezahle bereit wäre, wenn der Preis höher wäre. Diese nichtgezahlte Differenz nehme ich als Konsument sozusagen als Bonus mit. Da jeder Konsument eine unterschiedliche Bereitschaft hat, einen höheren Preis zu zahlen, erhält jeder Konsument somit auch eine individuelle Konsumentenrente. Die allgemeine Konsumentenrente errechnet sich somit, wenn man all diese individuellen Differenzen zusammenrechnet.
ABB 3. Nachfragekurve und Konsumentenrente

Die Untersuchung der Ökonomen ergab, dass Uber im Jahr 2015 eine allgemeine Konsumentenrente in Höhe von 2,9 Milliarden Dollar erwirtschaftet hat. Nochmal: Das ist kein Geld, das irgendwo in irgendeiner Statistik auftaucht. Es ist Geld, dass nicht ausgegeben wurde, aber ausgegeben worden wäre, wenn … ja, das ist eine spannende Frage. Im Grunde, wenn jeder einen personalisierten Preis angezeigt bekommen hätte.

Denn wenn man die Konsumentenrente ausrechnen kann, dann kann man sie auch abschöpfen. Wenn man weiß, dass eine Person mehr Geld zu bezahlen bereit wäre, warum ihm dann nicht auch diesen Preis anzeigen?

So ganz neu ist das allerdings nicht. Die Abschöpfung der Konsumentenrente ist schon lange ein Ziel sehr vieler digitaler Bemühungen. Im öffentlichen Diskurs firmiert das Thema unter „Preisdiskrimierung“.26 IBM hat dafür extra das Startup „Demand Tech“ gegründet und in Deutschland hat sich „Segment of One“ die Abschöpfung der Konsumentenrente auf die Fahnen geschrieben.

Es ist wichtig sich zu vergegenwärtigen, was hier passiert: Wenn der Marktpreis ein Informationssystem ist und Computer, Internet und Shopsysteme ebenfalls Informationssysteme sind, dann wurde das Erstere durch das Zweitere quasi gehackt. Die IT-Systeme der Anbieter sind einfach intelligenter als der Markt und haben ihn “outgesmarted”.

Das alles hört sich recht dystopisch an, doch kann man den Blick von hier aus auch utopisch wenden: wenn Computersysteme heute intelligenter sind als der Markt, wozu brauchen wir den überhaupt noch? Genau das fragt Stefan Heidenreich in seinem Buch: „Geld Für eine non-monetäre Ökonomie“.27 Dort stellt er mit einem kühlen, medientheoretischen Blick fest, dass es Geld (und damit Preise und Markt) gar nicht mehr braucht. Stattdessen schlägt er vor, Algorithmen das Angebot mit der Nachfrage matchen zu lassen. Das hat zum einen den Vorteil, dass Menschen durch Akkumulation von Vermögen nicht unfassbar reich werden können, aber auch, dass wir die Machting-Kriterien politisch aushandeln können.

Doch egal, ob Utopie oder Dystopie, wenn Algorithmen den Markt tatsächlich outgesmartet haben, so dass wir über seine Abschaffung diskutieren können, stellt sich die dritte beunruhigende Frage an den digitalen Kapitalismus:

„Ist ein digitaler Kapitalismus mit nur noch behaupteten Kapital und überflüssiger Arbeit, der nicht mehr durch den Markt gesteuert wird, noch Kapitalismus?“

 

Eigentum

Eine Kapitalismus-Definition, die mir besonders gefällt, da sie schlicht und elegant ist, die sich dabei sowohl von der marxistischen wie auch der neoklassischen Definition absetzt, ohne mit ihnen inkompatibel zu werden, ist diejenige, die Gunnar Heinsohn und Otto Steiger in ihrem Buch: „Eigentum, Zins und Geld“ vorgeschlagen haben.28 Sie definieren den Kapitalismus schlicht als „Eigentumsordnung“, also eine Gesellschaft die durch das Konzept Eigentum strukturiert ist. Das hört sich zunächst banal, offensichtlich und wenig ertragreich an, wird aber spannend, wenn sie sich die Implikationen des Begriffes „Eigentum“ genauer anschaut.

Während Marx die Ursituation des Kapitalismus in der Produktion verortet und die Neoklassiker dafür den Markttausch heranziehen, sehen Heinsohn und Steiger sie in der Unterscheidung von „Besitz“ und „Eigentum“. Diese Unterscheidung ist selbst keine ökonomische, sondern vor allem eine rechtliche. „Besitz“ ist dabei alles, worüber ich direkte Verfügungsgewalt ausübe. Wenn man mir meinen Besitz nehmen will, muss man ihn mir physisch wegnehmen. Besitzen kann ich daher alles, was ich zu verteidigen imstande bin. Darin unterscheidet es sich vom Eigentum. Ich kann Gegenstände, die mein Eigentum sind, einfach aus der Hand geben, also in den Besitz anderer Menschen geben, ohne dass es aufhört, mein Eigentum zu sein. Das funktioniert, da ich nicht selbst dafür sorgen muss, es wieder zurückzubekommen, sondern der momentane Besitzer verpflichtet ist, es mir zurückzugeben. Eigentum ist ein Rechtstitel, es ist abstrakte Behauptung. Und wenn man genauer hinschaut, merkt man, dass „Eigentum“ nur dann funktionieren kann, wenn eine externe Macht dafür sorgt, dass der Rechtstitel im Zweifelsfall auch durchgesetzt wird. Für Eigentum braucht es also einen Staat mit Gewaltmonopol.

ABB 4. Besitz vs. Eigentum

Wenn wir uns mit dieser Definition im Kopf wieder dem Digitalen zuwenden, kommt als erstes der Dienst Napster in den Sinn. 1999 gestartet, machte der Dienst schlicht alle Musikdateien auf dem eigenen Computer für alle anderen Napster-User zugänglich. Das Programm hatte eine Suchmaske, mit der man nach jedem beliebigen Song suchen konnte und die daraufhin eine Liste mit Napster-Usern ausspuckte, die ihn besaßen. Ein Klick auf einen der User und der Download startete. Das Prinzip nennt sich Peer-to-Peer (p2p) und wir machten wochenlang nichts anderes mehr; es war das reinste Eldorado.

Die Musikindustrie hatte jedoch Einwände. Für sie war das Eldorado ein „Major Spill-Over“, der totale Kontrollverlust und das plötzliche Ende ihres Geschäftsmodells.

Mit Heinsohn/Steigers Kapitalismus-Definition könnte man sagen, dass die Musikindustrie aus der Eigentumsordnung in eine Download-Besitz-Ordnung zurückfiel. Zwar hat die Musikindustrie (und andere Rechteverwerter) mit viel Lobbyismus dafür gekämpft, das Urheberrecht zu verschärfen und die Rechtsdurchsetzung zu totalisieren, aber trotz allem konnte sie die P2P-Tauschbörsen nicht loswerden. Napster wurde aus dem Netz geklagt, doch nach Napster kam Kazaa, dann eDonkey und schließlich Bittorrent und viele andere Technologien und Kanäle, über die bis heute allerlei Kram getauscht wird.

Hier nun das Spannende: Dass die Musikindustrie heute wieder ein Geschäftsmodell hat, liegt nicht an der Eigentumsordnung, also nicht am Staat, sondern weil eine ganz eigene, neue Ordnung im Internet entstand. Die Ordnung der Plattformen.

Als Apple 2002 auf die Musikverlage zukam und ihnen iTunes zeigte, standen sie gerade mit dem Rücken zur Wand. Sie hatten es nicht geschafft, den P2P-Tauschbörsen ein populäres und legales Angebot im Internet entgegenzustellen. Nun stand Steve Jobs vor ihnen. Er hatte zuvor mit dem iPod den ersten populären, tragbaren MP3-Player auf den Markt gebracht und erzählte ihnen nun von iTunes, einer digitalen Verkaufsplattform für Musik. Die Konditionen, die Jobs ihnen für ihre Rettung diktierte, erzürnten sie jedoch. Musikdateien sollten alle einzeln verkaufbar sein, egal, ob sie teil eines Albums waren oder nicht. Und jeder Song sollte nur 99 Cent kosten.29

Jobs konnte den Verlagen die Bedingungen diktieren, weil er etwas hatte, was sie nicht hatten. Und dieses Etwas ist die Grundvoraussetzung für jede Ökonomische Transaktion: Ich nenne es „marktfähige Verfügungsgewalt“. Besitz reicht dafür nicht aus, denn marktfähige Verfügungsgewalt muss es erlauben, eine Sache anzubieten und gleichzeitig vorzuenthalten. Eigentum erschafft diese marktfähige Verfügungsgewalt, denn das Vorenthalten-können wird staatlich garantiert. Marktfähige Verfügungsgewalt wird uns gegenüber überall ausgeübt, am Kiosk, beim Autohändler, im Supermarkt, etc. Im Internet ist marktfähige Verfügungsgewalt jedoch durch die leichte Kopierbarkeit der Daten kaum zu bewerkstelligen und der Staat ist da auch keine Hilfe.

Der Napster-Schock und der Eintritt Apples in das Musikbusiness ist ein historisches Ereignis, das weit über sich selbst hinausreicht. Heute streiten sich Apple, Google und Spotify über die Musikstreaming-Vorherrschaft, aber damals war es Apple, die zeigten wie „marktfähige Verfügungsgewalt“ im Internet funktionieren kann. Plattformen wie iTunes sind in erster Linie Kontroll-Infrastrukturen und sind damit in der Lage Verfügungsgewalt durchzusetzen. Es ist kein Zufall, dass sich Rechteinhaber heute in erster Linie an Plattformen wenden, wenn es darum geht, ihre Rechte durchzusetzen. Vom DMCA-Act in den USA, Youtubes Content-Id an deren Vorbild sich nun die in Europa gesetzlich eingeführten Uploadfilter orientierten – sie alle sollen die Plattformen zu noch effektiveren Instrumenten der Verfügungsgewalt machen, weil der Staat diese nicht mehr garantieren kann.

Doch die marktfähige Verfügungsgewalt der Plattformen sind schon lange nicht mehr auf tatsächliche Rechtstitel beschränkt. Facebook hat keinerlei Eigentumsrechte an unseren persönlichen Daten und dennoch basiert ihr Geschäftsmodell auf der Ausübung einer marktfähige Verfügungsgewalt über sie. Die Plattformen setzen bereits eine Form der Kontrolle durch, die die Eigentumsordnung gar nicht braucht, sondern diese lediglich stellenweise abbildet. Das aber bedeutet nichts Geringeres, als dass das ganze Rechtskonzept des Eigentums und damit die Kapitalistische Ordnung im Sinne von Heinsohn und Steiger im Digitalen obsolet sind.

Was zu der beunruhigenden Frage führt:

„Ist ein digitaler Kapitalismus mit nur noch behaupteten Kapital und überflüssiger Arbeit, der nicht mehr durch den Markt gesteuert wird und die Eigentumsordnung hinter sich gelassen hat, noch Kapitalismus?“

 

Wachstum

Ein Kriterium kommt bei Kapitalismus-Definitionen sowohl aus der marxistischen, wie auch aus der neoklassischen Schule immer wieder auf und das ist das Wachstum. Bei Marx ist der Kapitalismus auf „Akkumulation“, das heißt ständigem Wertzuwachs ausgelegt. Das ergibt sich einerseits aus der Tatsache, dass der Kapitalist die Bedingungen der Möglichkeit der Produktion jederzeit wiederherstellen (reproduzieren) muss, aber andererseits darüber hinaus auch Profit erwirtschaften will.

Auch in der klassischen Wirtschaftstheorie spielt Wachstum eine zentrale Rolle, sowohl auf der mikroökonomischen Ebene (der Konsument strebt jederzeit danach seinen Nutzen zu maximieren und der Unternehmer will den Gewinn seiner Unternehmung maximieren), als auch auf der makroökonomischen Ebene (die Ökonomie ist auf ständiges Wachstum aus, welches sich im Zins abbildet).

Seit geraumer Zeit haben wir es vor allem in den westlichen Industrienationen auf dieser Ebene mit einem mysteriösen Phänomen zu tun, das Ökonomen die „Säkulare Stagnation“ nennen. Sie nennen sie so, weil das geringe Wachstum seit der Finanzkrise 2007 eigentlich mit herkömmlichen Theorien nicht erklärbar ist. So sind die Leitzinsen der Währungsbanken zwar so niedrig, dass wir bereits seit vielen Jahren einen negativen Realzins (also Zins minus Inflation) haben, doch obwohl Geld noch nie so billig war, bleibt die Sparquote hoch und die Investitionen bleiben spärlich. All das deutet eigentlich auf eine Rezession hin, doch gleichzeitig haben wir es mit einer vergleichsweise niedrigen Arbeitslosenquote zu tun, was bedeutet, dass die Wirtschaft gut ausgelastet ist.

Es gibt eine vielschichtige Diskussion in der Ökonomie über die Ursachen der säkularen Stagnation. Schon Maynard Keynes hat die Möglichkeit vorhergesehen, dass die Sparquote die Investitionsquote übersteigt und auch zu Marx’ These von dem tendenziellen Fall der Profitrate böte sich als Erklärung für unseren Zustand an.

Aber ich möchte hier zunächst eine historische und sehr gründliche Beschäftigung mit dem Thema Wachstum und dessen Ausbleiben anführen, das in den letzten Jahren Furore gemacht hat: Robert J. Gordons „The Rise and Fall of American Growth“.30 In dieser umfangreichen, wie detaillierten wirtschaftshistorischen Studie weist Gorden nach, dass die goldenen Jahre des großen Wirtschaftswachstums in den USA lediglich eine Anomalie in der Geschichte war. Es waren wirklich nur die 100 Jahre vom Ende des Bürgerkriegs bis etwa 1970, in denen die Wirtschaft zweistellig wuchs und sich das Leben der Amerikaner gleichzeitig sichtbar und radikal zum besseren veränderte. Letzteres zeigt er nicht nur anhand der Wirtschaftsdaten, sondern steigt herab in die Haushalte und Betriebe jener Zeit und führt anschaulich auf, wie grundlegend sich das das Leben und Arbeiten in diesen hundert Jahren verändert hat: Elektrizität, künstliches Licht, der Telegraf, die Automobilität, die Waschmaschine – all diese Technologien haben das Leben der Menschen radikal auf den Kopf gestellt und Werte geschaffen, die auf einer breiten Front bei den Leuten ankamen.

Gordons These ist nun, dass dieser breite Wohlstandszuwachs von tatsächlicher Innovation angetrieben war und folglich unsere heutige Zeit – trotz all ihrer digitalen Zukunftsversprechungen – auf der Stelle tritt. Wirtschafts-theoretisch untermauert er diesen Befund, indem er sich eine Ableitung des Wirtschaftswachstums anschaut: die „Total Factor Productivity“. Diese Kennzahl normalisiert das Wachstum entlang der in ihr eingeflossenen Faktoren, nämlich Kapital und Arbeit. Rechnet man also den Mehreinsatz von Kapital und Arbeit aus dem Wachstum heraus, bekommt man den Anteil der Wertschöpfung, der weder durch Kapital noch Arbeit erklärbar ist: Diese Total Factor Productivity (TFP) sei laut Gordon eben der messbare Effekt von Innovation im Wachstum.

ABB 5. Aus The Rise and Fall of American Growth

Da diese TFP über zwischen 1930 und 1970 stetig weit über einem Prozent war, davor oder danach aber wesentlich darunter, schließ Gordon daraus, dass trotz der großen Verwerfungen der Digitalisierung, diese kaum zu Innovation geführt habe. Gordon greift damit eine Beobachtung auf, die bereits Robert Solow 1987 gemacht hat: „You can see the computer age everywhere but in the productivity statistics.“31 Auch der bekannte Silicon Valley Investor Peter Thiel beklagt in seinem Buch „Zero to One“, dass das Problem unserer Zeit sei, dass wir keine wirkliche Innovation mehr produzieren.32 Er unterscheidet zwischen Erfindungen, die aus dem Nichts zu etwas ganz Neuem führen (zero to one) und jenen, die eine vorhandene Erfindung lediglich weiteren Nutzer/innen zugänglich machen (One to N). Unsere heutige Zeit sei vor allem durch letzteres geprägt, lamentiert Thiel.

Ich möchte diesen Thesen widersprechen und eine gegenteilige These aufstellen: Ich glaube, dass es digitale Innovation gibt, dass sie real ist und tatsächlich unser aller Leben verändert, aber dass diese Innovation und Veränderung unseres Lebens mit herkömmlichen Maßstäben kaum zu messen ist. Um das zu erklären müssen wir schauen, wie solche Messungen, also solche Kennzahlen wie das Bruttoinlandsprodukt (im englischen GDP) und alle davon abgeleiteten Werte wie Wachstum, Produktivität oder eben TFP herkommen: Es wird geschaut, was in den unterschiedlichen Branchen an Geld umgesetzt wird, wie viel von was gekauft wird und am ende wird all das schlicht in eine Zahl zusammengerechnet. Kurz: Beim GDP handelt es sich um aufaddierte Transaktionen, was heißt: alles, was keine Transaktion verursacht, fließt nicht in die Rechnung ein.

Nun gibt es aber viele Gründe, warum sich gerade digitale Innovation oft transaktionsneutral oder gar transaktionsmindernd in den Zahlen niederschlägt:

  • Durch das Internet wird die Markttransparenz erhöht. Wer kauft noch Dinge zu denen er/sie nicht vorher Produktreviews gelesen hat, dessen Händler keine gute Bewertung hat oder isst in einem Restaurant, das nicht irgendwo empfohlen wurde? Unsere Konsumentscheidungen sind heute viel fundierter als vor dem Internet, was aber auch bedeutet, dass wir weniger Fehlinvestitionen tätigen. Fehlinvestitionen sind aber oft zusätzliche Investitionen, die heute schlicht nicht mehr stattfinden.
  • Der bereits anfangs erwähnte Spill-Over-Effekt hat dazu geführt, dass wir heute ein weitaus größeres kulturelles Angebot zur Verfügung haben, ohne wesentlich mehr Geld auszugeben. Dafür müssen wir nicht alle bei Bittorrent unsere Serien laden, aber allein, dass wir es könnten, zwingt die Anbieter attraktive Bezahlangebote zu schaffen. Verwertungs-Lobbyisten sprechen hier von einem „Value-Gap“, also dass es eine Lücke gibt, zwischen dem, was ein Kulturprodukt „wert“ wäre und dem, was tatsächlich dafür verlangt werden kann, ohne dass Leute zur illegalen Alternative greifen.33 Dieser Value-Gap ist ebenfalls ein Minus in der Wachstumsbilanz – allerdings in Form einer Konsumentenrente.
  • Natürlich darf man nicht vergessen, auf wieviel kostenloses Wissen wir heute Zugriff haben. Allein die Wikipedia hat unsere ganze Art zu leben und zu arbeiten revolutioniert. Ich persönlich wüsste nicht mehr, wie ich mir sonst einen Einstieg in ein Thema verschaffen sollte. Die Wikipedia ist – bis auf ein paar wenige Spendenzahlungen – komplett kostenlos. Netto geht sie sogar mit einem satten Minus in die volkswirtschaftliche Gesamtrechnung ein, wenn man die vielen wegen ihr eingestampften Lexikonverlage gegenrechnet. Obwohl es vielfach versucht wurde, gibt keine sinnvolle Art den Wert der Wikipedia zu messen.34
  • Einen ähnlichen Effekt haben wir durch die Verwendung von Open Source Software in der Wirtschaft. Obwohl auf den meisten Büroschreibtischen nachwievor ein Microsoft Windowsrechner steht, läuft im Hintergrund der Großteil der weltweiten Serverinfrastruktur auf Linux und anderen Open Source Systemen. Diese Systeme kosten meistens keine Lizenzgebühren und werden kostenlos aus dem Netz kopiert. Es gibt natürlich kommerzielle Anbieter, die Softwarepakete schnüren und Support leisten, aber ihre Wirtschaftsleistung fällt gegenüber der substituierten Software kaum ins Gewicht. Natürlich hat auch das einen Value Gap Effekt auf den Windowspreis und unter anderem deswegen kann Apple seinen Nutzer/innen kein Geld mehr für neue Betriebssysteme oder Updates aus der Tasche pressen.
  • Insgesamt werden alle möglichen Prozesse innerhalb der Wirtschaft durch Technologie immer effizienter gestaltet. Der Einzug von KI und und Big-Data wird immer wieder mit erheblichen Einsparungen beworben. Einsparungen sind aber nicht getätigte Transaktionen. Es sind Verschlankungen der Bilanz, denen zumindest nicht zwingend eine zusätzliche Investition gegenübersteht.

Zusammengefasst lautet die These: Digitale Innovationen spart mehr Transaktionen ein, als sie zusätzlich erschafft und das ist gut so. Oder radikaler: Wirtschaftswachstum und Nutzen verhalten sich in der digitalen Wirtschaft negativ proportional zueinander.

Angesichts dieser doch sehr radikal anderen Lage, stellt sich die Frage nach der säkularen Stagnation ganz anders: Warum haben wir überhaupt noch Wachstum?

Meine These dazu: Wir befinden uns in einer Blase, ähnlich wie 2007, aber mit immateriellen Werten. Ich nenne sie die „Intangible Bubble“. Ich glaube, Immaterialgüter sind massiv überbewertet. Sie sind überbewertet, weil sie künstlich am Spill-Over gehindert werden, der im Digitalen eigentlich der Naturzustand jeder Information ist. Plattform-Kontrolle, drakonische Urheberrechts-Gesetzgebung und -Durchsetzung haben zu einer künstlichen Verknappung von Ideen, Gedanken und kreativen Leistungen geführt, die auf der einen Seite unser aller Leben verarmt, um es uns auf der anderen wieder teuer verkaufen zu können.

Nimmt man diese These zur Grundlage, dann ist ein wesentlicher Teil des digitalen Wachstums der letzten Jahre einzig und allein durch das Aufbauen von größeren und besseren Kontrollstrukturen erwirtschaftet worden. Der Wertschöpfungsprozess ist unter den digitalen Bedingungen zum toxischischen “Rent Seeking” qua monopolartiger Kontrollstrukturen geworden.35 Jeder zusätzlich ausgegebene Euro stiftet keinen Nutzen mehr, sondern ist Ergebnis einer Nutzenseinschränkung und Minderung Wohlfahrt der Gesellschaft.

Das wäre die fünfte und letzte Frage an den digitalen Kapitalismus:

“Ist ein digitaler Kapitalismus mit nur noch behaupteten Kapital und überflüssiger Arbeit, der nicht mehr durch den Markt gesteuert wird, die Eigentumsordnung hinter sich gelassen hat und dessen kaum noch vorhandenes Wachstum aus der künstlichen Verknappung von Immaterialgütern resultiert, noch Kapitalismus?”

 

Fazit

Um das hier umstandslos zu formulieren: Nein, nein, das ist nicht mehr der Kapitalismus. Alle definitorischen Kriterien des Kapitalismus werden durch die digitale Wirtschaft ad absurdum geführt. Doch es bleiben Fragen:

Schock, schwere Not! Haben wir dann jetzt den Kommunismus oder was?

Natürlich ist das ebenfalls nicht der Fall. Zunächst stehen wir mit mindestens einem Bein ja noch voll und ganz im guten, alten analogen Kapitalismus. Und was das digitale Bein betrifft: Wir haben Kapitalismus immer nur in Abgrenzung zu Kommunismus oder Sozialismus – bestenfalls noch Anarchismus oder Feudalismus zu verstehen gelernt. Das, was die Digitalwirtschaft dort tut, ist keines von dem. Nicht alles, was nicht Kapitalismus ist, fällt automatisch in eine der anderen Kategorien.

Wir müssen an dieser Stelle der Neuheit der Situation gerecht werden. Dies ist unser aller erste Digitalisierung und somit sollten wir der Möglichkeit Rechnung tragen, dass es sich hier auch um eine komplett neue Form der Ökonomie handelt. Eine, für die wir noch keinen Namen haben und noch gar nicht wissen, wie sie funktioniert. Etwas, das noch im Werden ist. Dieses Etwas ist nicht automatisch besser oder schlechter, als der Kapitalismus, nur eben hinreichend anders. „Die alte Welt liegt im Sterben, die neue ist noch nicht geboren: Es ist die Zeit der Monster.“ soll Gramsci einmal gesagt haben.36 Wir haben es hier mit einem Monster zu tun, einem (noch) namenlosen Wesen. Monster sind nicht automatisch böse, aber sie machen uns Angst, weil wir sie nicht verstehen.

Doch warum riecht dieses Monster so sehr nach Kapitalismus, schmeckt wie Kapitalismus und sieht zumindest mit zugekniffenen Augen aus wie Kapitalismus?

Auch wenn unter der Haube kein kapitalistischer Motor mehr seine Arbeit verrichtet, ahmt seine Hülle den Kapitalismus doch irgendwie nach. Nicht in Täuschungsabsicht, sondern weil es nichts anderes kennt. Es ist derselbe Grund, wieso das Fernsehen zuerst Theaterstücke zeigte und wieso das erste Automobil zunächst nicht aussah wie ein Automobil, sondern wie eine Kutsche. Woher sollte Karl Benz schließlich wissen, wie ein Automobil aussieht? Er hatte noch keines gesehen.
ABB 6. Der erste Benz

Gut. Und was tun wir jetzt mit dieser Erkenntnis?

Wir wissen an dieser Stelle schon genug, um ein paar Dinge festzuhalten: Der Kapitalismus und die digitale Ökonomie unterscheiden sich ganz wesentlich und zwar vor allem auch darin, was Wachstum in beiden Systemen bedeutet.

Wachstum bedeutete einst, dass mehr Menschen, mehr Dinge tun können. Dass Produkte billiger wurden, mehr Menschen Zugang zu fließend Wasser, Strom, ein Auto, ein Eigenheim bekamen. Sie konsumierten mehr und es ging vielen Leuten deutlich besser. Wachstum war etwas gutes.

In der digitalen Ökonomie bedeutet Wachstum, dass die Kosumentenrente erfolgreicher abgeschöpft wird, dass also mehr Menschen unnötigerweise mehr bezahlt haben, als sie unter normalen Marktbedingungen müssten. Wachstum bedeutet, dass immaterielle Güter erfolgreicher verknappt wurden, dass also Menschen erfolgreich davon abgehalten wurden, an Ideen und Erfindungen zu partizipieren, obwohl es niemanden etwas kosten würde, wenn sie es täten. Wachstum bedeutet außerdem, dass noch mehr Bullshitjobs geschaffen werden, um die Leute ruhig zu halten. Es bedeutet die Ausweitung von Kontroll- und Überwachungsstrukturen und natürlich bedeutet es heute auch den unnötigen Verbrauch von Ressourcen in Zeiten des Klimawandels.

Kurz: Wachstum bedeutet nichts gutes in der digitalen Ökonomie. Der Nutzen von Wachstum ist negativ und mindert die Wohlfahrt der Gesellschaft. Diese Erkenntnis sollte unser ganzes politisch-ökonomisches Denken umstellen. Wir sollten also aufhören, Wachstum als Ziel zu setzen und wir sollten Politiker/innen ausbuhen, die uns Wachstum versprechen.

Digital Degrowth” wäre nicht wie die ökologische Degrowth-Bewegung eine Verzichts- und Selbstgeißelungs-Religion oder eine aus der Not heraus geforderte Zurückhaltung, sondern ein Programm von dem alle profitieren. „Lasst uns das Bruttoinlandsprodukt senken und so die Konsumentenrente hochdrehen, damit alle was davon haben!

Konkreter: Die Netz-Bewegung hat die Frage nach den Immaterialgüterrechten über Jahre sträflich vernachlässigt. Obwohl die Reform der Immaterialgüter für die digitale Welt gewissermaßen die Gründungsidee des Netzaktivismus war, kämpfte er die letzten Jahre nur mehr Rückzugskämpfe bei dem Thema. Wir haben uns einreden lassen, dass es bei Urheberrechtsdiskussionen ja nur um die Beschaffungskriminalität von jugendlichen Musik- und Film-Konsument/innen ging. Doch Immaterialgüter sind die neuen Produktionsmittel und ihre Ungleichverteilung wird heute nur durch enormen Kontrollaufwand bewerkstelligt. Die Vergesellschaftung der Produktionsmittel, wie Marx sie gefordert hat, ist angesichts dieser Situation die selbstverständliche Folgerung.

Netzaktivist/innen streiten reflexhaft ab, wenn Rechteverwerter ihnen vorwerfen, sie wollten das Urheberrecht abschaffen. Warum eigentlich? Ja, wir sollten noch viel entschiedener und radikaler kämpfen, für Open Data, Open Access, Open Source, aber auch für Plattformen wie Sci-Hub, Bittorrent sowie für eine radikale Patentreform und die letztendliche Abschaffung des Urheberrechts.

Happy Spill Over!


  1. Zum Einen die Wikipedia-Definition, (abgerufen am 25.04.2019), https://de.wikipedia.org/wiki/Kapitalismus; diejenige im Gabler Wirtschaftslexikon (abgerufen am 25.04.2019), https://wirtschaftslexikon.gabler.de/definition/kapitalismus-37009; diejenige der Bundeszentrale für Politische Bildung, (abgerufen am 25.04.2019), https://www.bpb.de/nachschlagen/lexika/lexikon-der-wirtschaft/19938/kapitalismus, sowie diejenige nach Gunnar Heinsohn, Otto Steiger: Eigentum, Zins und Geld – ungelöste Rätsel der Wirtschaftswissenschaft, Marburg 2002.
  2. Vgl. Jonathan Haskel; Stian Westlake, Capitalism without Capital. The Rise of the Intangible Economy, Oxfordshire 2017.
  3. Vgl. Saltaresolutions.com, The Value of Intangible Assets, 10.04.2019., https://www.saltaresolutions.com/2018/10/17/the-value-of-intangible-assets/.
  4. Vgl. Trevor Little in Worldtrademarkreview.com: Amazon overtakes Microsoft to top intangible value ranking; research calls for “revolution” in accounting, 17.10.2018, https://www.worldtrademarkreview.com/brand-management/amazon-overtakes-microsoft-top-intangible-value-ranking-research-calls.
  5. Vgl. Marcel Weiß, Kann es ein Eigentum an Geistigem geben? Nein., 23.02.2012, https://neunetz.com/2012/02/23/kann-es-ein-eigentum-an-geistigem-geben-nein-kann-es-ein-eigentum-an-geistigem-geben/.
  6. Wikipedia, Netflix, (abgerufen am 23.04.2019) https://en.wikipedia.org/wiki/Netflix.
  7. Wikipedia, Blockbuster LLC, (abgerufen am 23.04.2019), https://en.wikipedia.org/wiki/Blockbuster_LLC.
  8. Vgl. Thomas Piketty: Das Kapital im 21. Jahrhundert, München 2014.
  9. Vgl. International Labour Organization Organisation for Economic Co-operation and Development, The Labour Share in G20 Economies, 27.02.2015, https://www.oecd.org/g20/topics/employment-and-social-policy/The-Labour-Share-in-G20-Economies.pdf.
  10. David Autor; David Dorn; Lawrence F. Katz; Christina Patterson; John Van Reenen, The Fall of the Labor Share and the Rise of Superstar Firms, 01.05.2017, https://economics.mit.edu/files/12979.
  11. Vgl. Anaele Pelisson; Dave Smith in Business Insider, These tech companies make the most revenue per employee, 06.09.2017, https://www.businessinsider.de/tech-companies-revenue-employee-2017-8.
  12. Vgl. Erin Winick, Every study we could find on what automation will do to jobs, in one chart, 25.01.2018, https://www.technologyreview.com/s/610005/every-study-we-could-find-on-what-automation-will-do-to-jobs-in-one-chart/.
  13. Vgl. Carl Benedikt Frey; Michael A. Osborne, The Future of Employment. How Susceptible are Jobs to Computerisation?, 17.09.2013, https://www.oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of_Employment.pdf.
  14. Vgl. James Manyika; Susan Lund; Michael Chui; Jacques Bughin; Jonathan Woetzel; Parul Batra; Ryan Ko; and Saurabh Sanghvi, Jobs lost, jobs gained. What the future of work will mean for jobs, skills, and wages, November 2017, https://www.mckinsey.com/featured-insights/future-of-work/jobs-lost-jobs-gained-what-the-future-of-work-will-mean-for-jobs-skills-and-wages#part%201.
  15. Vgl. OECD Social, Employment and Migration Working Paper. The Risk of Automation for Jobs in OECD Countries, 14.05.2016, https://www.oecd-ilibrary.org/social-issues-migration-health/the-risk-of-automation-for-jobs-in-oecd-countries_5jlz9h56dvq7-en.
  16. Vgl. Gig Economy Data Hub, How many gig workers are there?, (abgerufen 25.05.2019), https://www.gigeconomydata.org/basics/how-many-gig-workers-are-there.
  17. Vgl. Olivia Solon, The rise of ‚pseudo-AI‘. How tech firms quietly use humans to do bots‘ work, 06.07.2018, https://www.theguardian.com/technology/2018/jul/06/artificial-intelligence-ai-humans-bots-tech-companies.
  18. Vgl. David Graeber: Bullshit Jobs, London 2015.
  19. Vgl. Robert Dur; Max van Lent, Socially Useless Jobs, 02.05.2018, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3162569.
  20. Vgl. Timo Daum, Das Kapital sind wir: Zur Kritik der digitalen Ökonomie, Hamburg 2017.
  21. Vgl. Shoshana Zuboff, The Age of Surveillance Capitalism. The Fight for the Future at the New Frontier of Power, New York City 2018.
  22. Vgl. Nick Srnicek, Platform Capitalism, London 2016.
  23. Vgl. Paul Mason, PostCapitalism. A Guide to Our Future, London 2015.
  24. So zum Beispiel Friedrich August von Hayek, Der Wettbewerb als Entdeckungsverfahren, in Freiburger Studien, Tübingen 1969, S. 249.
  25. Vgl. Peter Cohen; Robert Hahn; Jonathan Hall; Steven Levitt; Robert Metcalfe, Using Big Data to Estimate Consumer Surplus. The Case of Uber, September 2016, https://www.nber.org/papers/w22627.
  26. Vgl. z.B. Hannes Grassegger, Jeder hat seinen Preis, 27.10.2014, https://www.zeit.de/wirtschaft/2014-10/absolute-preisdiskriminierung.
  27. Vgl. Stefan Heidenreich, Geld. Für eine non-monetäre Ökonomie, Berlin 2017.
  28. Vgl. Gunnar Heinsohn; Otto Steiger, Eigentum, Zins und Geld. Ungelöste Rätsel der Wirtschaftswissenschaft, Marburg 2002.
  29. Vgl.: Steve Knopper, iTunes’ 10th Anniversary. How Steve Jobs Turned the Industry Upside Down, 26.04.2013, https://www.rollingstone.com/culture/culture-news/itunes-10th-anniversary-how-steve-jobs-turned-the-industry-upside-down-68985/.
  30. Vgl. Robert J. Gordon, Rise and Fall of American Growth. The U.S. Standard of Living since the Civil War. The Princeton Economic History of the Western World, New Jersey 2016.
  31. Vgl. Simon Dudley, The Internet Just Isn’t That Big a Deal Yet. A Hard Look at Solow’s Paradox, 12.11.2014, https://www.wired.com/insights/2014/11/solows-paradox/.
  32. Vgl. Peter Thiel, Zero to One. Wie Innovation unsere Gesellschaft rettet, Frankfurt am Main 2014.
  33. Vgl. GEMA, Value Gap, (Aufgerufen am 27.04.2019), https://www.gema.de/aktuelles/value-gap/
  34. Siehe zum Beispiel: Leonhard Dobusch, Wert der Wikipedia. Zwischen 3,6 und 80 Milliarden Dollar?, in Netzpolitik, 05.10.2013, https://netzpolitik.org/2013/wert-der-wikipedia-zwischen-36-und-80-milliarden-dollar/.
  35. Man kann die Wertschöpfung gut und gerne als “Rent Seeking” bezeichnen. So unter anderem Kean Birch, Technoscience Rent. Toward a Theory of Rentiership for Technoscientific Capitalism, 06.02.2019, https://journals.sagepub.com/doi/full/10.1177/0162243919829567.
  36. Zitat nach Slavoy Žižek, in: Slavoy Žižek, A PERMANENT ECONOMIC EMERGENCY, Juli/August 2010, https://newleftreview.org/issues/II64/articles/slavoj-zizek-a-permanent-economic-emergency. Das Zitat ist aber umstritten. Vermutlich hat Žižek folgende Zeilen etwas frei paraphrasiert: „The crisis consists precisely in the fact that the old is dying and the new cannot be born, in this interregnum a great variety of morbid symptoms appear.“ aus: Antonio Gramsci: ’“WAVE OF MATERIALISM” AND “CRISIS OF AUTHORITY”’, The Prison Notebooks, New York City, S. 275-6. Ich mag das Zitat trotzdem.

Veröffentlicht unter Algorithmenkritik Das Neue Spiel extern Plattformpolitik
20 Kommentare

The History of Digitalisation in Five Phases

/**This is a shortened translation of my text „Die Geschichte der Digitalisierung in fünf Phasen“ by Julian Rybarsky for a hand-out publication of the FFT-Festival „Claiming Common Spaces II“ where I had the honor to speak. **/

There is no English word for “Digitalisierung”. Instead, one speaks of “technology”, “artificial intelligence” or “innovation”, also addressing different topics and various debates each time. In Germany, the term embraces all those processes of structural adaptation that the introduction of digital technology into our everyday lives entails. It allows us to perceive heterogenous processes as one whole, but it also makes the conspicuous vastness of the phenomenon seem intimidating. I subdivide the history of “Digitalisierung” into four phases that successively lead from the 1980s to our present day. The idea is to generate enough acceleration in the narration of the four phases to use them as a platform for the future – that is, the fifth phase – and to dare a related speculation.

Phase One: Early Networking Utopias (1985 – 1995)

Computers already existed in the 1970s, although they were very large, and mainly installed at universities, in military compounds or at big corporations. Most people knew of them only by way of second-hand accounts. With the advent of the personal computer, the PC, during the early and mid 80s, the time for a departure, for the democratisation of computing came. A sinister war technology became a tool of emancipation to the modern citizen, as far as the self-conception then went. Also, in the 80s, early online providers started linking up PCs. Early net communities such as “The WELL” became meeting points for early adopters, where they developed bold theories about the future’s networked society. In the mid 90s, the internet enters many households, while the world wide web is invented at the same time.

This moment of departure is emblematically crystallised not only in the hacker scene that grew around the PC’s origin, but also in numerous other social discourses who gratefully adopted the “network” as a new structural metaphor. It was a time when the thought prevailed that the internet, this “new space of the mind”, was a utopian space. Anonymity, decentralisation, freedom from hierarchy, openness/connectivity and total freedom of communication were the ideological foundations on which to build a new, a better society.

Of course, everything was not as bright as the net utopians envisioned it at the time. The counter-movement formed the internet, not as a post-identity space, but mainly as a new marketplace. And so, the “New Economy” also grew in the shadows of net discourse, forcing a reconnection of cyberspace into the physical realm and to (civic) identities.

Phase Two: Remediation (1005 – 2005)

At first, the internet dabbled in imitating conventional media or even in making them obsolete. The first thing to undergo “Digitalisierung” was mailed correspondence. When the New Economy bubble burst around the turn of the millenium, YouTube and iTunes followed in its wake, digitising television and the record collection. Skype took over from the telephone, and Amazon claimed retail. But there were also new media who did not attempt to replace their analogue counterparts, but who were only possible through the structural make-up of the internet. The rise of the search engines, of social bookmarking services and photo platforms offered a completely new way of working with digital objects, of sharing them, of transferring them and of communicating about them. And, of course, this birthed social networks. “web 2.0” was the catchphrase proclaiming a social net in 2005.

Phase Three: Loss of Control (2005 – 2015)

To be exact, the loss-of-control paradigm had been introduced way before 2005. What the music industry had to face since 1999, with the advent of filesharing and Napster, soon rang on the doors of the film industry, then the national states, and subsequently on our collective doors. Yet, loss of control concerning data and information streams really gained momentum starting in the middle 2000s. One of its catalysts, of course, is social media, the designation soon applied to the “web 2.0”. All of a sudden, people started uploading all kinds of data to the internet, even the most private snippets. Starting in 2007, smartphones, pocket-sized and equipped with sensors and connectivity, tied us to the internet.

The Internet of Things began connecting living space and urban space. All this data went into the “cloud”. Nothing stood in the way of ubiquitous loss of control any longer.

It was the era of the Wikileaks disclosures, concerning financial institutions, governments, parties and other instances of power, and it was the era of Big Data, of the exploitation of large amounts of data, from which previously undreamt-of information could be unearthed. And, eventually, it was the era of Edward Snowden, who made secret services come undone, yet only to show that all of us had been naked all along.

Simultaneously, there were occurrences of second-order loss of control. Occupy Wall Street protests, the Arab Spring uprisings, protests in Spain and Tel Aviv. The world seemed to go to pieces, and “Digitalisierung” played no small part in this. People organised eruptive “smart mobs” by means of digital tools, threatening and often even toppling government.

Still, new controlling structures were superimposed on the internet. The Napster shock was fenced in by new, manageable distribution such as iTunes or, later, Spotify. Google brought order to the web’s chaos, growing into a global firm. Facebook – please don’t laugh – brought privacy to the internet with its correspondent setting. The likeable “web 2.0” services evolved into giant platforms. They serve as a new apparatus of control and of uncanny power.

Phase Four: The New Game (2015 – 2025)

The platforms’ success is based on “control as a product” on the one hand as well as on an effect that renders the networks ever more useful, the more people participate, on the other hand. Google, Apple, Facebook and Amazon are, without a doubt, the dominating players in our time, but the platform principle shapes the world as a whole by now, with entities such as Airbnb, Uber, Foodora, Deliveroo and others. This has very little to do with the decentralised, anti-hierarchical net utopias of the first phase.

During fourth phase, some individuals and institutions see through the dynamics of this loss of control, and they develop new strategies – a new game to compensate for lack of data stream control, to reach their goals.

The United States presidential election as well as the Brexit referendum in the United Kingdom point to developments similar to a “second-order loss of control”. But the uproar has stabilised. While the loss of control phase was marked by “smart mobs” shaking up world history, but also quickly vanishing in all directions afterwards, new lines of demarcation break up in this new game, running against all of the traditional political spectrum. Donald Trump is no typical Republican, and the Brexit problem cannot be solved along the lines of established party politics. The AfD is fishing for votes from all of Germany’s parties. Effectively, new tribes with irreconcilable views were formed, viewing each other not as political opponents, but rather as enemies of one’s own identity. This digital tribalism fuels fake news and online trolling campaigns. It may be used to study the powerlessness of the platforms, heretofore thought of as omnipotent, now standing before this phenomenon as helpless sorcerer’s apprentices. Tribalism as “second-order loss of control” cannot be fenced in with controlling strategies already in existence. It will ring in the new paradigm of the next phase of digitisation.

Phase Five: Restructuring (2025 – 3035)

Our idea of community and of social discourse, representative democracy and much more were conceived in a time when a small number of people were able to transmit small amounts of information over short distances. This system now collides with overwhelming amounts of data, spun out of control globally, and with a hitherto unknown faculty for the organisation of people and information. It is only consistent that this radically questions power structures without prior knowledge of the structures replacing them. History has produced analogous phenomena in comparable situations.

Like the Internet today, letterpress printing changed society profoundly. If there is one cultural historic event we associate with the accomplishment of letterpress printing, it is the Age of Enlightenment. This may not be wrong, but it suppresses the fact that there is a 250-year period of chaos, war and destruction between the advent of letterpress printing and the Age of Enlightenment. The chaos wrought by the invention of letterpress printing mainly questioned the reign of the Roman Catholic church. With Reformation and over the course of bloody strife, the new sovereign, bureaucratic and secular state as a new ruling body emerged, providing in itself the condition for the possibilities for enlightenment and democracy.

A new institution, at once wielding enough power to channel the numerous losses of control brought up by the new medium onto a peaceful path, but also a legitimisation akin to that of the nation state, could also be at the end of our own phase of restructuring. I can only guess at the form of this construct.

But I would advise looking at the development of the Chinese model of state closely. The EU could also provide interesting impulse, if it wakes from its nation state-induced numbness. Perhaps we have to think much smaller again and focus on the civic grassroots organisations in Athens, Barcelona or the Kurdish-controlled territories in Iraq or Syria.

I, for one, am sure that somewhere out there, the foundations of the great restructuring have already been laid, because I have been told by William Gibson: The future is already here, it’s just not very evenly distributed.


Veröffentlicht unter Das Neue Spiel Digital Tribalism english extern Kontrollverlust Plattformpolitik Weltkontrollverlust
Hinterlasse einen Kommentar