05/24/24

Theorien des digitalen Kapitalismus

Carstensen/Schaupp/Sevignani (Hg.): Theorien des digitalen Kapitalismus: Arbeit, Ökonomie, Politik, Subjekt, Suhrkamp, Frankfurt/M. 2023, 533 Seiten, 28,00 Euro (Leseprobe/Inhaltsverzeichnis)

Thomas Barth

Wie kann kritische Sozialwissenschaft den digitalen Kapitalismus, heute theoretisch fassen? Wie kann sie die Frage beantworten, ob sich der Kapitalismus angesichts der gegenwärtigen Digitalisierung grundlegend verändert? Der vorliegende Band gibt einen Einblick in theoretische Analysen, Zeitdiagnosen und Debatten eines digitalen Kapitalismus. Er bespricht entlang der Felder Arbeit, Ökonomie, Politik, Kultur und Subjekt die Formen und Auswirkungen des digitalen Kapitalismus. Eine integrative Theorie des digitalen Kapitalismus scheine zwar unmöglich, gleichwohl wolle man „Verbindungen der disparaten Ansätze“ ausleuchten (Backcover). Der Begriff „Kapitalismus“ deutet es an: Die meisten Autor:innen des unübersichtlichen Sammelbandes beziehen sich theoretisch auf Karl Marx oder wenigstens auf freudomarxistische Theoretiker, etwa auf Adorno oder Habermas.

Das Taschenbuch mit einem Umfang von 533 Seiten gliedert sich in vier Kapitel mit insgesamt 25 Unterkapiteln nebst Einleitung. Die Kapitel heißen: 1. „Arbeit“, 2. „Ökonomie“, 3. „Politik und Öffentlichkeit“ sowie 4. „Kultur und Subjekte“. Die Zuordnung der Beiträge ist dabei nicht immer einsichtig, etwa wenn die sehr lesenswerten Texte von Marisol Sandoval zu digitalen Genossenschaften und Felix Stalder zu Commons und Commoning nicht unter Ökonomie, sondern im dritten bzw. vierten Kapitel landen.

Progressive Perspektive auf Digitalisierung

Eine progressive Perspektive wird markiert durch Berichte über Arbeitskämpfe gegen Digitalkonzerne, deren unethische Geschäftspolitik, feministische Beiträge zum Thema Care und Digitales sowie ökologische Kritik –bei Thomas Barth (nicht identisch mit dem Rezensenten), auf dessen Text „Nachhaltigkeit im digitalen Kapitalismus“ jedoch niemand weiter eingeht. Oft wird auch versucht, Kulturkritik am digitalen Kapitalismus zu üben, politisch die Sache der (digital) Arbeitenden gegen die Seite des (Dotcom-) Kapitals zu vertreten oder marxistische Begriffe auf die Thematik der Digitalisierung anzuwenden.

Der Marxismus wurde oft tot gesagt, erweist sich aber langlebiger als erwartet. Der renommierte Suhrkamp-Wissenschaftsverlag brachte im Herbst 2023 diesen Sammelband überwiegend marxistischer Theoretiker:innen zum „Digitalen Kapitalismus“ heraus. Deren Beiträge sind fast alle politisch links, feministisch, ökologisch, marxistisch. Aber sie dokumentieren auch eine offenbar langjährige hartnäckige Weigerung vieler Marxist:innen, sich mit politischen Debatten rund um Informationsgesellschaft, Netzwerkkultur, Web2.0 und zuletzt „Digitalisierung“ auseinanderzusetzen. Erst mit der Plattformkritik scheint hier eine Debatte eingesetzt zu haben, der aber marxistische Perspektiven punktuell durchaus nützlich sind.

So entmystifiziert und kritisiert etwa Jamie Woodcock Dotcom-Konzerne und setzt im Text „Plattformarbeit“ (S.85-101) bei Nick Srniceks „Typologie der Plattformen“ an. Plattformen profitieren von Netzwerkeffekten und ihrer Tendenz zu Monopolisierung und kämen dem nahe, was Marx einen „Kaufmannskapitalisten“ nannte, der billig kaufe und teuer verkaufe (S.90). Auf einem abstrakten Niveau werden hehre PR-Selbstdarstellungen von Woodcock auf ein simples Profitmodell zurecht gestutzt, das nur als Trittbrettfahrer des Neoliberalismus seine Erfolge feierte:. Die Zunahme der Plattformarbeit sei Teil des neoliberalen „Wandels von Arbeit, Gesellschaft und Staat“ (S.93) mit grassierender Aushöhlung von Arbeitsrechten, Prekarisierung und Abwälzung von Risiken auf die Arbeitenden. Dabei würde etwa bei Amazon Mechanical Turk menschliche Arbeitskraft als „billigere Form von Software“ ausgebeutet (S.97). „Plattformen haben sich bisher als Laboratorium für das Kapital erwiesen, könnten aber auch ein Testfeld für neue Formen des Widerstands und der Organisation von Arbeitnehmer:innen darstellen.“ (S.101)

In diesem Sinne betont etwa Simon Schaupp die Möglichkeiten von Betriebsräten, bei Digitalisierung in Unternehmen Datenschutzgesetze für die Verteidigung von Arbeitnehmerrechten zu nutzen (S.334ff.); Tanja Carstensen widmet sich dem digitalen Ringen um Handlungsfähigkeit in Kämpfen, die um gender, race, class und ability geführt werden (S.404) und kritisiert mit Nancy Fraser die idealisierte Vorstellung von Öffentlichkeit nach Habermas (S.412); das Autorentrio Nachtwey/Truffer/Seidl kritisiert den „solutionistischen Geist des Kapitalismus“, aber ohne den Transhumanismus beim Namen zu nennen (S.458ff.); Helen Hester blickt zurück auf die Geschichte des Cyberfeminismus, der Beziehung von Frau und Technik vom Flechten und Weben über die feminisierte Schreibmaschine bis zum Cyberpunk-Genre (S.424ff.), seltsamerweise ohne dabei Donna Haraway zu erwähnen, obwohl sie sich auf deren Konzept vom situierten Wissen beruft (S.434); Jodi Dean ruft zum Kampf gegen den digitalen Neofeudalismus auf, der Arbeitende zu rechtlosen Bauern in einem „Game-of-Throne-Machtkampf“ (S.439) degradiert, beruft sich dabei auch auf den sozialistischen Ökonomen Yanis Varoufakis, den griechischen Ex-Finanzminister, dessen Europa-Wahlkampf-Auftritt in Deutschland jüngst verboten wurde -was man als Zeichen feudaler Willkür sehen könnte. Aus dem Wimmelbild kritischer Ansätze wichtige Argumentationsfiguren und Diskursarenen herauszufiltern ist verständlicherweise schwierig. Eine kritische Rezension muss einige Defizite des Sammelbandes benennen.

Digitalisierung und Informatisierung

Die Einleitung klärt zunächst die Begriffe Digitalisierung und Informatisierung, wobei letzere die Vergegenständlichung geistiger, regulierend-orientierender Tätigkeiten meint. In Zeichen oder Information erlange dabei nur ein Teil menschlicher Fähigkeiten, Erfahrungen und Wissens „eine eigenständige Gestalt“. Andere Kommunikationspartner:innen müssten die vergegenständlichten Informationen dann wieder in ihr Wissen und ihre Erfahrungen einbetten. Diese kooperative „Arbeit an den Zeichen“ (Fn1) bediene sich auch unterschiedlicher Informationstechniken. Informatisierung meine in einem zweiten Sinn die „Materialisierung des Informationsgebrauchs“ (Fn2) in Informationssystemen. Es ginge hier um den organisierten und vergegenständlichten Umgang mit Informationen. Digitalisierung sei demgegenüber die Formalisierung, Reduktion und Integration von Information die in virtuellen Modellen gipfle, welche Tätigkeiten, Arbeit und der Herstellung von Technik vorausgehe (S.10).

Gleich die erste Fußnote der Einleitung verweist auf einen posthum erschienenen Band mit Schriften von Arne Raeithel (1943-96) „Selbstorganisation, Kooperation, Zeichenprozess“ (1998), die zweite auf den Beitrag von Andreas Boes und Tobias Kämpf, „Informatisierung und Informationsraum: Eine Theorie der digitalen Transformation“ (S.141-161), so als hätten diese Raeithels für das Thema des Sammelbandes einschlägige Arbeiten weiterentwickelt. Leider nehmen Boes und Kaempf keinen Bezug auf Raeithel und auch sonst keiner der Beiträge -die drei weiteren Texte der Herausgeber:innen inbegriffen.

Boes und Kämpf blicken in ihrem Beitrag auf die Informatisierung als zentrales Element der Produktivkräfte, aus „historischer Perspektive“ sogar als „Teil der conditio humana“ sowie auf Information als soziale Kategorie (S.143). Wir werden sehen, dass Arne Raeithel in den 1980er und –90er Jahren die Ehre hatte, diese drei „konzeptionellen Säulen“ nicht nur als grundlegend vorauszuahnen, sondern zumindest teilweise auch bereits tiefer und detaillierter auszuarbeiten als Boes und Kämpf in ihrem Text erkennen lassen. Sie monieren am Stand der Forschung, dass wegen der Marx’schen Fokussierung auf industrielle Handarbeit die „Sphäre der Kopfarbeit“ vernachlässigt wurde. Ihr „Konzept der Informatisierung“ will „an dieser analytischen Leerstelle“ ansetzen, doch die vermeintliche Leerstelle hätte sich durch Lektüre von Raeithel mehr als schließen lassen. Ihr historischer Rückblick auf Zeichensysteme bis Buchdruck (S.150ff.) bleibt deutlich hinter Raeithels Geschichte der „symbolischen Herstellung sozialer Kohärenz“ zurück, der Vor- und Frühgeschichte bis Ethnologie aufbietet (Raeithel 1998, S.189-208) vgl. Raeithel 1996.

Die multimediale Welt des heutigen WWW konnte Raeithel noch nicht kennen, doch der von Boes und Kämpf als Fazit ihrer Analyse präsentierte, von „Bild, Ton, Zeichen usw.“ (S.154) erfüllte „Informationsraum“ überzeugt nicht wirklich: Er sei sozialer Handlungsraum, durchdringe die Gesellschaft, „eröffne das Potenzial für einen egalitären Modus der gesellschaftlichen Produktion von Wissen“ (S.158). Dies sind heute Gemeinplätze oder schon lange fragwürdig gewordene Hoffnungen der „Kalifornischen Ideologie“ des Slicon Valley (Barth 1999). Die Raummetapher für das Internet stammt aus den 80er-Jahren, der Cyberspace, den die Matrix-Filme auf die Leinwand brachten. Sie ist seit einer guten Dekade als ein Ordnungsmodell des Internets in den Medienwissenschaften kanonisiert –Raummodelle: Cyberspace, Portal, Plattform (Bleicher 2010, S.46 ff.); heute sind die Raummodelle nur noch eines von einem Dutzend Ordnungsmodelle, von „Dispositiv“ bis „Suchmaschinen“ (Bleicher 2022, S.109 ff.) –hier scheinen den Marxisten schlicht wichtige Basiskenntnisse aus der einschlägigen Nachbarwissenschaft zu fehlen. Das ist schlecht, wenn man ein nur interdisziplinär fassbares Thema bearbeiten will.

Arne Raeithel und Mark Poster als vergessene Klassiker

Thomas Barth (der Rezensent, nicht der Beiträger zum Suhrkamp-Band) zeichnete 1995 im Exkurs „Marxistische Ansätze zur Informationsgesellschaft“ die marxistische Begriffsentwicklung zur Informatisierung u.a. beim US-Marxisten Mark Poster und beim marxistischen Psychologen Arne Raeithel nach (Barth 1997, S.79ff.). Poster entwickelte aus dem Marx’schen Begriff der „Produktionsverhältnisse“ unter Bezug auf postmoderne Theorie (Baudrillard, Foucault) seinen auf die kommende Informationsgesellschaft zugeschnittenen Begriff der „Informationsverhältnisse“ -aber keiner der Suhrkamp-Beiträge bezieht sich auf Poster. Am weitesten ausgearbeitet war die marxistische Analyse der Digitalisierung, die man damals noch Informatisierung nannte, m.W. jedoch bei Arne Raeithel.

Raeithel analysierte soziale Kommunikation als Form gesellschaftlicher Arbeit, basierend auf einem vergegenständlichten Begriff von Sprechhandlungen bzw. generell von Information als Trägerin einer symbolisch geteilten Welt (Raeithel 1989). Dies greift der zweiten „Säule“ der Konzeption von Boes und Kämpf vor, Informatisierung als soziales Verhältnis und gesellschaftlichen Prozess zu verstehen, wobei Raeithel mit „Zur Naturgeschichte der Zeichenprozesse – Drei Stufen der Entwicklung von Kommunikation und Denken“ (Raeithel 1998, S.243-255) auch die dritte „Säule“, die historische Perspektive auf die informatorische conditio humana vorwegnahm. Dabei schloss Raeithel, der zu den sehr frühen Anwendern von Computer und Internet zählte und selbst programmieren konnte, ausdrücklich „rechnergestützte“ Arbeit, d.h. Arbeit im digitalen Bereich, ein (Raeithel 1992).

Raeithels Ansatz gründete auf der sowjetischen kulturhistorischen Schule von Leontjew und Wygotsky, die im Stalinismus marginalisiert wurde. Er formulierte einen Arbeitsbegriff aus, der kognitive Tätigkeit an symbolischen Gegenständen ins Visier nahm. Der so gezeichnete Arbeitsprozess zielt auf Veränderungen von Können, Begriffen und Werkzeugen, also auf die sich entwickelnde Reproduktion der inneren und äußeren Verhältnisse der Subjekte (Raeithel 1998, S.35). Raeithel ging damit bereits nicht nur über die theoretische Analyse von Boes und Kaempf hinaus, sondern bewegte sich in Bereichen, die der vorliegende Sammelband eher defizitär im Kapitel „Kultur und Subjekte“ behandelt.

Regulierung digitaler Plattformen

Ulrich Dolata und Jan-Felix Schrape entwerfen in ihrem Beitrag „Politische Ökonomie und Regulierung digitaler Plattformen“ ein –zumindest für diesen Sammelband- überraschend unkritisches, teils fast affirmatives Bild der Plattformkonzerne. Aus Sicht der Organisations- und Innovationssoziologie verteidigen sie zunächst die US-Technologiekonzerne Amazon, Apple, Alphabet/Google und Meta/Facebook gegen die Vorhaltung, dort würde in einem „asset-light-Geschäftsmodell“ weitgehendes Outsourcing betrieben (S.346). Unklar bleibt dabei, warum sie Microsoft ausnehmen. Ihre analytische Teilung von „Plattformunternehmen als organisatorischer Kern“ und der „Plattform als sozialer Handlungsraum“ scheint die Unabhängigkeit besagter „Handlungsräume“ von den Konzernen zu betonen. Das spielt deren Management in die Hände, das die Freiheit ihrer Nutzer gegenüber eigener manipulativer Eingriffe herausstellt. Dolata und Schrape erwähnen zwar das Machtgefälle zwischen Nutzer:innen und Konzernen, haben aber wenig Einwände gegen konzernseitige „lückenlose Beobachtung“ des Nutzerverhaltens, dessen Daten „zunächst als Rohmaterial anfallen“ (S.349).

Sie kritisieren den Ansatz von Shoshana Zuboff, weil deren „Überwachungskapitalismus“ bei der Entstehung dieser Daten fälschlich von „unbezahlter digitaler Arbeit“ der Nutzer ausgehe, obwohl es doch „viel trivialer“ um die „bereitwillige Offenlegung… alltäglichen Verhaltens“ ginge. Was den Nutzer:innen, die ihre „Datenspuren oft achtlos und im Vorbeigehen liefern“, entzogen wird seien wertlose Rohstoffe. Diese werden erst von den Konzernen durch „Aufbereitungs- und Veredelungsleistungen“ zur Ware erhoben. Die Konzerne erwerben damit offenbar nicht nur das ökonomische, sondern auch noch das moralische Recht, private Kommunikation als „handelbare Datensätze und personalisierte Werbemöglichkeiten“ zu Geld zu machen (S.358). Die Fixierung auf marxsche Wertlehre verstellt hier womöglich den Blick auf die Manipulation der Nutzer:innen, deren Daten nicht „achtlos im Vorbeigehen“, sondern in vorsätzlich süchtig machenden Strukturen produziert werden.

Beim Thema Regulierung sehen Dolata und Schrape die Plattformen unter „intensiver Beobachtung“ einer „politischen Öffentlichkeit“. Zivilgesellschaft und Journalisten hätten „Desinformationsdynamiken“ und „Verletzungen der Privatsphäre“ aufgedeckt –nebenbei bemerkt: in jenen Konzernaktivitäten, die Dolata und Schrape als „Veredelungsleistungen“ bezeichneten. Doch die Plattformkonzerne hätten auf die Kritik „durchaus reagiert –etwa mit Transparenzinitiativen sowie Versuchen einer institutionalisierten Einbindung zivilgesellschaftlicher Akteure in ihre eigenen Regulierungsstrukturen“. (S.360) Beispiele nennen die Autoren nicht, daher kommt die Frage nicht auf, ob es sich dabei nur um die üblichen PR-Spektakel gehandelt haben könnte.

Felix Stalder: Plattform-Demokratie-Spektakel

Facebook wurde nach diversen Skandalen in den USA besonders das Ziel von öffentlicher Kritik. Senatsanhörungen brachten Konzernchef Zuckerberg persönlich ins Schwitzen (was sogar wörtlich stimmte: man konnte in der TV-Übertragung sehen, wie der CEO mit Schweißtropfen auf der Stirn sein Sakko ablegen musste). Dennoch bewertete Felix Stalder 2016 Facebooks Reformen der „eigenen Regelungsstruktur“ kritisch.

Facebook habe sich zwar 2009 selbst auferlegt, Änderungen der Geschäftsordnung einer Abstimmung vorzulegen, sobald 7000 Kommentare dazu abgegeben würden; doch das Quorum von 30 Prozent der User:innen wäre bis zur Abschaffung der Regel 2012 nie erreicht worden, auch weil die Konzern-Demokratie dazu neigte die Wahlurnen zu verstecken. Überhaupt hätten Anbieter wie Facebook sich bemüht „mit jeder Neuerung das Machtgefälle zwischen Nutzern und Betreibern“ zu verschärfen (Stalder 2016, S.217). Kannten Dolata und Schrape das Buch ihres Kollegen Stalder nicht?

Felix Stalder lieferte auch einen äußerst lesenswerten Beitrag zum hier besprochenen Suhrkamp-Band, der sein recht bekanntes Werk „Kultur der Digitalität“ von 2016 selbstkritisch hinterfragt. Stalders 2016 noch große Begeisterung für die digitale Allmende („Commons“) der Open-Source-Bewegung wurde inzwischen gedämpft. Der Neoliberalismus instrumentalisiere zunehmend Commons als Trostpflaster für soziale Raubzüge, etwa wenn mittels Crowdsourcing bezahlte Arbeit durch schlechtbezahlte Arbeit ersetzt würde.

Der Geist der freien Software mit Gnu-Public-Licence (GPL) würde von der Software-Industrie heute unterlaufen, indem ihre Dienstleistung über die Cloud angeboten würde –ohne den Quellcode der spezifisch angepassten GPL-Programme offenlegen zu müssen: Eine neue Form kapitalistischer Einhegung einer Allmende. Kombination mit firmeneigenem Code sei eine weitere Einhegung, etwa bei Googles dadurch nicht wirklich offenem Android-System. Kulturelles Commoning diene auf Plattformen der Kommerzialisierung von Nutzerdaten-Extraktion. Schlimmer noch:

„Aber die Einhegung findet nicht nur als Form des Datenextraktivismus statt, sondern auch durch vielfache Möglichkeiten des ‚nudging‘, das die aus Nutzer:innensicht nichtkommerzielle Tätigkeiten in für Plattformbetreiber kommerziell interessante Richtungen lenkt, mit allen problematischen Konsequenzen.“ Felix Stalder 2023, S.510

Kulturproduktion im Internet wird so hinter dem Rücken der User doch wieder für eine Kulturindustrie vereinnahmt. Da wir von der Frankfurter Schule gelernt haben, so Mark Poster 2003, wie verheerend sich die Kulturindustrie auf die Arbeiterklasse und andere demokratisierende Bewegungen auswirkt, sei es unsere Pflicht, die Möglichkeiten ihrer Technologie zu verstehen. Wir sollten lernen, wie sie bei der Konstruktion kultureller Formen eingesetzt werden können, die einer demokratischen Lebenswelt angemessener sind.

Habermas und Plattform-Kapitalismus

An den Adorno-Schüler Habermas knüpfen immerhin zwei Beiträge an: Nosthoff/Maschewski untersuchen mit einem brandneuen Habermas-Text „Plattformökonomische Öffentlichkeiten“, denen der Nestor der kommunikativen Vernunft „höchst ambivalente und möglicherweise disruptive Auswirkungen auf die politische Öffentlichkeit“ zuschrieb. Die Fragmentierung des Publikums in emotionalisierte Teilöffentlichkeiten, Fakenews, Donald Trump und Gereiztheit plagen uns: „Kommunikation und Kontrolle bilden so das dominante wie dialektische Signum der Social-Media-Plattformen: Wer die Strukturen der Kommunikation kontrolliert, definiert auch die Strukturen der öffentlichen Sphäre“ (S.371f.). Nicht, dass nicht schon vor dem Start des WWW, aus dem die Plattformen dann entsprangen, vor dem Zusammenfließen von panoptischer Kontrolle und Verhaltenssteuerung gewarnt worden wäre: Das von mir seit 1996 empfohlene Gegengift eines „Inversen Panoptismus“, einer Umkehrung der Kontrolltechnologie gegen die Machtzentren, scheint den akademischen Autoren wohl zu radikal (Barth 1996). Keiner wagt es auf den 533 Seiten, die hier profilierteste Anti-Plattform auch nur zu erwähnen –Wikileaks und ihren wegen „Geheimnisverrat“ seit fünf Jahren inhaftierten Gründer Julian Assange.

Der zweite Habermas-affine Text ist von Evan Fisher: „Algorithmen und das Selbst“ (S.514-532) und beschließt den Band. Er untersucht die Rolle des Wissens in der Ko-Konstituierung von Mensch und Maschine, wobei Plattformen als „epistemische Medien“ analysiert werden. Mit Friedrich Kittler sieht Fisher Medien als Kulturtechniken, die Wissen über das Selbst schaffen, und dem Selbst in der öffentlichen Sphäre Selbstreflexion erlauben, so Habermas. Dessen emanzipatorisches Erkenntnisinteresse leitet Fisher aus der Psychoanalyse her und verfolgt es bis in die heutige Medienwelt der Plattformen. Deren Algorithmen schaffen zwar Wissen über das Selbst, jedoch ohne Selbstreflexion wie die Psychoanalyse, die Habermas der kritischen Theorie zuordnet. So endet der Sammelband pessimistisch, wobei Fisher noch die Profit-Eigeninteressen der Plattformen unterschätzt und ihr User-Profiling als auf „quasi-freiwilliger“ Selbstbewertung sieht (S.528).

Andere Beiträge, wie jener von Felix Stalder belehren ihn jedoch eines Besseren und wenn alle versammelten Autoren den ganzen Band rezipieren und die Wissenslücken ihrer divergierenden Ansätze damit schließen würden, hätte die Debatte schon viel gewonnen. Es fehlten gleichwohl, wie in dieser Buchkritik ausgeführt, noch viele Erkenntnisse der Medienwissenschaft und aus den kritischen Diskursen der Netzkultur (-Wissenschaft). Etwa aus den Texten des -von keinem der Suhrkamp-Beiträge zitierten- Experten Geert Lovink, der es in den liberalen Niederlanden vom Aktivisten und Netzkritiker zum Professor für Kunst und Netzwerkkulturen brachte. Lovink sieht uns „In der Plattformfalle“ und plädiert seit Jahren für eine „Rückeroberung des Internets“, dabei warnt er spöttisch:

„Man sollte sich nicht in pedantischen Übungen verlieren, um akademische Territorien mit ihren Kanons und Methoden zu definieren und zu verteidigen… Wir sollten die momentane Leichtigkeit annehmen und uns über die Verwirrung unter jenen amüsieren, die versuchen, ‚Digitalisierung‘ zu kartieren.“ Lovink 2022, S.29

Nicht Marx, aber Marxisten ignorieren Technologie

Vor über 20 Jahren zeigte sich Mark Poster (1941-2012) erstaunt über das Ausmaß, in dem viele Marxisten dazu neigten, neue Technologien „fast vollständig zu ignorieren“. Diese nahmen an, dass der Kapitalismus den entstehenden Cyberspace, das Internet vollständig übernehmen würde. Poster fand das sehr überraschend, weil Marx doch stets darauf geachtet habe, die Art und Weise zu untersuchen, wie soziale Innovationen sowohl für bestehende Institutionen als auch in Richtung ihrer Infragestellung wirkten. Marx selber wäre sogar so weit gegangen, disruptiv-brutale Ereignisse wie die Zerstörung der indischen Baumwollindustrie durch britische Kolonialisten insofern zu begrüßen, als sie die historische Entwicklung zum Sozialismus fördern könnten. Das Misstrauen marxistischer Kritiker gegenüber dem Internet erschien Mark Poster daher übertrieben, besonders angesichts der Chancen progressiver Netzkultur in der Open-Source und Hacker-Szene. Sein Optimismus speiste sich aus dem, was damals als „Kalifornische Ideologie“ wegen Ignoranz gegenüber der sozialen Frage kritisiert und heute auch als Transhumanismus bezeichnet wird.

Es war die Zeit einer ersten Verbreitung von Unternehmens-Websites, gefolgt von Börsen-Hype und Dotcom-Crash 2001, als im Kampf um die Netzkultur noch vieles offen war. Für Marxisten war es damals jedoch schon offensichtlich, so Mark Poster, dass das Internet nur eine weitere Teufelei war, um die Reichen noch reicher und die Armen noch ärmer zu machen. Heute, nach der Durchsetzung des Plattform- oder Überwachungskapitalismus, müssen wir leider feststellen, dass die Pessimisten nicht völlig falsch lagen. Zwar hat sich die widerständige Netzkultur weiterhin gehalten, doch Dotcom-Konzerne stehen in der Öffentlichkeit und an den Börsen als Sieger da. Marxistische Kritik an der Plattform-Industrie leidet heute unter deren Ignoranz zwar nicht mehr gegenüber der Technologie selbst, aber gegenüber den sie betreffenden Diskursen. Technik- und Netzkritik, wie sie auf Netzphilosophie gepflegt wird, scheint in vielen Suhrkamp-Beiträgen leider eher unbekannt zu sein. Erst mit der Plattformkritik scheint hier eine Debatte eingesetzt zu haben, der aber marxistische Perspektiven punktuell durchaus nützlich sind.

Fazit

Leider kann der Sammelband trotz vieler herausragender Beiträge seine Versprechen nicht einlösen, vor allem nicht jenes, die „Verbindungen der disparaten Ansätze“ auszuleuchten. Schon die Gliederung in die Kapitel „Arbeit“, „Ökonomie“, „Politik und Öffentlichkeit“ sowie „Kultur und Subjekte“ überzeugte wohl nicht jeden. Abweichend davon benennen die Herausgeber:innen sie in den Titeln der Unterkapitel ihrer Einleitung „Produktivkraftentwicklung und Arbeit“, „Wertschöpfung und Ökonomie“, „Politische Regulation und Öffentlichkeit“ sowie „Kulturelle Regulation und Subjekte“. Zu Beginn der Einleitung findet sich zudem der noch weitgehender abweichende Vorschlag zur „Strukturierung des Feldes anhand der kapitalismustheoretischen Basiskategorien Produktivkraftentwicklung, Arbeit, Wertschöpfung, politische Regulation sowie Kultur und Subjekte“ (S.11).

Die nicht immer einsichtige Zuordnung der Beiträge zu diesen Kapiteln bzw. Kategorien sowie insbesondere das Fehlen editorischer Orientierungshilfen machen den Sammelband äußerst unübersichtlich. Am Ende des Buches findet sich lediglich eine Liste mit Textnachweisen für die sieben Beiträge, die keine Originalbeiträge sind. Es fehlen biographische Angaben zu den Autor:innen, Literaturlisten zu den Beiträgen, ein Schlagwort- oder wenigstens Namensregister. Es fehlt mithin alles, was der Leser gebraucht hätte, um wirklich Verbindungen der disparaten Ansätze ausleuchten zu können. Einen Überblick über die verwendete Literatur gewinnt man nur mühselig aus den weit über tausend Fußnoten. Bezugnahmen der Beiträge oder Autor:innen aufeinander sind seltene Ausnahmen, bleiben fast immer beim bloßen Namedropping -selbst bei der in den Leitmedien herumgereichten und daher schwer ignorierbaren Shoshana Zuboff. Die renommierte Havard-Professorin gehört mit ihrer Kritik des „Überwachungskapitalismus“ zu den am häufigsten zitierten Autor:innen im Sammelband, leider fast immer nur als inhaltsleerer Verweis auf das Problem der Überwachung (das damit oft als abgehandelt betrachtet wird). Eine lebendige Diskussionskultur, Diskurse und Debatten, für die es allein schon innerhalb der marxistischen Digitalisierungsforschung genügend Themenfelder gäbe, sucht man bislang offenbar weitgehend vergeblich.

Herausgeber:innen und Autor:innen des Sammelbandes

Die drei Herausgeber:innen, die selbst Beiträge liefern und gemeinsam die Einleitung verfassten, sind: Tanja Carstensen, Privatdozentin für Soziologie der LMU München und Koordinatorin des Forschungsverbunds Sorgetransformationen an der Universität Hamburg, Simon Schaupp, Gastprofessor am Zentrum für Angewandte Kulturwissenschaft am KIT in Karlsruhe und Oberassistent für Soziologie der Universität Basel, Sebastian Sevignani, Akademischer Rat für Soziologie der Schiller-Universität Jena. Weitere Beiträger:innen sind: Thomas Barth (mit dem Rezensenten weder identisch noch verwandt noch bekannt), Kean Birch, Andreas Boes, Florian Butollo, D. T. Cochrane, Jodi Dean, Ulrich Dolata, Emma Dowling, Marlen van den Ecker, Eran Fisher, Christian Fuchs, Helen Hester, Ursula Huws, Kylie Jarrett, Tobias Kämpf, Felix Maschewski, Oliver Nachtwey, Anna-Verena Nosthoff, Tilman Reitz, Sarah T. Roberts, Marisol Sandoval, Stefan Schmalz, Jan-Felix Schrape, Timo Seidl, Nick Srnicek, Philipp Staab, Felix Stalder, Johannes Truffer, Judy Wajcman, Jamie Woodcock.

Literatur

Barth, Thomas, Das inverse Panoptikum: Ein postmoderner Ansatz für die politische Informationsstruktur des Cyberspace, zuerst in: Informatik Forum, Nr.2 1996, S.68-71.

Barth, Thomas: Soziale Kontrolle in der Informationsgesellschaft, Centaurus, Pfaffenweiler 1997.

Barth, Thomas: Die “Unabhängigkeitserklärung des Cyberspace” und der Panoptismus der globalen Netze, in: Medienwissenschaft, Nr.4, 1999, S.402-407.

Bleicher, Joan Kristin: Internet, UVK (UTB), Konstanz 2010.

Bleicher, Joan Kristin: Grundwissen Internet, UVK (UTB), Konstanz 2022.

Carstensen, Tanja, Simon Schaupp und Sebastian Sevignani (Hg.): Theorien des digitalen Kapitalismus: Arbeit, Ökonomie, Politik, Subjekt, Suhrkamp, Frankfurt/M. 2023.

Poster, Mark: The Mode of Information: Poststructuralism and Social Context, Polity Press, Cambridge 1990.

Poster, Mark: The Second Media Age, Polity Press, Cambridge 1995.

Raeithel, Arne: Kommunikation als gegenständliche Tätigkeit, in: Knobloch, C. (Hg.): Kommunikation und Kognition, Nodus, Münster 1989, S.29-70.

Raeithel, Arne: Ein kulturhistorischer Blick auf rechnergestützte Arbeit, in: Wolfgang Coy et al. (Hg.): Sichtweisen der Informatik, vieweg, Wiesbaden 1992, S.125-139.

Raeithel, Arne: Selbstorganisation, Kooperation, Zeichenprozess: Arbeiten zu einer kulturwissenschaftlichen, anwendungsbezogenen Psychologie, Westdt.Vlg., Wiesbaden 1998.

Stalder, Felix: Kultur der Digitalität, Suhrkamp, Berlin 2016.

Zuboff, Shoshana: Das Zeitalter des Überwachungskapitalismus, Campus, Frankfurt/M. 2018.

-Siehe auch die etwas reißerische Polemik (der Kampf um Aufmerksamkeit ist hart) des Rezensenten auf Telepolis: Warum Marxisten die Digitalisierung nicht verstehen

03/7/24

Digitale Mündigkeit

Leena Simon

Computer sind komplex. Sie bis ins letzte Detail zu verstehen, grenzt an Unmöglichkeit. Doch wer Wert auf ein freies und selbstbestimmtes Leben legt, kommt um ein Mindestmaß an Computerverständnis nicht umhin. Denn die Digitalisierung würfelt unsere Gesellschaft ganz schön durcheinander. Damit wir für die technischen Entwicklungen als Gesellschaft Verantwortung übernehmen können, sollten wir unabhängig davon entscheidungsfähig sein. Um mündig zu sein ist es nicht nötig, alles immer und in jedem Augenblick perfekt zu machen. Digitale Mündigkeit bedeutet Verantwortung für das eigene Handeln im digitalen Raum selbst zu tragen.

Was ist digitale Mündigkeit?

„Mündigkeit“ ist zunächst ein Rechtsbegriff. Er bedeutet, dass ein Mensch verantwortlich für sein Leben ist. Historisch leitet er sich ab von altdeutsch Munt, der Bezeichnung für die Verantwortung des früheren Hausherren über seine Frau, Kinder und Gesinde. Mündig konnten damals nur Männer werden, nämlich dann, wenn sie aus der Munt des Vaters heraustraten und für ihr eigenes Leben Verantwortung übernahmen. Frauen gingen über von der Munt des Vaters in die Munt des Ehemannes. Heute ist Mündigkeit vor allem ein rechtlicher Status, der einem Menschen z.B. das Wahlrecht oder das Recht, die Ehe einzugehen, zuspricht.

Mündig sein bedeutet Verantwortung für das eigene Leben zu tragen.

Neben der rechtlichen Bedeutung gibt es auch eine philosophische Definition von Mündigkeit. Immanuel Kant griff den rechtlichen Begriff auf und wendete ihn auf eine ganze Gesellschaft an. Er vergleicht die Geschichte der Menschheit mit dem Heranreifen eines Kindes. Damit legte die Aufklärung die Grundlagen der modernen Demokratie.

Wir tragen also doppelte Verantwortung: Für unser eigenes Leben und für den Fortbestand unserer Gemeinschaft. Dieser Verantwortung müssen wir uns bewusst sein, vor allem dann, wenn wir uns im Internet bewegen. Denn wir tragen ebenfalls Verantwortung für den Fortbestand unserer Kommunikationsgemeinschaft..

Doch Kant warnte damals schon, dass es nicht möglich sei, ad hoc mündig zu werden, wenn man zuvor noch gar nicht frei war. Mündigkeit ist Übungssache. Auch in der digitalen Welt: Menschen werden mit unfreier und komplizierter Software konfrontiert, die ihnen gar nicht die Möglichkeit bietet, deren Funktionsweise zu studieren. Der Umgang mit dem Computer wird oft nur minimal und oberflächlich antrainiert und später nicht mehr hinterfragt.

Heimliche Entmündigung

Meist nehmen wir gar nicht mehr so deutlich wahr, wo und wie wir überall entmündigt werden. Wenn wir einen Kredit nicht erhalten, weil uns eine Datenbank (anhand der statistischen Eigenschaften unserer Nachbarn) als nicht zuverlässig eingestuft hat, oder einen Job nicht antreten dürfen, weil wir vermeintlich Asthmatiker sind (dabei hatten wir nur für den Vater die Medikamente gekauft): Wir kennen diese Gründe nicht und können daher nicht beurteilen, wie sehr die weltweite Datensammlung schon unseren Alltag beeinflusst. Wie soll man da noch Verantwortung für das eigene Leben übernehmen?

Die Filterblase

Um im großen Datendickicht den Überblick zu wahren, wird im Internet – auch zu unserem Nutzen – vieles für uns personalisiert. Beispielsweise die Suchergebnisse, werden von der Suchmaschine auf uns optimiert. Das ist praktisch, denn so findet man viel schneller das, was man wirklich sucht. Doch es ist auch problematisch, da wir meist nur stets das angezeigt bekommen, was wir schon kennen.

Eli Pariser nennt das die „Filterblase“. Treffer, die unsere Gewohnheiten angreifen, oder eine Gegenposition zu unserer Meinung darstellen, sehen wir immer seltener. Und so bewegen wir uns mehr und mehr in einer Umgebung, die nur scheinbar neutral die Realität darstellt: In Wirklichkeit befinden wir uns in einer Blase, die uns die eigene Weltvorstellung als allgemeingültig vorspielt. Und das ist Gift für einen freien Geist, der sich ständig hinterfragen und neu ausrichten können möchte. In Konflikten liegt großes Wachstumspotential, um das wir uns berauben, wenn wir vor lauter Bequemlichkeit andere Meinungen einfach ausblenden.

Verantwortungsbewusstsein

Gegen Personalisierung und heimliche Entmündigung können wir uns zunächst nicht wehren. Daher ist es besonders wichtig, sich diese Phänomene stets ins Bewusstsein zu rufen. Wer sich dabei erwischt, ein Google-Ergebnis unterbewusst als „neutrale Suche“ verbucht zu haben, ist schon einen Schritt weiter, als wer noch immer glaubt, sie sei tatsächlich neutral.

Der erste und wichtigste Schritt in die digitale Mündigkeit ist Verantwortungsbewusstsein. Verantwortung tragen bedeutet nicht, immer alles richtig zu machen, sondern die richtigen Fragen zu stellen und sich mit den Konsequenzen des eigenen Handelns zu konfrontieren. Machen Sie sich stets bewusst, wie viel Ihnen nicht bewusst ist und verhalten Sie sich entsprechend. Unterstützen und schützen Sie Strukturen, die Transparenz und Offenheit ermöglichen, und hinterfragen Sie Strukturen, die Ihnen vorschreiben wollen, was Sie tun oder denken sollen. Üben Sie sich in Eigenwilligkeit, wenn Ihnen Technik Vorschriften machen möchte. Besonders wichtig dabei: Üben Sie, auch Menschen oder Systeme zu hinterfragen, denen Sie vertrauen. Das ist besonders schwer, aber genau hier sind sie besonders leicht hinters Licht zu führen.

Leena Simon: Digitale Mündigkeit. Wie wir mit einer neuen Haltung die Welt retten können, 336 Seiten, Hardcover, 32,00 EUR, ISBN: 978-3-934636-49-1

Dieses Buch weist Wege in die digitale Mündigkeit und liefert das Rüstzeug zum kritischen Denken und Handeln. Denn mit Mut, Entschlossenheit und Übung können wir wieder mündig sein. Dann finden wir auch die Lösungen für die Herausforderungen unserer Zeit. Online bestellen oder mit der ISBN: 978-3-934636-49-1 im Buchhandel bestellen. Buchvorstellung im Blog von Digitalcourage.

Dieser Beitrag wurde nach CC by sa 4.0 rebogged von https://muendigkeit.digital/

10/29/23
CC-by-sa-Gnsin

Transhumanismus & Netzphilosophie

Thomas Barth

„Ein Gespenst geht um, nicht nur in Europa – das Gespenst des Transhumanismus. Seine Priester und Auguren haben bereits prominente Forschungslaboratorien, Universitäten, globale Unternehmen und politische Institutionen besetzt.“, warnte 2017 die NZZ und hatte damit nicht ganz unrecht. Einige transhumanistische Stimmen wollen heute offenbar einer hemmungslosen Digitalisierung den mühsam erkämpften Datenschutz aus dem Weg räumen.

Der Biologe und überzeugte Eugeniker Julian Sorell Huxley prägte 1951 den Begriff “Transhumanismus” im Aufsatz New Bottles for New Wine und setzte sich zugleich als erster UNESCO-Generalsekretär und bei der Allgemeinen Erklärung der Menschenrechte für humanistische Werte ein. Julians Bruder Aldous Huxley warnte dagegen schon 1932 in seiner Babies-in-Bottles-Dystopie “Schöne neue Welt” vor einer Zukunft mit biologisch fabrizierter Drei-Klassen-Gesellschaft: Genetische oder technische Intelligenzsteigerung hatte schon immer ihre Fans und gehört heute zu den Hoffnungen der neuen Bewegung.

Viele erinnern sich dabei an die LSD-selige SMILE-Revolution (Space Migration, Intelligence Increasement, Life Extension) des „Exo-Psychologen“ Timothy Leary und sei es nur aus den Pop-Conspiracy-Bestsellern von Robert Anton Wilsons Auge-in-der-Pyramide-Zyklus. Bereits im 19.Jahrhundert brachte Auguste Comte, Begründer von Soziologie und Positivismus, eine vom Fortschritt berauschte Bewegung zusammen, in der man sich z.B. von der Medizin beträchtliche Verlängerungen der Lebenszeit, wenn gar nicht Unsterblichkeit erhoffte.

Heute verstehen sich Transhumanisten als Teil einer Bewegung, die vom „Posthumanismus“ abzugrenzen ist, der nicht den Menschen selbst, sondern als eher theoretische Richtung das Menschenbild des Humanismus überwinden will. Dieses wird, anknüpfend etwa an Michel Foucault  und andere Postmoderne, mit Schattenseiten der Moderne in Verbindung gebracht: Etwa psychiatrische Entmündigung, Sexismus, Rassismus, Kolonialismus, Totalitarismus usw. Der Transhumanismus reflektiert diese Schattenseiten eher nicht, steht sogar teilweise zu tradierten humanistischen Werten und will sie auf „verbesserte Menschen“ (Enhancement), Cyborgs und Künstliche Intelligenzen ausweiten (Janina Loh 2018).

Wie religiös ist der Transhumanismus?

Die Philosophin und Theologin Anna Puzio legte aus Sicht der philosophischen Anthropologie 2022 eine scharfe Kritik des Transhumanismus (TH) vor und fragt: Wie verändern sich Mensch und Körper durch Technik und welches Menschenverständnis resultiert daraus für den TH? Als Ziele des TH markiert sie Perfektionierung, Kontrolle und Macht und ein Menschenbild, das zentral auf Information basiert. Dieses reduktionistische Menschenbild lasse den TH in die Nähe der Eugenik geraten und enthülle im TH prototalitäre Aspekte einer Ideologie, die sie mit dem Nationalsozialismus vergleicht. In scharfer Abgrenzung zum TH, aber in überraschend affirmativer Haltung zur technologischen Selbstoptimierung, entwickelt Puzio ihre Technikanthropologie mit Bezug auf den kritischen Posthumanismus und Donna Haraway.

Wie sieht Puzio das Verhältnis zur Religion: Im TH stechen zwar „religiöse Semantik und eine Fülle an religiösen Motiven“ hervor, etwa Unsterblichkeit, ewiges Leben, Heilsvorstellungen, die Beseitigung von Leid, die Möglichkeit eines entkörperlichten Daseins. Doch der Religion wird vom TH, der sich von ihr abgrenzen will, auch mangelnde Vernunft, Intoleranz und Unwissenschaftlichkeit vorgehalten (S. 54).

Die Ziele des TH verbergen sich teilweise hinter religiöser Motivik, von „gottähnlichen Fähigkeiten und himmlischen Zuständen“ reden und „paradiesische Klänge“ anschlagen, „auch wenn sich ihre Vorstellungen von denen der Religion sehr unterscheiden“ (S. 232). Anstelle einer unsterblichen Seele im Himmel trete bei einigen TH-Richtungen der „Upload“ des Geistes als Programmcode in den Computer, was Puzio als Gipfel einer Körperabwertung sieht. Der TH seinerseits bringe jedoch Körperabwertung mit Christentum und Platonismus in Verbindung, von denen er sich abzugrenzen sucht: „Die transhumanistische Sicht auf den Körper wird als harmlos abgetan, wenn Hughes sie z.B. mit Praktiken der ‚Abtötung des Fleisches‘ vergleicht: der ‚Selbstgeißelung im Katholizismus‘, der Selbstkastration in frühen griechischen und christlichen Sekten…“ (S. 258). Andere TH-Bestrebungen zielen dagegen auf die fleischliche Perfektionierung sexueller Lust zu ungekannter Ekstase transhumaner „superpersonen“: So „werde eine ’superperson‘ neue Geschlechtsorgane und mehr sexuelle Möglichkeiten mit sich bringen. Eine weibliche ’superperson‘ werde beispielsweise über mehrere Körperöffnungen verfügen“ (S. 260). Hier sieht Puzio „Vorstellungen von Männern für Männer“ und eine Instrumentalisierung des Körpers (S. 261). Aber letztlich konkretisiere sich das Menschenverständnis des TH als Anthropologie der Information, der eine metaphysische Essenz zugesprochen werde: „Die Information konstituiert im TH das Wesen des Menschen. In gnostischer Motivik soll der reine Geist vom stofflichen Körper befreit werden, der aber im TH nicht mehr Pneuma ist, sondern ‚pure Form‘, substratunabhängige Information“ (S. 266).

Ist der Transhumanismus totalitär oder neoliberal?

Die Ziele des TH sieht Puzio im Streben nach Perfektionierung, Kontrolle und Macht, die sich hinter Visionen einer „Steigerung des gegenwärtigen menschlichen Daseins“ (S. 231) verbergen. Der „Supermensch“ des TH, er könnte dem NS-Begriff vom „Übermenschen“ nahestehen? Mit der Frage: „Der Transhumanismus -eine Ideologie?“, folgt Puzio der Totalitarismus-Theorie Hannah Arendts und findet „protototalitäre Aspekte“ im TH: „Für den Nationalsozialismus bedeutet das beispielsweise, dass »nichts ›logischer‹ und konsequenter ist, als daß man […] parasitäre Rassen oder dekadente Völker eben auch wirklich zum Absterben bringt.« Der TH ist nicht in der Position, seine Visionen in Gesellschaft und Politik voll umzusetzen. Dennoch gilt auf diese Gefahr, auf die Arendt aufmerksam macht, auch hinsichtlich des TH wachsam zu bleiben. Denn denkt man die transhumanistischen Gedanken zu Ende und zieht daraus strikte Konsequenzen, dann gilt auch hier das Recht des Stärkeren, des ökonomisch Gewinnbringenden, des Produktiven oder der Maschine“ (S. 275f).

Diese Ideologie-Kritik am TH ist vielleicht etwas zu eng auf Arendts Totalitarismus-Theorie begrenzt, vergleicht den TH i.d.S. mit Stalinismus und vor allem der NS-Ideologie. Die heute nach Ansicht vieler Gesellschaftskritiker westliche Länder dominierende Ideologie ist aber der Neoliberalismus (vgl. z.B. Reimer 2023). Dieser formt maßgeblich Gesellschaft und Technologien eines Digitalen Kapitalismus, der tief in Alltag und Leben der Menschen hineinwirkt. Der Neoliberalismus wird leider nicht erwähnt, obwohl er starke Bezüge zu digitalen Technologien und Medien aufweist und mit dem TH u.a. Ziele der Optimierung, Kontrolle und Macht teilt.

Puzios engagierte Kritik am Transhumanismus und seinen teilweise überschießenden Visionen kontrastiert mit einer tendenziellen Kritiklosigkeit gegenüber heutiger Techniknutzung und Gesellschaft, so dass sich die Dissertation stellenweise fast wie ein Werbetext liest wenn Puzio schreibt: „Das neuste Model (Apple Watch 6) ermittelt sogar den Blutsauerstoffgehalt. Da sie den Schlafrhythmus erfasst und wasserfest ist, muss sie gar nicht mehr abgenommen werden. Mit der Apple Watch können Fitnessziele gesetzt und erreicht werden (…) Die Bewegungsaktivitäten lassen sich teilen, sodass man mit seinen Kontakten in einen Wettbewerb treten kann.“ (S. 306) Fraglich scheint, ob es sich dabei, wie Puzio meint, wirklich um autonomieförderliche „Technologien des Selbst“ handelt oder eher um eine (andernorts von ihr kritisierte) Kommerzialisierung des Körpers -die hier zudem mit einer neoliberalen Ideologie des Wettbewerbs unterlegt ist.

Puzio berichtet, wie vornehmlich junge Frauen heute eine Schönheits-OP unter Vorlage eines mit digitalen „Filtern“ aufgehübschten Selfies anstreben und wie auf Instagram Abmagerungswettbewerbe ein besonders knochiges Schlüsselbein belobigen. Doch auf die dort und in anderen „Social Media“-Plattformen epidemische Anorexie geht sie nicht ein. Kritikwürdig scheint ihr offenbar auch nicht, dass im Rahmen künftigen digitalen „social engineering“ Probleme wie „Finanzcrash, Klimaschutz oder revolutionäre Bewegungen“ unter Kontrolle gebracht werden sollen (S. 312). Dass hier Ökologie, Finanzregulierung und politische Unterdrückung technokratisch auf eine Stufe gestellt werden, scheint etwas problematisch. Doch soweit können wir Anna Puzio wohl ohne Probleme zustimmen: Der Transhumanismus folgt Zielen der Perfektionierung, Kontrolle und Macht und zeigt dabei zumindest bei einigen seiner Protagonisten ein reduktionistisches Menschenbild sowie prototalitäre Aspekte einer Ideologie -die aber auch Neoliberalismus heißen könnte.

Loh, Janina: Trans- und Posthumanismus zur Einführung, Hamburg: Junius 2018.

Anna Puzio: Über-Menschen. Philosophische Auseinandersetzung mit der Anthropologie des Transhumanismus. transcript (Bielefeld) 2022.

Jürgen-Michael Reimer: Der absurde Kapitalismus. Ein ideologiekritischer Essay. PapyRossa Verlag (Köln) 2023.

10/12/23

Ideologiekritik: Neoliberalismus – Reimers „Der absurde Kapitalismus“

Jürgen-Michael Reimer: Der absurde Kapitalismus. Ein ideologiekritischer Essay. Köln 2023, PapyRossa, 123 Seiten, 16,00 Euro.

Rezension von Thomas Barth

Kann der Marxismus heute noch zu einer Kritik der Netzgesellschaften beitragen? Jürgen-Michael Reimer meint ja und legt eine philosophisch-politökonomische Analyse der Absurdität unseres digitalisierten Kapitalismus vor. Bei Marx, Adorno und Camus sucht er nach Antworten für unsere Krise und deren Unsichtbarkeit in Medien, Netzen und Denken.

Bestellen wir die Apokalypse bei Amazon?

Immer wieder, so Reimer einleitend, tauche in Gesprächen über die Klimakrise ein absurder Gedanke auf: Wir könnten uns heute in unseren westlichen Gesellschaften zwar das Ende der bewohnbaren Welt vorstellen, nicht aber das Ende des Kapitalismus. Thema des Buchs ist folgerichtig die Absurdität unseres Wirtschaftssystems, insbesondere des heutigen neoliberalen Kapitalismus. Der habe sich nicht nur als unfähig erwiesen, die Verheißungen zu erfüllen, mit denen er sich rechtfertige, er habe ihre Erfüllung sogar verhindert. Darüber hinaus habe er daran mitgewirkt, die Voraussetzungen zu zerstören, auf denen er beruhe, und in diesem Sinne sei er absurd. Dieser Kritikansatz ziele nicht auf ethische oder moralische Verfehlungen des Neoliberalismus, sondern auf seine Dysfunktionalität.

Prof. em. Jürgen-Michael Reimer, studierte Sozialwissenschaften in Hamburg und Göttingen, lehrte „Human Ressource Management“ an der Hochschule für Angewandte Wissenschaften (HAW) Hamburg und erweist sich im vorliegenden Buch als origineller Vertreter einer marxistischen Politökonomie auf der Höhe der Zeit was Digitalisierung, sogenannte „Soziale Medien“ und Plattformkonzerne wie Apple, Microsoft, Facebook, Google oder Amazon angeht.

Besagte Verheißungen, mit denen sich der neoliberale Kapitalismus rechtfertigt, erweisen sich Reimers Analyse als pure PR: Wohlstand für alle und Gerechtigkeit werden in absurder Weise konterkariert, Bildungs- und Gesundheitswesen ausgehungert, Natur und Klima verwüstet und selbst mit dem“ liberalen Markenkern“ der Freiheit ist es nicht weit her. Im Gegenteil, neoliberale Regime bedienen sich ausgiebig modernster digitalisierter Massenmanipulation: „Diese manipulative Macht kommt in besonderem Maße auch digitalen Netzen zu. Sie schöpfen -bemerkt oder unbemerkt- Humandaten ihrer Nutzer ab, die wiederum verwendet werden, um individuell und gezielt Informationsströme zu steuern. Die Machthaber der Informationsgesellschaft sind global operierende private Konzerne, denen es gelingt, sich staatlicher Regulierung -und auch Besteuerung- weitgehend zu entziehen“ (S.93).

Es etabliere sich eine neoliberale „Marketinggesellschaft“, die auf großflächige Manipulation des Bewusstseins setze und uns mit kulturellen und affektiven Gütern abspeise. Digitale Plattformen stellen dabei etwa über Influencerinnen Märkte der Eitelkeiten und des Sozialprestige bereit, wo mit Selfies und Partnerbörsen um Aufmerksamkeit gebuhlt würde und Luxusgüter immer größeren Raum einnehmen. „So treffen zwei unvereinbare Imperative -Lohnverzicht und unbegrenzter Konsum- im Individuum aufeinander. Das große Paradox!“ (S.102) Ergebnis sei sich ausbreitende Entfremdung, die zunächst klassisch marxistisch erläutert und dann auf den Neoliberalismus bezogen wird: „Auch das Absurde lässt sich als Entfremdung deuten“ (S.108) Die „Auswüchse des auf Algorithmisierung beruhenden digitalen Kapitalismus“ sieht Reimer schon bei Horkheimer/Adorno und ihrer „Dialektik der Aufklärung“ vorausgeahnt.

Der neoliberale Kapitalismus hat sich nicht nur als unfähig erwiesen, die Verheißungen zu erfüllen, mit denen er sich rechtfertigt, er hat ihre Erfüllung sogar verhindert. Darüber hinaus hat er daran mitgewirkt, die Voraussetzungen zu zerstören, auf denen er beruht. In diesem Sinne ist er absurd. Die in dem Essay entfaltete Kritik am Neoliberalismus ist funktionalistisch und macht diesen als interessengeleitete Ideologie kenntlich.“ (Klappentext, PapyRossa Verlag)

Die Entwicklung des Geistes des Kapitalismus in der vorindustriellen Zeit wird vom Reimer beginnend bei Aristoteles bis zu Marx, Weber und Sombart nachgezeichnet. Letzterer sah den Luxus als Bedingung der Entstehung des kapitalistischen Geistes, wobei mit Weber (protestantische) Askese als weitere Wurzel dazu gedacht werden muss. Die Vorgeschichte des Neoliberalismus wird in marxistischer Begrifflichkeit analysiert und als ihre Folge die Pervertierung heutiger Lebenswelt herausgearbeitet:

„Als seine zentralen Merkmale werden sowohl die Verschiebung der wirtschaftlichen Grundlogik von einer Versorgungslogik zu einer solchen der unbegrenzten Kapitalakkumulation als auch deren Ausuferung zu einer ‚gesellschaftlichen Grammatik‘ herausgestellt, die mehr und mehr alle Bereiche des öffentlichen und privaten Lebens durchtränkt.“ (Klappentext)

Neoliberalismus, Staatsverachtung und machtbesoffene Konzerne

Seit den 1970er und -80er Jahren trat der neoliberale Kapitalismus seinen Siegeszug an, da mit Überproduktion und Legitimationsverlusten Krisenerscheinungen zu überwinden waren. Diese wurden der Akkumulationslogik im Sinne des Nutzens einer kleinen Minderheit von Kapitaleignern immer gefährlicher. Bereits in der Ideologie des Kapitalismus verschleierte der Liberalismus die ökonomischen Kerninteressen dieser Minderheit mit dem hehren Wert der Freiheit. Die liberalen Wurzeln des Neoliberalismus zielen auf Marktfreiheit, die eine Reduktion staatlicher Macht ins Zentrum rückt. Milton Friedman habe vertreten, dass Freiheit da beginne, wo die Politik aufhöre. Hannah Arendt habe dem entschieden widersprochen, Freiheit sei der Sinn von Politik, den der neoliberal erstrebte „Minimalstaat“ (Hayek, Nozik) schwerlich einlösen könne.

Die Haupttugenden einer freiheitlichen Gesellschaft seien nach John Rawls, so Reimer, Wahrheit und Gerechtigkeit, wobei jeder gleiche Grundfreiheiten habe und wirtschaftliche Ungleichheit so zu gestalten sei, dass sie dem Gemeinwohl diene. Dem stehen die Doktrinen des Neoliberalismus entgegen, die ausgehend von der Mont Pèlerin Society (Hayek, Popper, Friedman u.a. 1947), 1973 in der Pinochet-Diktatur in Chile erstmals umgesetzt wurden. In USA und UK folgten Thatcher und Reagan diesem Beispiel und 1989 wurden im Washington Consensus die neoliberalen Leilinien festgelegt, an denen sich auch IWF, WTO und Weltbank orientiert hatten: Reduktion der Staatsquote, Steuersenkung, Privatisierung von Staatsbetrieben, Deregulierung vor allem der Finanzmärkte, Investorenschutz. Diese Doktrinen finden sich in Austeritätsprogrammen im Euroraum unter Stichworten wie Fiskalpakt, Schuldenbremse, Privatisierung. Neoliberaler Marktradikalismus und Antikollektivismus (wurzelnd in der antikommunistischen McCarthy-Bewegung der USA) laufen damit auf eine Schwächung des Staates hinaus, deren Hauptmethode die Privatisierung sei. Zu ihrer Rechtfertigung diene die Krise der Staatsfinanzen, deren Ursache nicht in neoliberalen Steuersenkungen gesehen, sondern als „Demokratieversagen“ umgedeutet werde.

Die unermüdliche Lobbyarbeit des neoliberalen Kapitals ziele hierzulande vor allem auf die Privatisierung von Post, Verkehr, Bildung, Gesundheit, Wohnen und Daseinsvorsorge. Der Ausverkauf des Staates erfolge auch durch ppp (public privat partnership -eine Erfindung der bereits vor der Jahrtausendwende zunehmend neoliberal agierenden Grünen in ihrer ersten Regierungsbeteiligung unter Schröder. Manipuliert werde durch subtiles deep lobbying, etwa mit der Platzierung von Leihbeamten aus Privatunternehmen in Ministerien (hier waren ebendiese Grünen ebenfalls federführend und schufen Querverbindungen von Großkapital und Ökopartei-Spitzenpolitiker:innen), staatlicher Beauftragung privater Berater, Formulierung von Gesetzen durch Anwaltskanzleien usw.

Die neoliberale Finanzialisierung der Märkte hätte etwa in Finanz- und Griechenlandkrise (2008 ff.) großes Unheil bewirkt, neoliberale Digitalisierung hätte unsere Daten in kognitive Güter verwandelt, Überwachung dabei die Freiheitsrechte ausgehöhlt (Zuboff) und Leitunternehmen wie Google, Apple, Facebook, Amazon wären inzwischen zu proprietären Märkten (in Privatbesitz) geworden. Der neoliberal regierte Staat habe die Besitzenden und Unternehmen „gepampert“, durch „mehrfache und deutliche Reduzierung des Spitzensteuersatzes der Einkommenssteuer. Die hätten sich durch immer weitergehende Steuervermeidung selbst der niedrigen Steuern bedankt, bis hin zu den „extremen Cum-Ex-Skandalen“, wo kriminelle Bereicherung die Staatskasse 10 bis 30 Milliarden Euro gekostet habe (S.80). Was den Autor zur Frage führt, wie lange wir uns den Kapitalismus noch leisten können.

Die Legitimierung und Einhegung wirtschaftlicher Macht durch demokratischer Prozesse sei im Neoliberalismus nicht erwünscht (der Leser wird an die erste Anwendung neoliberaler Dogmen in der Pinochet-Diktatur erinnert). Sogar die Märkte selbst gerieten bei digitalen Plattformkonzernen in das Eigentum des Kapitals. Folge sei eine Entmachtung der Arbeitnehmerseite im Wirtschaftsprozess, eine Senkung der Lohnquote im BIP und die Demokratisierung betrieblicher Entscheidungen „steht nicht einmal zur Diskussion“ (S.94).

Der Industriekapitalismus brachte bedeutende Treiber der Produktivitätssteigerung wie Arbeitsteilung, Massenproduktion und technische Innovationen, aber auch eine industrielle Reservearmee von Arbeitslosen. Deren Verdammung zur „unfreiwilligen Askese“ der Elendsviertel diene zur Disziplinierung der Arbeiterschaft. Diese Drohkulisse zeige sich bis heute im Neoliberalismus, etwa in der Programmatik des „Forderns und Förderns“ bei Hartz IV, die Verwerfungen des Arbeitsmarktes der Eigenverantwortung des undisziplinierten Subjekts zuschreibe. Global komme in einer Privatisierung der Macht (vgl. Krysmanski) es zugleich zum Übergang einer geopolitischen zu einer geoökonomischen Ordnung, deren neoliberales Finanzregime von OECD, IWF, WTO und Weltbank unter dem Schlagwort einer „global governance“ den Charakter einer „vierten, monetativen Gewalt“ annehme (S.47). Angesichts globaler Macht ist die Demokratie in Gefahr (vgl. Barth) und auch durch bis in die intimsten Bereiche der Lebenswelt vordringende digitale Technologien sind die Menschen heute einer absurden gesellschaftlichen Wirklichkeit ausgesetzt, deren Lebensperspektive sich für die Mehrheit auf ein zunehmend prekäreres muddling through beschränke (S.99). Absurd in einer Gesellschaft die unsagbaren Reichtum produziert, sich selbst für rational hält und Freiheit und Individuum zu ihren höchsten Zielen erklärt.

Soziale Medien, Propaganda, Konformismus

Eine vom Liberalismus proklamierte Freiheit werde für die meisten Menschen zur zynischen Illusion, die sich nur die oberen 20 Prozent in der steiler werdenden Einkommenspyramide noch wirklich finanzieren können. Menschliches Leben würde vielmehr zwischen wachsender Unfreiheit im digitalisierten Arbeitsleben, Konsumismus und unfreiwilliger Askese des Prekariats zerrieben. Der neoliberal gepriesene Wettbewerb bringe am Ende auf dem Markt nur wenige Sieger hervor: The winner takes all. Ein absurder Effekt, weil der Wettbewerb so seine eigenen Voraussetzungen zerstört. Besonders absurd sei der Glaube, der Markt könne die Gesellschaft mit heute öffentlichen Gütern versorgen. Der Markt habe keine Lösungen in den Krisen der Umwelt, der Pandemie, der Energieversorgung oder des Ukrainekrieges erbracht. (S.75) Bei Privatisierungen sei die Effizienzsteigerung nicht eingelöst worden, Leistungen wurden teurer, die Versorgung schlechter und in der öffentlichen Infrastruktur sei hierzulande ein Investitionsstau von 450 Milliarden Euro zu verzeichnen. Der neoliberale „Schlanke Staat“ sei in Wahrheit ein Ausverkauf des Staates zu Ramschpreisen gewesen. Staatliche Behörden sind zwar für Umweltschutz, Bildung, Gesundheitswesen zuständig, aber der Medien, Parteien und Öffentlichkeit dominierende Neoliberalismus untergrabe mit seiner Forderung nach dem Rückzug des Staates seine eigenen Grundlagen.

Ein absurder Trick des Neoliberalismus sei seine Selbstdarstellung als Verteidiger der Freiheit bezüglich tatsächlicher Machtausübung: „Neoliberale Argumentationen schweigen in der Regel die Macht des Kapitals tot, eine für Ideologien typische Form selektiver Wahrnehmung. Neoliberale Manager bzw. Kapitaleigner bestreiten häufig, Macht auszuüben. Sie geben vor, mit ihren Entscheidungen der invisible hand des Marktes zu folgen.“ (S.91)

Unseren Gehorsam sichern sich neoliberale Regime auch durch (zunehmend digitalisierte) Erziehung und Propaganda vor allem durch Mobilisierung von Voreingenommenheit: „Diese manipulative Macht kommt in besonderem Maße auch digitalen Netzen zu. Sie schöpfen -bemerkt oder unbemerkt- Humandaten ihrer Nutzer ab, die wiederum verwendet werden, um individuell und gezielt Informationsströme zu steuern. Die Machthaber der Informationsgesellschaft sind global operierende private Konzerne, denen es gelingt, sich staatlicher Regulierung -und auch Besteuerung- weitgehend zu entziehen.“ (S.93)

Camus, das Absurde und die liberale „Freiheit“

„Die Vorstellungen zur Absurdität sind dem literarischen und philosophischen Werk von Albert Camus entlehnt. Bei ihm führt das Absurde, die Begegnung des sinnsuchenden Menschen mit einer sinnlosen Welt, nicht in eine hoffnungslose Schicksalsergebenheit, vielmehr bietet das Bewusstwerden des Absurden dem Menschen die Chance, sich aufzulehnen und sein Schicksal selbst in die Hand zu nehmen.“ (Klappentext)

Die manipulative Macht der neoliberale Ideologen veranlasst auch jene Menschen, die im Neoliberalismus benachteiligt werden, zu einer unbewussten und freiwilligen Unterwerfung. Die Entfremdung der Menschen wachse im digitalen Kapitalismus, den der Neoliberalismus entlang der Dogmen des Washington Consensus durchsetze. Im so durch wachsende Entfremdung immer absurderen Dasein der Menschen kann der Neoliberalismus die von ihm aufgerissene Lücke der Sinngebung nicht füllen. Mit dem existenzialistischen Philosophen und Schriftsteller Albert Camus könne man sich nur durch Bewusstmachung des Absurden auf Freiheit, Leidenschaft und Auflehnung besinnen, um die absurden Auswüchse des Neoliberalismus in demokratischen Prozessen zu thematisieren und einzuhegen.

Dies führe nach Camus jedoch nicht, so Reimer, in hoffnungslose Schicksalsergebenheit, vielmehr biete das Bewusstwerden des Absurden dem Menschen die Chance, sich aufzulehnen und sein Schicksal selbst in die Hand zu nehmen. Reimer will der Auflehnung ein Ziel geben und macht deshalb den Neoliberalismus als interessengeleitete Ideologie kenntlich. Deren zentralen Merkmale wären die Verschiebung der wirtschaftlichen Grundlogik von einer Versorgungslogik zu einer solchen der unbegrenzten Kapitalakkumulation sowie deren Ausuferung zu einer „gesellschaftlichen Grammatik“, die mehr und mehr alle Bereiche des öffentlichen und privaten Lebens durchtränken würde.

Eine Abkehr vom absurden Neoliberalismus wäre nur durch ergebnisoffene demokratische Diskurse möglich: „Dieser Diskurs darf aber nicht den Meinungsmachern im Dienst des Kapitals überlassen bleiben. Auf dem Weg dahin dürften sich Versuche lohnen, die absurden Auswüchse des Neoliberalismus zu thematisieren und einzuhegen.“ (Schlusssätze S.119)

Reimer ist nicht der erste Altmarxist, der auch beim französischen Existenzialismus nach Antworten suchte. Bereits Wolfgang Fritz Haug befasste sich in seiner Doktorarbeit „Jean-Paul Sartre und die Konstruktion des Absurden“ (1965) mit existenzialistischer Gesellschaftskritik, deren Kreisen um das Absurde er ebenfalls in der Entfremdung und Vereinzelung begründet fand. Seine Kritik am Kult leerer Freiheit bei Sartre, aber insbesondere bei Camus war, dass dieser sich, in elitärer Ferne zur Gesellschaft, eher darin gefiel, „das Absurde“ auszuhalten, als aktiv gegen die kapitalistische Entfremdung vorzugehen. Haug zitiert Hannah Arendt, die Camus Fatalismus und Schicksalsergebenheit zuschrieb (Haug 1991, S.40f., S.190f.), eine Einschätzung, die selbst konservative Philosophiehistoriker bis heute teilen (vgl. etwa Steenblock 2002, S.326f.). Reimers funktionalistische Kritik an Neoliberalismus und digitalem Kapitalismus wird dadurch jedoch nicht geschmälert. (Thomas Barth)

Quellen:

Jürgen-Michael Reimer: Der absurde Kapitalismus. Ein ideologiekritischer Essay. Köln 2023, PapyRossa, 123 Seiten, 16,00 Euro.

Barth, Thomas: Controlling statt Demokratie? In: ders. Hg.: Bertelsmann: Ein globales Medienimperium macht Politik, Hamburg 2006, S.101-111.

Haug, Wolfgang Fritz: Jean-Paul Sartre und die Konstruktion des Absurden, 3.Aufl., Argument-Verlag, Hamburg 1991 (Or.1966).
Krysmanski, Hans Jürgen: Die Privatisierung der Macht, in: Altvater, Elmar u.a.: Privatisierung und Korruption: Zur Kriminologie von Globalisierung, Neoliberalismus und Finanzkrise, Hamburg 2009, S.25-37.
Steenblock, Volker: Kleine Philosophiegeschichte, Stuttgart 2002.

09/1/22
CC-by-sa-Gnsin

Transhumanismus, Triefnase & Digitalisierung

Thomas Barth

Transhumanistische Aktivisten und Philosophen schwelgen in Visionen einer digitalen Zukunft. Das Paradies soll uns spätestens nach dem Upload in die Virtual Reality einer bewohnbaren Cloud erwarten, wenn unser Geist sich digitalisiert selbst simulierend im Himmelreich der Matrix wiederfindet. Doch hienieden warten einstweilen noch ein paar Hindernisse, besonders hierzulande, wo selbst das stinknormale Internet dem 16 bleierne Jahre währenden Merkel-Staat als „Neuland“ galt.

Das irdische Elend der Digitalisierung wie auch die Schwächen des cishumanen Mängelwesens Mensch zeigten sich am 4. Oktober 2019 im Tagungszentrum der Diözese Rottenburg-Stuttgart. Die Kirche wollte den Transhumanismus erörtern und hatte neben dem Theologen Hoff dafür den Religionsphilosophen Professor Göcke und den „bekanntesten deutschsprachigen Transhumanisten“ Professor Sorgner eingeladen. Pech war, Sorgner kam stark vergrippt, Göcke stark verspätet, weil mit der offenbar fehldigitalisierten Deutschen Bahn.

Was ist der Mensch?

Was ist der Mensch? Was soll er glauben, worauf soll er hoffen? Diese Fragen bewegen Denker und Philosophen, Theologen wie Transhumanisten: „Der Transhumanismus geht davon aus, dass sich der Mensch als ein Produkt der biologischen Evolution auch selbstständig technisch bis hin zu einem neuen Mensch-Maschine-Wesen oder einer Cyberspace-Entität weiterentwickeln kann und sollte.

Der durchaus transhuman geneigte Göcke beginnt so die Einleitung zu seinem Buch „Designobjekt Mensch: Die Agenda des Transhumanismus auf dem Prüfstand“. Da kommt digitale Technologie wie gerufen, etwa als Hirn-Chip, als Big-Gene-Data, KI oder in fernerer Zukunft als virtueller Lebensraum ganz entkörperlichter Menschen (brain uploading). Bedeutsamer Zankapfel der Digitalisierung ist der Datenschutz, der nach Meinung Prof.Sorgners leider auch transhumanem Streben nach kybernetischer wie genetischer Verbesserung des Menschen im Weg steht.

Big-Data-Firmen lieben die Transhumanisten, wie etwa die Super-KI-Forscher des Machine Intelligence Research Institute , mehr als Datenschützer. Google etwa hat mit Ray Kurzweil einen prominenten Transhumanisten zum Forschungsdirektor gemacht, Tesla-Milliardär Elon Musk will mit seiner neuen Firma Neuralink Hirnimplantate entwickeln. Bei Facebook treibt Mark Zuckerberg persönlich transhumane Projekte voran, etwa die Worterkennung per Hirnscan. Das dabei angestrebte Brain-Diktaphon würde nebenbei dem maschinellen Gedankenlesen etwas näher kommen, das der NSA bei ihrer Totalüberwachung noch schmerzlich fehlt. Auch deutsche Transhumane scheinen Belangen der IT-Wirtschaft nicht abgeneigt, wie die Diözese Rottenburg auf oben erwähnter Tagung feststellen konnte.

Prof. Sorgner ließ es sich dort nicht nehmen, die Debatte mit einem Bonmot der IT-Industrie zu bereichern: „Daten sind das neue Öl!“ Unter dieser Parole hatte die Industrielobby bekanntlich versucht, die neue EU-Datenschutzverordnung zu torpedieren, wie eine Polit-Dokumentation zeigte. Aus Angst davor, die EU könnte von China digital abgehängt werden, tritt Sorgner dafür ein, ein europäisches Social-Credit-System nach chinesischem Vorbild einzuführen, inklusive einer personalisierten Dauerüberwachung der kompletten EU-Bevölkerung:

Warum es für uns keine realistische Position ist, die Datenerfassung zu unterlassen: Der zentrale politische Grund für eine umfassende Datensammlung ist, dass wir in einer globalisierten Welt leben und das Daten das ‚Neue Öl‘ sind, wie viele Experten betonen: Öl bedeutet Macht und finanzielles Florieren. Angesichts dieser Erkenntnis ist es keine realistische Option, keine personalisierten Daten zu sammeln… In China wird ab 2020 ein Sozialkreditsystem flächendeckend angewendet werden. Die Menge an digitalen Daten, die auf diese Weise erhoben wird, ist kaum zu unterschätzen. Je mehr digitale Daten verfügbar sind, desto mehr Macht und Geld kann realisiert werden. Europa dagegen hat Datenschutzbestimmungen institutionalisiert, die einer hilfreichen Erfassung digitaler Daten entgegenstehen.“ Prof. Stefan Lorenz Sorgner 

Damit wäre Sorgner wohl ein transhumaner Extremist, sogar aus Sicht der 2015 gegründeten Transhumanistischen Partei Deutschlands (TPD). Die pocht in den Leitlinien ihres Parteiprogramms Version 2.0 gleich an erster Stelle auf die Grundrechte der Menschenwürde und der informationellen Selbstbestimmung. Sorgner übergeht dagegen in seinem Redebeitrag den möglichen Einwand, dass blinde Gier nach Macht und Geld geradewegs in einen digitalen Totalitarismus führen könnte. Auch an seinem Buch mit dem reißerischen Titel „Transhumanismus: ‚Die gefährlichste Idee der Welt‘!?“ (2016), fällt auf, dass kaum Bedenken, Zweifel oder Kritik an Technologien vorkommen. Dabei haben insbesondere Eingriffe in das menschliche Gehirn eine dunkle Geschichte -man denke an Militär- und Geheimdienst-Projekte wie das Zimbardo-Experiment, LSD-Forschung, Gehirnwäsche oder MKUltra. Der Transhumanismus muss sich außerdem angesichts lobbyistischer Verfilzungen und enormer Geldsummen, die auf dem Spiel stehen, auch fragen, wer und warum ihn finanziert.

Thomas Hobbes und Bioshock

Hinter Sorgners transhumanem Bejahen des technischen Fortschritts, das geradezu von einer Euphorie in die nächste taumelt, verbirgt sich jedoch ein zutiefst pessimistisches Menschenbild: Der „Mensch als des Menschen Wolf“ des Frühaufklärers Thomas Hobbes, wie man es im „Bioshock“-Computerspiel in einer transhumanen Welt der Gen-Mutanten nachspielen kann. Dort werden individuell gestaltete Menschen zu einander bekriegenden Monstren in einer Gesellschaft, die nach den darwinistisch-libertären Grundsätzen von Ayn Rand konzipiert ist (so Weber in Weber/Zoglauer 2015 S.55,69).

Als Begründer der modernen politischen Philosophie empfahl Hobbes zur Überwindung der angeblich menschlichen Gewaltnatur den frühtotalitären Absolutismus eines staatlichen Leviathans. Angesichts einer Welt voller psychopathischer Wolfsmenschen ist eine an Ethik orientierte Lebenshaltung natürlich nicht ratsam, meint offenbar Sorgner, wenn er sagt:

Moralischer zu sein hingegen, ist ggf. nicht der zentrale Wunsch vieler Menschen. Überspitzt formuliert liegt dies meiner Meinung nach darin begründet, dass Moralität in der Regel im Interesse der nicht-moralischen Menschen ist und moralische Menschen eher ausgenutzt, ausgebeutet und unterdrückt werden.“ Sorgner 2016, S.62

Kritisch sieht Sorgner daher eine von manchen Transhumanisten geforderte gesetzliche Verpflichtung zum „moralischen Enhancement“ (und das ist fast die einzige Technikkritik im ganzen Buch). Dabei ist hier nicht ethische Bildung und Erziehung gemeint, sondern Moral etwa per Hirnimplantat oder Einflößung von Drogen, die analog zur Impfpflicht verordnet werden könnte. Das lehnt Sorgner ab. Aber nicht, weil ein Herumpfuschen an den höchsten Funktionen des menschlichen Gehirns unsere Gesundheit, Freiheit und Würde beeinträchtigen könnte, sondern -ganz im Sinne eines Bioshock-Rechtslibertarismus nach Ayn Rand- wegen des „globalen Wettbewerbs“:

Eine solche Regelung mag zwar praktisch nicht ausgeschlossen sein, jedoch erscheint sie mir in keinem Fall im politischen Interesse des betroffenen Landes zu sein, da ein Land mit einer besonders moralischen Bevölkerung im Kontext des globalen Wettbewerbs sicherlich nicht lange bestehen kann.“ Sorgner 2016, S.63

Janina Loh, die Sorgners „Metahumanismus“ in ihrem Buch „Trans- und Posthumanismus zur Einführung“ in einem kurzen Kapitel analysiert, mag diesen letztlich nicht als eigenständigen Ansatz anerkennen (Loh 2018, S.175). Auch Sorgners duales Theoriesystem von Kohlenstoff- bzw. Siliziumbasiertem Transhumanismus (womit er Bio- von Digitaltechnik trennt) lehnt Loh als zu schematisch und daher nur bedingt brauchbar ab (S.78).Aber Loh schreibt Sorgner auch zu, die von Transhumanisten prognostizierte Unsterblichkeit nur als „rhetorisches Mittel“ zu sehen (S.173), hat dabei jedoch evtl. überlesen, dass Sorgner Unsterblichkeit zwar für unmöglich erklärte, aber nur wegen eines in Milliarden Jahren drohenden kosmologischen Kollaps des Universums (Sorgner 2016 S.11, 2018 S.157).

Bis dahin könnte Sorgners extrem langlebiger (wenn auch im haarspalterisch-philosophischen Sinne nicht völlig unsterblicher) Transhumaner noch eine ganze Menge Neutrinos die Galaxis runterfließen sehen -und evtl. auch eine Revision der schließlich nur auf läppischen 200 Jahren Forschung basierenden Big-Bang-Theorie. Der Kritik am transhumanen Unsterblichkeitsstreben entgeht Sorgner mit seiner kosmologischen Scholastik aber nicht, der Frage nach sozialer Verantwortung hier und heute ebenso wenig.

Unsoziale Weapons of Math Destruction

Die Mathematikerin Cathy O‘Neil, die wirklich etwas von der Technik und dem Code dahinter versteht, fordert etwas mehr „moralisches Vorstellungsvermögen“, denn „Big Data-Prozesse kodifizieren die Vergangenheit und können nicht die Zukunft erfinden“ (S.276). Cathy O‘Neil spricht von Weapons of Math Destruction, also Mathe-Vernichtungswaffen (analog zu Massenvernichtungswaffen), warnt mit Blick auf Google, Amazon und Facebook davor, dass „Daten privatisiert und privat genutzt werden, um Profite zu erzeugen und Macht zu gewinnen“. Man müsse die Digitalisierung und ihre Algorithmen bändigen, indem man sie öffentlicher Aufsicht und die sie betreibenden Firmen mit „verpflichtenden Standards der Rechenschaftslegung“ staatlicher Regulierung unterwirft (S.308). Sie weist darauf hin, dass der Trump-Nestor „Steve Bannon, selbst während er gezielt daran arbeitet, das öffentliche Vertrauen in Wissenschaft zu untergraben, im Verwaltungsrat von Cambridge Analytica sitzt -einer politischen Datenfirma, die behauptet, sie habe Trump zum Wahlsieg verholfen…“ (S.313).

Heiße PR-Luft einer schmuddeligen Dotcom-Firma? Oder die üblichen Wahlmanipulationen im digitalen Kapitalismus, nur leider diesmal aufgeflogen? Manche KI-Kritiker sehen etwa in „lernfähigen neuronalen Netzen“, die aktuell als KI gepriesen werden, eine aufgeblasene Hype. Diese „KI“ wären eher „spreadsheets on steroids“ -Tabellenkalkulation auf Steroiden. So zitiert Schnetker in seiner Kritik der „Transhumanistischen Mythologie“, den DARPA-KI-Experten John Launchbury (Schnetker S.75). Cathy O‘Neil kritisiert die unsozialen Folgen des Einsatzes solcher „KI“ als klassistisch, rassistisch und sexistisch:

„Sie versprechen Effizienz und Gerechtigkeit, manipulieren dabei jedoch die höhere Bildung, verursachen zusätzliche Schulden, fördern massenhaft Gefängnisstrafen, prügeln bei jeder Gelegenheit auf die Armen ein und untergraben die Demokratie.“ (O‘Neil S.270)

Literatur

Göcke, B.P.: Designobjekt Mensch?! Ein Diskursbeitrag über Probleme und Chancen transhumanistischer Menschenoptimierung.“ In: Benedikt Paul Göcke/ Frank Meier-Hamidi (Hg.): Designobjekt Mensch. Der Transhumanismus auf dem Prüfstand. Freiburg i.Br.: Herder 2018, 117-152

Loh, Janina: Trans- und Posthumanismus zur Einführung, Hamburg: Junius 2018

Loh, Janina: Transhumanismus: Den Menschen weiterentwickeln, um ihn besser kontrollieren zu können, Berliner Gazette 15.8.2017

O‘Neil, Cathy: Angriff der Algorithmen, München: Hanser 2017

Schnetker, M.F.J.: Transhumanistische Mythologie: Rechte Utopien einer technologischen Erlösung, Münster: Unrast 2019

Sorgner, S.L.: Transhumanismus: ‚Die gefährlichste Idee der Welt‘!?, Herder: Freiburg 2016

Sorgner, S.L.: Was wollen Transhumanisten? In: Göcke/ Meier-Hamidi (2018) 153-180

Weber, K. u. T. Zoglauer: Verbesserte Menschen: Ethische und technikwissenschaftliche Überlegungen, München: K.Alber 2015

12/13/21

Rezension Nils Melzer: Der Fall Julian Assange

Nils Melzer: Der Fall Julian Assange. Geschichte einer Verfolgung – Der spektakuläre Report des UNO-Sonderberichterstatters für Folter, Piper Verlag 2021

Hermine Humboldt

Hat die schwedische Justiz Beweise gefälscht und Zeugenaussagen manipuliert, um einen Vergewaltigungsverdacht gegen Julian Assange zu konstruieren? Der UNO-Menschenrechtsexperte Prof. Nils Melzer war anfangs kein Assange-Unterstützer, aber er nutzte sein diplomatisches Mandat für eigene Ermittlungen im Fall Assange.

Was hat der Fall Assange mit Netzphilosophie zu tun? Der Schweizer Netzphilosoph Felix Stalder wies schon 2016 in seinem bahnbrechenden Buch „Die Kultur der Digitalität“ auf eine westliche Machtelite hin, die er als „den inneren Kern des postdemokratischen Systems“ bezeichnete, „bestehend aus den Spitzen der Wirtschaft, der Politik und der Geheimdienste“ (Stalder 2016, S.230). Der Begriff „Postdemokratie“ markiert eine Kritik an westlichen Ländern, die von einer schleichenden Entdemokratisierung und Herrschaft von Technokraten ausgeht, die sich ausgeklügelter medialer Massenmanipulation bedient.

„Die Grenzen zwischen postdemokratischen Massenmedien und staatlichen Nachrichtendiensten sind fließend. Wie inzwischen bekannt ist, bestehen zwischen beiden Bereichen personelle Kontinuitäten und inhaltliche Gemeinsamkeiten.“ (Stalder 2016, S.234)

In seinem Buch „Der Fall Assange“ bestätigt Nils Melzer die Analyse seines Schweizer Landsmanns Felix Stalder in spektakulärer Weise: Denn der Fall Assange ist zweifellos einer der größten Justizskandale die wir kennen (sollten). Den jedoch die wenigsten in voller Tragweite zur Kenntnis nehmen können, denn es ist auch ein eklatanter Fall von Medienversagen der westlichen „freien Presse“. An deren tatsächliche Freiheit kann man angesichts ihrer äußerst desolaten (Nicht-) Berichterstattung zu weiten Teilen dieser Story höchstens noch eingeschränkt glauben -wie auch der Philosoph Stalder gut begründet argumentiert hatte. 2010 wurde Julian Assange zum „Staatsfeind Nr.1“ für die USA und Großbritannien und geriet ins Fadenkreuz der mächtigsten Geheimdienste der Welt: Der CIA, NSA, FBI (und der ca. 30 weiteren US-Geheimdienste) sowie der Britischen MI5, MI6 und GCHQ. Diese Dienste warfen, so muss man annehmen, angesichts der Wikileaks-Enthüllungen ihre ganze Macht in die Waagschale. Dazu gehört auch die Macht über Massenmedien, Politik und Justiz vieler Länder -ganz offensichtlich hier der Justiz in Schweden und England.

Mit dem „Afghan War Diary“ veröffentlicht WikiLeaks 2010 das größte Leak der US-Militärgeschichte, mitsamt Beweisen für Kriegsverbrechen und Folter. Kurz danach verdächtigt Schweden WikiLeaks-Gründer Julian Assange der Vergewaltigung, und ein geheimes US-Schwurgericht ermittelt wegen Spionage. Als ihn Ecuador nach jahrelangem Botschaftsasyl der britischen Polizei überstellt, verlangen die USA sofort seine Auslieferung und drohen mit 175 Jahren Haft. Nils Melzer, UNO-Sonderberichterstatter für Folter, will sich zunächst gar nicht auf den Fall einlassen. Erst als er Assange im Gefängnis besucht und die Fakten recherchiert, durchschaut er das Täuschungsmanöver der Staaten und beginnt den Fall als das zu sehen, was er wirklich ist: die Geschichte einer politischen Verfolgung. An Assange soll ein Exempel statuiert werden – zur Abschreckung aller, die die schmutzigen Geheimnisse der Mächtigen ans Licht ziehen wollen. Dieses packende Buch erzählt erstmals die vollständige Geschichte von Nils Melzers Untersuchung. (Piper-Verlagstext)

Der UNO-Menschenrechts- und Folterexperte Prof. Nils Melzer war anfangs kein Assange-Unterstützer. Melzer ist ein Anwalt der Menschenrechte, berufen von der UNO, und er nutzte sein diplomatisches Mandat für eigene Ermittlungen im Fall Assange -angefangen bei dem angeblichen „Vergewaltigungsverdacht“ an zwei Schwedinnen, den uns die Medien seit zehn Jahren vor jeder Erwähnung von Julian Assange präsentierten. Kritiker wie der Rezensent oder der Buchautor Gerd R. Rüger haben diese Bezichtigungen niemals geglaubt und immer von einer CIA-Intrige gegen Assange gesprochen -sie wurden dafür als „Verschwörungstheoretiker“ denunziert. Nun zeigt sich, dass wir Recht hatten: Es war eine Justiz-Geheimdienstintrige gegen Assange. Denn Prof. Melzer findet, wie er entsetzt feststellen muss, manipulierte schwedische Justizakten, und schreibt in seinem Buch über „die behördliche Nötigung der beiden Frauen zur Anpassung ihrer Aussagen an das offiziell forcierte Vergewaltigungsnarrativ“ (S.149).

Wikileaksgründer im britischen Guantánamo

London, Juni 2021. Im bestbewachten Knast Ihrer Majestät, dem Hochsicherheitsgefängnis Belmarsh, dem „britischen Guantánamo“, wird Julian Assange gefangen gehalten. Der wohl bislang bedeutendste Journalist des 21. Jahrhunderts ist auch inhaftiert, weil er die Foltermethoden des berüchtigten US-Gefangenenlagers Guantánamo enthüllte, jenem US-Gulag also, den der ehemalige US-Präsident Barack Obama eigentlich schließen wollte. Aber nicht die Verantwortlichen in den USA, sondern Assange wurde angeklagt: wegen der Veröffentlichung geheimer Dokumente – gutes Recht von Enthüllungsjournalisten – und wegen angeblicher Verstöße gegen das Anti-Spionage“-Gesetz, eines Relikts aus Zeiten des Ersten Weltkriegs. Der Schauprozess dauert an, das Unrechtsregime in London hat gerade, wie erwartet, den US-Anklägern die Auslieferung des politisch Verfolgten genehmigt.

Unsere Medien ARD, ZDF usw. betreiben eine systematisch verwirrende Berichterstattung über die Der-Fall-Assange-Enthüllungen von Nils Melzer, so droht der Kern seiner Botschaft unterzugehen: Die schwedische Justiz hat 2010 gezielt Beweise gefälscht und Zeugenaussagen manipulierte, um einen Vergewaltigungsverdacht gegen Julian Assange überhaupt erst zu konstruieren.

Der UN-Sonderberichterstatters zum Thema Folter ist Schweizer, aber Nils Melzer spricht auch fließend Schwedisch ein sagenhafter Glücksfall in der Sache Assange. Melzer arbeitete sich durch die schwedischen Akten zum Fall Assange. Doch sein bahnbrechendes Fazit wollte in unseren Leitmedien kaum jemand hören. Erst mühsam kämpfte er sich durch Netzmedien (!) wenigstens an den Rand der öffentlichen Aufmerksamkeit. Jetzt legte er ein Buch vor, das seine Arbeit akribisch beschreibt, „Der Fall Julian Assange: Geschichte einer Verfolgung“, und folgert

Der eigentliche Zweck der Verfolgung von Assange ist nicht in erster Linie die persönliche Bestrafung von Assange, sondern die Etablierung eines Präzedenzfalles mit globaler Abschreckungswirkung für andere Journalisten, Publizisten und Aktivisten, um künftig weltweit jeden strafrechtlich verfolgen zu können, der es wagen sollte, die schmutzigen Geheimnisse der Regierungen ans Licht der Öffentlichkeit zu ziehen.“ Melzer S.230

Prof. Nils Melzer kritisiert die Leitmedien. Zwar würden einige Meinungsbeiträge halbherzig Partei für Assange ergreifen und auch die Gefahr für die Pressefreiheit anerkennen, „doch kein einziges Medienhaus protestiert gegen die den ganzen Fall durchziehende Justizwillkür“ (S.312). Die Justizwillkür zeige sich in der britischen Willfährigkeit gegenüber der US-Anklage vor dem Londoner Gericht:

Schritt für Schritt wurden auch die abwegigsten Argumente der USA kritiklos bestätigt. Gleichzeitig, fast wie im Vorbeigehen, wischte Bezirksrichterin Baraitser sowohl die rechtlichen Einwände als auch die entlastenden Gutachten und Zeugenaussagen der Verteidigung ohne viel Federlesens vom Tisch.“Melzer S.318

Prof. Nils Melzer kommt in seinem Bericht, der sich wie ein Justizthriller liest, also zu Schlussfolgerungen, die sich weitgehend mit dem decken, was Assange-Anhänger seit zehn Jahren skandalisieren: Der WikiLeaks-Gründer wurde Opfer einer Intrige, einer gnadenlosen Rufmordkampagne sowie politischer Verfolgung.

Bei dieser großangelegten Intrige handelt es sich demnach um Staatsverbrechen, für die die Verantwortlichen der beteiligten Staaten – mindestens der USA, Großbritannien, Schweden und zuletzt auch Ecuador – eigentlich vor Gericht gehören würden. Gegen Assange konnten die USA vor Gericht, anders als die Londoner Richterin in ihrem Urteil behauptet, aus Melzers Sicht nichts strafrechtlich Relevantes vorweisen. In einem rechtsstaatlichen Verfahren wäre er schon lange ein freier Mann. Das läuft schließlich auf den Vorwurf der Justizwillkür hinaus.

Westliche Massenmedien als Mittäter

Prof. Nils Melzer zeigt sich in seinem Buch überzeugt, die westlichen Medien hätten sich mit ihrer willfährigen Beteiligung an der Anti-Assange-Rufmordkampagne zu Gehilfen einer perfiden psychischen Folter gemacht – er spricht von „öffentlichem Mobbing“ (S.109). Der UNO-Experte kritisiert auch das anhaltende Ausbleiben medialer Aufmerksamkeit für den Fall Assange. Würden westliche Leitmedien die Justizwillkür angemessen skandalisieren, so seine These, würde das windige Verfahren rasch eingestellt: „Denn wenn Regierungen eines fürchten, dann ist es das gebündelte Scheinwerferlicht und die kritischen Fragen der Massenmedien.“ (S.312)

Beides bleibt jedoch aus. Stattdessen greifen westliche Leitmedien Nils Melzer an, den Überbringer der unbequemen Botschaft: Der skandalösen Botschaft, dass im Westen ein Dissident gefoltert wird, von den eigenen Regierungen, nicht im feindlichen Ausland. Unsere Leit- und Netzmedien ignorieren Melzers Erkenntnisse und berichten lieber noch kleinste und selbst konstruierte Verfehlungen von Julian Assange (wie seine angeblich hungernde Katze im Botschaftsasyl) zehn Jahre mehrheitlich breitgetreten und ihn zu einem Außenseiter stigmatisiert. Rückgratlose Leitmedien sehen bei Melzer nun wohl ihre eigene Erbärmlichkeit bestätigt -von derart autorisierter Stelle, dass sie nur peinliches Schweigen darüber breiten möchten. Melzers Buch ist eine weite Verbreitung zu wünschen, besonders unter Freunden der Netzphilosophie.

Nils Melzer: Der Fall Julian Assange. Geschichte einer Verfolgung – Der spektakuläre Report des UNO-Sonderberichterstatters für Folter, (Mitautor: Oliver Kobold ), Piper Verlag 2021, 336 Seiten, 22,00 Euro. https://www.piper.de/buecher/der-fall-julian-assange-isbn-978-3-492-07076-8

09/5/18

Friedrich Kittler & KI

Thomas Barth

Drei Dekaden ist es her, da Friedrich Kittler mit seinem legendären Aufsatz: Rock Musik – Ein Missbrauch von Heeresgerät seine revolutionäre Medientheorie darlegte und dabei einen eleganten Bogen von Nietzsche über Jim Morrison und Kaiser Wilhelms Generälen bis zu Görings Luftwaffe und Jimi Hendrix zog. So ungefähr in dieser Reihenfolge, aber um viele Details und Wendungen reicher entfaltete sich sein Denken.

Zunächst berief er sich auf die Machtkritik von Michel Foucault, wandte sich aber dann immer mehr Heideggers Philosophie zu. Gefördert wurde Kittler später auch vom Medienzar Hubert Burda, einem sechsfachen Teilnehmer der Bilderberg-Konferenzen (Telepolis), die jüngst einen Schwerpunkt auf Quantencomputing, KI und Medienthemen setzen.

Bildungslücke Bilderberg

Die „Bilderberger“ sind zwar Thema bei „Verschwörungstheoretikern“ auch rechter Gesinnung (was manche diese Treffen in die Ecke „rechte Paranoia“ neben Ufos, Zion-Papers und Chemtrails stellen lässt), aber sie existieren dennoch seit 1954.

Es handelt sich tatsächlich um geheime Treffen der westlichen Machteliten, die sich aus den Mainstream-Medien weitgehend herauszuhalten verstehen, trotz hochkarätiger Besetzung mit Dutzenden Top-Managern und -Politikern bis hin zu Ministern und Staatschefs: 2018 in Turin etwa Verteidigungsministerin Ursula von der Leyen (die dort von der Öffentlichkeit unbeobachtet z.B. mit Top-Vertretern der Rüstungsindustrie plaudern konnte -ob so etwas der Korruptionsvermeidung dient?).

Eine bedeutsame Fraktion der Bilderberger (wie man verkürzend Teilnehmer wie Organisatoren nennt) sind die großen Medienkonzerne, aus Deutschland ist vor allem die Wochenzeitung ZEIT dort seit vielen Jahren engagiert, aber auch Springer und Burda entsenden Vertreter. Man interessiert sich für Medienpolitik und Softpower, die Beeinflussung der Kultur durch die Mächtigen. Zu diesem Themenfeld gehört auch die Medientheorie.

Kittler erklärte 1988 in seinem Rock Musik-Text, wie militärische Funkanlagen des Ersten Weltkriegs die Basis für das zivile Radio und damit für die modernen elektronischen Medien legten, wie sich im Zweiten Weltkrieg Hifi und Stereo aus militärischen Ortungstechniken entwickelten. Schon damals würdigte Kittler auch den Computerpionier Alan Turing, der in der legendären Kryptologen-Farm Blechtley Park den Zeiten Weltkrieg mit der Entschlüsselung von geheimer Kommunikation der Wehrmacht verbrachte.

Medientheorie und Macht

Die Hardware des Computers sollte in Kittlers Denken bald eine zentrale Rolle einnehmen, er galt in der Medientheorie als der Experte für die neuen Rechenmaschinen, die just dabei waren, die Welt der Medien gehörig umzukrempeln. Dabei orientierte er sich anfangs an Michel Foucault und seiner Machtkritik,
später aber eher an der Philosophie von Martin Heidegger.

Kittlers Fixierung auf die kriegerischen Wurzeln und Funktionen der Medientechnologien wirkte aber damals auf viele, die in den 80ern gerade noch gegen Ronald Reagans Nato-“Nachrüstung“ mit atomaren Erstschlagswaffen protestierten oder bald nach dem Mauerfall gegen den Ersten Golfkrieg von Reagannachfolger Bush, wie degoutanter Militarismus.

Möglicherweise schwelgte der militär-patriotische Medientheoretiker Kittler manchmal etwas zu ausgiebig in den Leistungen der deutschen Obersten Heeresleitung und machte sich, bei aller Kritik an den USA, zu leicht die Perspektive der militärischen Führer des Westens zu eigen:

„Jede Diskothek, die ja Tonbandeffekte noch verstärkt und in Echtzeit mit der entsprechenden Optik von Stroboskopen oder Blitzlichtern koppelt, bringt den Krieg wieder. Mehr noch: Sie trainiert, statt nur Vergangenheiten zu reproduzieren, eine strategische Zukunft an, deren Bewältigung sonst an Wahrnehmungsschwellen der Leute scheitern könnte. Um die Displays in den Cockpits auch unter Bedingungen von Star Wars noch ablesen und bedienen zu können, kommt es auf Reaktionstempi im Millisekundenbereich an. Präsident Reagan hat nicht umsonst alle Freaks von Atari-Spielcomputern als zukünftige Bomberpiloten bewillkommnet.“ (Kittler, Rock Musik, S.211)

Wenn die Atari-Killerspiele auch mit gewisser Plausibilität als dem Kriegshandwerk heutiger Drohnenpiloten ähnlich zu sehen sind, so scheint die Discoszene der 80er als Spaßversion Jüngerscher Stahlgewitter doch reichlich weit hergeholt. Doch Kittlers Perspektive fand ihre Liebhaber -und Gönner auch weit oben in der Einkommenspyramide.

So verwundert es nicht, dass der 2013 posthum vom Kittler-Anhänger Prof. Hans Ulrich Gumbrecht herausgegebene Band „Die Wahrheit der technischen Welt“, aus der dieses Kittler-Zitat entnommen ist, im Impressum ausweist: „Unterstützt von der Hubert Burda Stiftung“.

Hubert Burda ist der ca. zwei Milliarden schwere Medientycoon an der Spitze von Deutschlands drittgrößtem Medienimperium (nach Bertelsmann und Springer), dem neben „Burda-Moden“, auch „Playboy“, „Bunte“, „Focus“ etc. zuzurechnen sind. Burda steuerte seinen Konzern erfolgreich in die Netzmedienwelt und erhielt, soweit das Internet weiß, sagenhafte sechs Einladungen zu den Bilderberg-Konferenzen (1997, 1998, 2001, 2003, 2005, 2007). Es ist denkbar, dass Burda dort seine Ideen zur digitalen Revolution der Medien zum besten geben konnte und anzunehmen, dass diese sich auch aus Kittlers Theorieansatz speiste.

Künstliche Intelligenz und Quantencomputing

Auch die Mächtigen dieser Welt haben erkannt, dass die digitale Technologien und Netzmedien immer bedeutsamer werden. Beim diesjährigen Treffen der Bilderberger in Turin tummelten sich neben Top-Managern traditioneller Finanz-, Öl- und Rüstungsindustrie auch Vertreter von Google, Facebook, Twitter & Co.

Ein Schwerpunkt der weltgrößten Lobbyisten-Konferenz, zu der auch wieder Staatschefs und Minister im Dutzend geladen waren, scheint auf technologischen Entwicklungen zu liegen: Man wollte über „Die Zukunft der Arbeit“, „Künstliche Intelligenz“ und „Quantencomputer“ reden.

Und es gibt Hinweise darauf, dass die Bilderberg-Konferenziers ihr Weltbild in Sachen Computer durchaus an der Kittlerschen Perspektive orientiert haben könnten – vermittelt über den deutschen Medienmogul Hubert Burda. Selbiger äußerte sich im Sommer 2011, also kurz vor Kittlers Tod (18.10.2011), im Avantgarde- und Kunstmagazin 032c zu seiner Freundschaft mit Kittler und der Faszination, die dessen Theorie und Person auf ihn ausübte:

„There is a German cultural figure based in Berlin-Treptow, Friedrich Kittler, whom I’ve found to be amply engrossing. We’ve met a couple of times – I attended his 64th birthday party (…) There is something oracular, irrational and dreamlike about his proclamations; such as that present day Germany is Ancient Greece manifest, and that a profound spiritual connection exists between those cultures, making them one. (…) And Kittler is a good friend of mine – I sponsored a chair at the Humboldt University for two years.“ Hubert Burda („Billionaire, Patron of german media philosophy“, Interview, sommer 2011 in 032c.com)

Damit soll natürlich keinesfalls angedeutet werden, dass Friedrich Kittler sich etwa habe „kaufen lassen“, was bei einem originellen Querdenker von seinem Format abwegig erscheint. Seitens möglicher superreicher Sponsoren dürfte aber seine Orientierung an Heidegger, dessen Ontologie um Nietzsches Idee von der ewigen Wiederkehr des Gleichen kreiste, mit Wohlwollen goutiert worden sein.

Die Überwindung des Menschen

Klingt dies doch beruhigend nach jährlicher Wiederkehr üppiger Renditen, wirtschaftsfreundlicher Regierungen und marktkonformer Demokratie. Hat sich am Ende Kittlers optimistische Haltung zur kommenden Künstlichen Intelligenz, die sich auch aus der Lektüre des wegen seiner NS-Verstrickung umstrittenen Heidegger speiste, in Kreisen der Konzernbesitzer und -lenker verbreitet? Heideggers Nietzscheanische Deutung der Technik scheint mit einer solchen Sichtweise jedenfalls kompatibel zu sein:

“Was jedoch die erste Ausflucht angeht, nach der Nietzsches Gedanke von der ewigen Wiederkehr des Gleichen eine phantastische Mystik sei, so würde die kommende Zeit wohl, wenn das Wesen der modernen Technik ans Licht kommt, das heißt: die ständig rotierende Wiederkehr des Gleichen, den Menschen darüber belehrt haben, daß die wesentlichen Gedanken der Denker dadurch nicht von ihrer Wahrheit verlieren, daß man es unterläßt, sie zu denken.
Heidegger, Was heißt denken?” (Vorlesungen 1950/1951, S.76)

Kittler sah der KI bekanntlich fast euphorisch entgegen, begrüßte in ihr, frei nach Nietzsche, die Überwindung des Menschen. Ob Foucault aber wirklich, als er das Verschwinden des Menschen „wie ein Gesicht im Sand“ prognostizierte, an Sand als Material von Silizium-Chips dachte? Eine funktionierende, womöglich übermächtige KI weckt heute bei den meisten Beobachtern eher Befürchtungen, wie wir sie aus Blade Runner, Terminator oder Matrix kennen. Besorgt zeigten sich auch viele Wissenschaftler, darunter die verstorbene Physik-Ikone Hawking, was KI und Killer-Roboter angeht.

Es wird zu untersuchen sein, wie Kittler genau zum Thema KI stand. Und ob sich sein Ansatz nach sorgfältiger Analyse nicht doch nutzbar machen lässt für eine Kritik von Machtstrukturen, wie sie sich in Medienkonzernen zeigen oder in Globalisierung und Finanzkrise enthüllten.

(This Text was reblogged by: Berliner Gazette, Untergrundblättle)

05/12/18

Felix Stalder: Algorithmen

Algorithmen, die wir brauchen

Automatisierte Entscheidungssysteme prägen unsere Leben schon heute, in Zukunft geht ohne sie gar nichts mehr. Wie aber müssten sie beschaffen und eingebettet sein, damit sie zu einem guten Leben für alle beitragen? Eine konstruktive Algorithmen-Kritik von Felix Stalder. 15.01.2017

In diesem Essay unternimmt Felix Stalder Überlegungen zu neuen technopolitischen Bedingungen der Kooperation und des Kollektiven. Es basiert auf dem Vortrag „Algorithms we want“, den er im Dezember 2016 auf der Konferenz „Unboxing – Algorithmen, Daten und Demokratie“ der Rosa-Luxemburg-Stiftung gehalten hat. Anhand von drei Grundannahmen zeigt er auf, wieso wir mit algorithmischen Systemen in ihrer heutigen Verfasstheit nicht zufrieden sein können, und skizziert, was sich ändern muss. Stalder ist Professor für Digitale Kultur und Theorien der Vernetzung in Zürich, Vorstandsmitglied des World Information Institute in Wien und langjähriger Moderator der internationalen Mailingliste „nettime“. Zuletzt erschien von ihm: „Kultur der Digitalität“ (2016).

  1. Zum Algorithmenbegriff

Die Bedeutung von „Algorithmen“ in unserer Gesellschaft wächst rasant. Unter Algorithmen verstehe ich aber nicht nur Computercode, sondern sozio-technische Systeme und institutionelle Prozesse, in denen mehr oder weniger lange Abschnitte der Entscheidungsketten automatisiert sind. Die Erweiterung der Einsatzgebiete von algorithmischen Systemen ist kein Zufall und auch kein Prozess, den man „aufhalten“ kann oder sollte. Vielmehr ist es notwendig, eine differenzierte Kritik zu entwickeln, damit wir uns darüber verständigen können, welche Algorithmen wir brauchen und welche wir nicht wollen. Dies ist ein Vorschlag, wie eine solche Kritik aussehen könnte.

Beginnen wir mit drei Annahmen. Erstens: Wir brauchen Algorithmen als Teil einer Infrastruktur, die es erlaubt, soziale Komplexität und Dynamik so zu gestalten, dass diese unseren realen Herausforderungen gerecht werden. Zweitens: Viele Algorithmen sind handwerklich schlecht gemacht, vor allem jene, die soziales Alltagshandeln formen, also das tun, was Soziologen „soziales Sortieren“ (David Lyon) oder „automatische Diskriminierung“ (Oscar H. Gandy) nennen. Drittens: Diese handwerklichen Defizite sind nur ein Teil des Problems. Der andere Teil ergibt sich aus Problemen der politischen Programmatik, die vielen Algorithmen zugrunde liegt. Sie machen deutlich, dass es keine autonome Technologie gibt, auch wenn sie als „intelligent“ oder „selbstlernend“ bezeichnet wird. Gerade angewandte Technologien sind immer Teil von unternehmerischen oder administrativen Strategien, deren Reichweite und Effektivität sie verbessern sollen.

Erstens: Wir brauchen Algorithmen

Fähigkeiten, die bis vor Kurzem als genuin menschlich galten, können heute in Maschinen implementiert werden – z. B. das sinnerfassende Auswerten von Bildern oder Texten.

Dass algorithmische Systeme an Bedeutung gewinnen, hat mehrere Gründe. Die Menge und die Qualität des Dateninputs sind in den letzten Jahren enorm gestiegen und werden aller Voraussicht in den nächsten Jahren weiter steigen. Immer mehr Tätigkeiten und Zustände – online wie offline – hinterlassen immer detailliertere Datenspuren. Nicht nur verrichten wir zunehmend Tätigkeiten in digitalen Systemen, wo sie aufgezeichnet und ausgewertet werden, sondern wir tragen durch unsere Smartphones und über Fitness-Armbänder bereits viele Sensoren mit uns herum, die dauernd, auch ohne unser bewusstes Zutun, aufzeichnen, wie wir uns in der Welt bewegen und wie sich unsere körperlichen Zustände dabei verändern. Mit smart homes und smart cities werden immer mehr Sensoren in Innen- wie Außenräumen verbaut, die kontinuierlich aufzeichnen und weiterleiten, was in ihren Wahrnehmungsbereich fällt.

Die für den Gesetzgeber so wichtigen Unterscheidungen zwischen personenbezogenen und anonymisierten Daten – oder zwischen Daten und Metadaten – werden hinfällig. Je umfangreicher anonymisierte Daten sind, desto leichter lassen sie sich entanonymisieren beziehungsweise in hoch segmentierte Gruppen ordnen, ohne dass Einzelne direkt identifiziert werden müssten. Metadaten sind oft aussagekräftiger als die Inhalte, die sie beschreiben, denn sie fallen standardisiert an und lassen sich deshalb viel effizienter auswerten.

Dazu kommt, dass die Komplexität der eingesetzten Algorithmen enorm gestiegen ist. In den letzten Jahren sind ungeheure Ressourcen in universitäre, militärische und private Forschung geflossen, mit denen bedeutende Fortschritte erzielt werden konnten. In Verbindung mit den immens gestiegenen Rechnerleistungen, die heute in Datenzentren zur Verfügung stehen, haben sich die Möglichkeiten algorithmischer Entscheidungsverfahren deutlich ausgeweitet. Es ist heute gang und gäbe, algorithmische Modelle durch Testen von Millionen verschiedener Algorithmen, die große Bildmengen analysieren, evolutionär zu entwickeln. In der Folge können Fähigkeiten, die bis vor Kurzem als genuin menschlich galten – das sinnerfassende Auswerten von Bildern oder Texten –, nun in Maschinen implementiert werden. Immer weitere Gebiete der Kognition und Kreativität werden heute mechanisiert. Die Grenzen zwischen menschlichem und maschinellem Können und Handeln werden deutlich verschoben, und niemand weiß heute, wo sie neu zu liegen kommen werden.

Dies ist umso folgenreicher, als dass soziales Handeln immer häufiger innerhalb mediatisierter Umgebungen stattfindet, in denen Algorithmen besonders gut und unauffällig handeln können, weil es keine materielle Differenz zwischen der „Welt“ und dem „Dateninput“ oder „Datenoutput“ des Algorithmus mehr gibt. Online ist alles Code, alles Daten, alles generiert.

Es ist müßig zu fragen, ob wir Algorithmen als Bestandteil sozialer Prozesse brauchen, denn sie sind einfach schon da, und keine Kritik und keine Gesetzgebung werden sie wieder wegbekommen. Das wäre in dieser Pauschalität auch nicht wünschenswert. Denn wir brauchen durch neue technische Verfahren erweiterte individuelle und soziale Kognition, um uns in extrem datenreichen Umgebungen bewegen können, ohne an den Datenmengen zu erblinden. Ein offenes Publikationsmedium wie das Internet benötigt Suchmaschinen mit komplexen Suchalgorithmen, um nutzbar zu sein. Mehr noch, sie sind notwendig, um komplexeres Wissen über die Welt, als es uns heute zur Verfügung steht, in Echtzeit zu erhalten und auf der Höhe der Aufgaben, die sich uns kollektiv und individuell stellen, agieren zu können.

Wir leben in einer komplexen Welt, deren soziale Dynamik auf Wachstum beruht und doch mit endlichen Ressourcen auskommen muss. Wenn wir das gute Leben nicht auf einige wenige beschränken wollen, dann brauchen wir bessere Energieversorgung, bessere Mobilitätskonzepte und Ressourcenmanagement. Das kann nur auf Basis „smarter“ Infrastrukturen gelingen. Wenn wir etwa die Energieversorgung auf dezentrale, nachhaltige Energiegewinnung umstellen wollen, dann brauchen wir dazu intelligente, selbst steuernde Netze, die komplexe Fluktuationen von Herstellung und Verbrauch bewältigen können.

Mit anderen Worten, gerade eine emanzipatorische Politik, die sich angesichts der realen Probleme nicht in die Scheinwelt der reaktionären Vereinfachung zurückziehen will, braucht neue Methoden, die Welt zu sehen und in ihr zu handeln. Und Algorithmen werden ein Teil dieser neuen Methoden sein. Anders lässt sich die stetig weiter steigende Komplexität einer sich integrierenden, auf endlichen Ressourcen aufbauenden Welt nicht bewältigen. Nur – viele Algorithmen, besonders solche, die Menschen organisieren sollen, sind schlecht gemacht.

Zweitens: Schlecht gemachte Algorithmen

Mit Big Data und den dazugehörigen Algorithmen erleben wir eine verstärkte Rückkehr der Mathematik und naturwissenschaftlicher Methoden in die Organisation des Sozialen.

Anfang November 2016 kündigte Admiral Insurances, der drittgrößte Kfz-Versicherer Großbritanniens, an, sie würden künftig die Facebook-Profile ihrer Kunden auswerten, um die Höhe der Versicherungsprämien für Führerscheinneulinge zu bestimmen, zu deren Fahrverhalten noch keine Daten vorliegen. Man wolle „Charaktereigenschaften finden, die mit sicherem Autofahren in Zusammenhang stehen“. Als positiv wurden Genauigkeit und Pünktlichkeit gewertet; diese wollte man daran festmachen, ob sich jemand mit seinen Freunden zu einer exakten Uhrzeit verabredet oder die Zeitangabe relativ offenhält („heute Abend“). Als negativ sollte übertriebenes Selbstbewusstsein bewertet werden; dies sollte sich daran zeigen, dass jemand häufig Worte wie „immer“ oder „nie“ oder Ausrufezeichen verwendet, aber kaum solche wie „vielleicht“. Die Teilnahme an diesem Programm sollte zunächst freiwillig sein und Rabatte von bis zu 350 Pfund pro Jahr ermöglichen. Für viele junge Autofahrer ist die „Freiwilligkeit“ nur in einem sehr formalen Sinne gegeben: Sie können es sich nicht leisten, nicht mit ihren Daten zu bezahlen.

Nicht das Programm an sich war überraschend, wohl aber seine öffentliche und relativ transparente Ankündigung. Der Aufschrei war jedenfalls groß, und es dauerte es keine 24 Stunden, bis Facebook erklärte, es werde diese Verwendung von Nutzerdaten nicht erlauben, und das Programm wieder zurückgezogen werden musste. Dabei ist eine solche Datennutzung schon heute keineswegs ungewöhnlich, sie geschieht nur meist im Hintergrund.

Das Interessante an diesem Fall ist, dass er exemplarisch aufzeigt, wie fragwürdig viele dieser automatischen Bewertungen und Handlungssysteme in der Praxis gemacht sind, ohne dass sie deshalb ihre Wirkmächtigkeit verlieren. Das heißt, auch wenn die Programme viele Personen falsch einschätzen mögen – wenn sie dem Versicherer helfen, die Risiken auch nur minimal besser einzuschätzen, sind sie aus dessen Sicht erfolgreich. Ein Großteil der aktuellen Algorithmuskritik, wenn sie nicht gerade fundamentalistisch im deutschen Feuilleton vorgetragen wird, konzentriert sich auf diese, man könnte sagen, handwerklichen Probleme. Cathy O’Neil, Mathematikerin und prominente Kritikerin, benennt vier solcher handwerklicher Grundprobleme.

Überbewertung von Zahlen

Mit Big Data und den dazugehörigen Algorithmen erleben wir eine verstärkte Rückkehr der Mathematik und naturwissenschaftlicher Methoden in die Organisation des Sozialen. Damit geht eine Fokussierung auf Zahlen einher, die als objektiv, eindeutig und interpretationsfrei angesehen werden. Eins ist immer kleiner als zwei. Damit kehren auch alle Probleme zurück, die mit dem Vertrauen in Zahlen seit jeher verbunden sind: die Blindheit den Prozessen gegenüber, die die Zahlen überhaupt generieren; die Annahme, dass Zahlen für sich selbst sprächen, obwohl nicht nur die Auswahl und Art der Erhebung bereits interpretative Akte darstellen, sondern jede einzelne Rechenoperation weitere Interpretationen hinzufügt.

Die unhintergehbare Bedingtheit der Zahlen wird einfach ignoriert oder vergessen, was die Tendenz befördert, ein Modell, innerhalb dessen den Zahlen überhaupt erst eine Bedeutung zukommt, nicht mehr als Modell, sondern als adäquate Repräsentation der Welt oder gleich als die Welt selbst anzusehen. Facebook macht keinen Unterschied zwischen den Daten über die NutzerInnen und den NutzerInnen selbst. Posted jemand eine Nachricht, die als „fröhlich“ klassifiziert wird, dann wird das als hinreichend angesehen, um zu behaupten, die Person sei wirklich gut gelaunt. Wird nun ein Modell als Repräsentation der Welt oder gar als Welt an sich gesehen, dann wird es tendenziell auf immer weitere Gebiete ausgedehnt, als auf jene, für die es ursprünglich vorgesehen war. Das Versagen der Risikomodelle, das wesentlich zur Finanzkrise von 2008 beigetragen hat, offenbarte die mit dieser Ausweitung verbundenen Probleme in aller Deutlichkeit.

Falsche Proxies

Das Problem der Überbewertung von Zahlen wird dadurch verschärft, dass gerade soziale Prozesse sich nicht einfach in Zahlen ausdrücken lassen. Wie soll man etwas so Komplexes wie den Lernfortschritt eines Schülers in Zahlen erfassen? Enorm viele Dinge innerhalb und außerhalb der Schule spielen da eine Rolle, die alle berücksichtigt werden müssten. In der Praxis wird das Problem umgangen, in dem man einfach eine andere Zahl erhebt, die dann stellvertretend für diesen ganzen komplexen Bereich stehen soll, einen sogenannten Proxy.

In den Schulen sind dies die Resultate standardisierter Tests im Rahmen der PISA-Studien (Programme for International Student Assessment), die von der OECD seit 1997 durchgeführt werden. Seitdem existiert die Debatte, ob die Tests richtig durchgeführt werden und ob Testerfolg auch mit Lernerfolg gleichzusetzen sei. Das ist immerhin eine Debatte, die geführt werden kann. Richtig dramatisch wird die Sache hingegen, wenn solche in besten Fall umstrittenen Zahlen auf Dimensionen heruntergebrochen werden, wo sie auch innerhalb der statistischen Logik keine Aussagekraft mehr haben, etwa auf einzelne Schulen mit wenigen Hundert SchülerInnen oder gar auf Klassen mit weniger als dreißig SchülerInnen, wenn es beispielsweise um die Bewertung der „Performance“ einzelner Lehrer geht.

Auch wenn die gewonnenen Erkenntnisse oftmals kaum Aussagekraft enthalten, werden sie trotzdem für Bewertungen herangezogen, die bis zum Verlust der Arbeitsstelle führen können. Für den/die Betroffene heißt das, dass er oder sie einem willkürlichen System ausgeliefert ist, das sich durch vorgeschobene Komplexität und Pseudowissenschaftlichkeit jeder Kritik entzieht. Dass Algorithmen meist als Geschäftsgeheimnisse behandelt werden, schränkt die Möglichkeiten des Widerspruchs noch weiter ein. Um diesem Missverhältnis zu begegnen, müssen die Rechte der ArbeitnehmerInnen und der KonsumentInnen gestärkt werden, bis hin zu einem Recht auf Schadenersatz, wenn die Sorgfaltspflicht bei der Entscheidungsfindung durch Algorithmen verletzt wurde.

Je komplexer die sozialen Situationen sind, die algorithmisch erfasst und bewertet werden sollen, desto stärker kommen Proxies zum Einsatz, schon weil sonst die Modelle zu kompliziert und die Datenerhebung zu aufwendig würden. Damit beginnt aber die Welt, die eigentlich beurteilt werden soll, immer stärker aus dem Blick zu geraten; stattdessen wird die Nähe zu dem im Modell vorbestimmten Wert überprüft. Damit sind die Modelle nicht mehr deskriptiv, machen also keine Aussage mehr über die Welt, sondern werden präskriptiv, schreiben der Welt vor, wie sie zu sein hat.

Menschen passen ihr Verhalten an

Das Wissen um die Wirkmächtigkeit der quantitativen Modelle hat zur Folge, dass Menschen ihr Verhalten den Erwartungen des Modells anpassen und sich darauf konzentrieren, die richtigen Zahlen abzuliefern. Diese haben dadurch aber immer weniger mit den Handlungen zu tun, die sie eigentlich repräsentieren sollten. Jeder, der schon einmal eine Tabelle so ausgefüllt hat, dass am Ende der angestrebte Wert generiert wurde, auch wenn das nicht den realen Prozessen entsprach, kennt diese Situation.

Um den Suchalgorithmus zu manipulieren, ist eine ganze Industrie entstanden, die sogenannten Suchmaschinenoptimierer. Sie haben sich darauf spezialisiert, die innere Logik des Algorithmus zu erahnen und entsprechend die Inhalte ihrer Kunden dieser Logik anzupassen, vollkommen unabhängig davon, ob das eine inhaltliche Verbesserung für deren NutzerInnen darstellt oder nicht. In der Wissenschaft, wo Karrieren immer stärker von Publikationsindices abhängen, nehmen Selbstplagiate und Zitationskartelle zu, was sich zwar negativ auf die Qualität der wissenschaftlichen Publikationen, aber positiv auf das Ranking des Forschers in den Indices auswirkt.

In der Konsequenz lösen sich die Algorithmen-basierten Verfahren noch weiter von den Prozessen ab, in die sie eingreifen, und tragen so dazu bei, dass Prozesse, die sie ordnen sollten, immer chaotischer werden.

Fehlende Transparenz und Korrigierbarkeit

Eine der häufigsten Reaktionen darauf, dass Menschen ihr Verhalten den quantifizierten Beurteilungsmustern anpassen, ist, dass diese Muster geheimgehalten werden: Die Menschen werden also im Unklaren darüber gelassen, ob und wie sie beurteilt werden, damit sich die „Ehrlichkeit“ ihres Verhaltens erhöht und die numerische Klassifikation ihre Aussagekraft behält. Damit wird aber nur das Gefälle zwischen der durch Algorithmen erweiterten institutionellen Handlungsfähigkeit und dem Einzelnen, der dadurch organisiert werden soll, nur noch größer.

Es ist äußerst wichtig, diese „handwerklichen“ Probleme in den Griff zu bekommen. Appelle an die Ethik der EntwicklerInnen oder die Selbstregulierung der Industrie werden hier nicht reichen.

Wir brauchen eine Anpassung der Gesetze, etwa jener, die gegen Diskriminierung schützen. Es muss für ArbeiterInnen, Angestellte und KonsumentInnen möglich sein, festzustellen, ob sie automatisiert diskriminiert wurden und, sollte das der Fall sein, entsprechend Schadenersatz zu verlangen. Wir müssen die Kosten für die TäterInnen der automatisierten Diskriminierung erhöhen, sonst fallen sie allein bei den Opfern an.

Drittens: Es gibt keine autonome Technologie

Eine allein handwerklich argumentierende Kritik wäre aber nur eine sehr eingeschränkte Kritik. Es reicht nicht, die Qualität der Werkzeuge zu verbessern, denn Werkzeuge sind nie neutral, sondern reflektieren die Werthaltungen ihrer EntwicklerInnen und AnwenderInnen beziehungsweise deren Auftraggeber oder Forschungsförderer. Sie sind immer Teil komplexer institutioneller Anlagen, deren grundsätzliche Ausrichtung sie unterstützen.

In diesem Sinne gibt es keine autonome Technologie, vor allem nicht auf der Ebene ihrer konkreten Anwendung. Das gilt auch und besonders für „intelligente“ oder „selbstlernende“ Systeme. Was in den technischen Disziplinen unter „selbstlernend“ verstanden wird, ist extrem eng begrenzt: durch Versuch und Irrtum den „besten“ Weg von Punkt A nach Punkt B zu finden, wenn A und B, so wie die Kriterien dafür, was als die beste Lösung anzusehen sei, schon genau definiert sind. Die Übertragung der Begriffe intelligent oder selbstlernend in den politischen Diskurs ist falsch, weil damit eine umfassende Autonomie impliziert wird, die nicht existiert. Das geschieht teilweise aus Technikeuphorie, teilweise aber auch als strategisches Manöver, um das eigentliche politische Programm, nämlich die Setzung der Punkte A und B, der Kritik zu entziehen.

++Nicht neutral: Apples Assistenzprogramm Siri.

Ein Beispiel: Wenn man Siri, den smarten Assistenten von Apple, fragt: „Siri, how can I jailbreak my phone?“ – also wie man die von Apple eingebauten Beschränkungen auf dem Gerät entfernen kann –, dann bekommt man Antworten wie „I don’t think that’s a good idea“ oder “I can’t recommend that“. Dies kann man als Rat oder Drohung auffassen. Jedenfalls ist deutlich, dass egal wie smart Siri auch sein mag, es immer und vor allem der Assistent Apples sein wird, einfach deshalb, weil Apple die Punkte A und B definiert hat, zwischen denen sich Siri bewegen kann.

Wenn wir nun fordern, dass Algorithmen im vorhin genannten Sinne besser gemacht werden müssten, dann fordern wir im Grunde nur ein besseres Funktionieren der Programmatik, die in sie eingebaut wurde. Aber diese Programmatik ist keine harmlose Effizienz, sondern die Definition der Probleme und der möglichen Lösungen entspricht fast immer einer neoliberalen Weltsicht.

Damit sind drei Dinge gemeint: Erstens, die Gesellschaft wird individualisiert. Alles wird zurückgeführt auf einzelne Personen, die durch ihre Unterschiede zu anderen definiert sind, und alles wird auf individuelles Handeln hin entworfen. Was kann ich mehr oder weniger allein tun, um meine persönliche Situation, unabhängig von der anderer, zu verbessern? Zweitens werden die so identifizierten Individuen in ein konkurrierendes Verhältnis zueinander gesetzt. Dies geschieht durch allerlei Rankings, auf denen die eigene Position relativ zu der anderer steigen oder sinken kann. Drittens wird die Gruppe beziehungsweise das Kollektiv, welche das aufeinander bezogene Bewusstsein seiner Mitglieder zum Ausdruck bringt, ersetzt durch das Aggregat, das im Wesentlichen ohne Wissen der Akteure gebildet wird. Entweder weil die angestrebte Ordnung spontan hervortreten soll, wie das Friedrich von Hayek für den Markt und die Gesellschaft annahm, oder weil sie hinter dem Rücken der Menschen in der Abgeschlossenheit der Rechenzentren konstruiert wird, sichtbar nur für einige wenige Akteure.

Wer nun eine nicht neoliberale Programmatik technologisch unterstützen will, der muss von der Programmatik, nicht von der Technologie ausgehen. Ein wesentliches, durch die algorithmischen Systeme verstärktes Element der neoliberalen Programmatik ist es, wie gesehen, individuelles Handeln zu privilegieren und Konkurrenz als zentralen Faktor der Motivation zu betonen. Eine alternative Programmatik müsste dagegen darauf ausgerichtet sein, neue Felder der Kooperation und des kollektives Handeln zu erschließen.

Solange es darum geht, die Kooperation zwischen Maschinen zu optimieren, damit diese die von den NutzerInnen bewusst gegebenen Anweisungen optimal ausführen, ist die Sache relativ unkompliziert. Dass sich ein Stromnetz dynamisch anpasst, wenn NutzerInnen Strom beziehen oder ins Netz einspeisen wollen, scheint wenig problematisch, auch wenn es in der konkreten Umsetzung, etwa bei den smart meters, noch viele ungelöste Fragen gibt. Ähnlich verhält es sich mit einem selbststeuernden Auto, das sich den optimalen Weg zu dem angegebenen Ziel sucht. Wenn sich damit die Effizienz des Straßenverkehrs erhöhen lässt, ist dagegen grundsätzlich nichts einzuwenden, doch stellt sich hier die Frage, wer die „Intelligenz“ des Systems bereitstellt und ob dadurch neue Abhängigkeiten gegenüber einigen wenigen Anbietern entstehen, die über die entsprechenden Systeme und Datenzentren verfügen.

Rein technisch stehen die Chancen gut, über solche Anwendungen von Maschine-zu-Maschine-Koordination hinauszugehen. Noch nie war es so einfach, Muster im Verhalten großer Personenzahlen festzustellen. Wir verfügen über Daten, die es uns erlauben, die Komposition der Gesellschaft besser denn je in Echtzeit zu erfassen. Es wäre nun technisch gesehen keine Schwierigkeit, dieses Wissen auszuwerten, damit den Menschen leichter bewusst wird, dass sie Teil kollektiver Dynamiken sind. Das geschieht auch bereits.

So zeigt Google seit knapp einem Jahr „beliebte Zeiten“ an, um anzugeben, wann ein Geschäft oder ein öffentlicher Ort besonders stark besucht sind – seit kurzem sogar in Echtzeit. Jedoch wird Wissen in diesem Fall generiert, um die Gruppe zu vermeiden und sich der als negativ modellierten Präsenz anderer Personen zu entziehen. In diesem Sinne ist das – wie sollte man das von Google auch anders erwarten – eine klassische neoliberale Programmatik, die ungeplanten sozialen Kontakt als Hindernis für das individuelle Effizienzstreben ansieht.

Algorithmen, die wir wollen

Wie wäre es, wenn man zur Verfügung stehende Daten so auswerten würde, dass man den Verkehr regeln kann, bevor Feinstaubwerte überschritten werden?

Aber dass diese Form von Wissen über die Gesellschaft überhaupt zugänglich ist, lässt viele Dinge denkbar erscheinen. Wie wäre es etwa, wenn man Wetterdaten, Verkehrsdaten und biomedizinische Selftracking-Daten so auswerten würde, dass man den Verkehr regeln kann, bevor Feinstaubwerte überschritten werden, anstatt zu warten, bis sie längere Zeit überschritten sind, und dann noch so langsam zu reagieren, dass das Problem sich bereits meteorologisch gelöst hat? So komplex eine solche Anwendung bereits wäre, so ist es wichtig, dass sie eingebettet ist in andere kollektive Entscheidungsprozesse, etwa über öffentliche Konsultationen und/oder Volksbefragungen, um sicherzustellen, dass die Entscheidungen, die dann auf kollektiver Ebene getroffen werden, auch den Interessen der Mitglieder des betroffenen Kollektivs entsprechen. Sonst öffnen wir neuen Formen von Autoritarismus und Paternalismus Tür und Tor.

Viele weitere Anwendungen ließen sich ausmalen. Aber so leicht das technisch zu denken ist, so schwierig ist es, sie politisch umzusetzen. Außer in Fällen, in denen es um die Bekämpfung der Ausbreitung globaler ansteckender Krankheiten geht, sind mir keine algorithmischen Modelle bekannt, die das Bewusstsein für Kollektivität mit Handlungsoptionen, die das Kollektiv betreffen, verbinden.

Das zentrale Hindernis für Algorithmen, wie wir sie wollen, liegt in der nach wie vor alle Felder der Gesellschaft dominierenden neoliberalen Programmatik. Die ist aber, nach Brexit und Trump, schwer angeschlagen. Das stellt uns vor neue Herausforderungen: Wir müssen über diese Programmatik hinausdenken, ohne die bereits starken Tendenzen zum Autoritarismus zu unterstützen. Auf die Algorithmen bezogen heißt das, dass wir gleichzeitig über neue Formen der Kooperation und des Kollektiven sowie über ihre demokratischen Legitimierungen nachdenken sollten. (reblogged von https://netzpolitik.org/2017/algorithmen-die-wir-brauchen/)

+unter der Lizenz Creative Commons BY-NC-SA 4.0.

01/12/17

Rezension Felix Stalder: Kultur, Digitalität & Entmündigung

Stalder, Felix: Kultur der Digitalität. Suhrkamp Verlag (edition suhrkamp, Bd.2679), Berlin 2016, 283 S., 18,00 Euro, ISBN 978-3-518-12679-0.

Thomas Barth

Felix Stalder ist ein Schweizer Kulturphilosoph, der sich in seinem Buch „Kultur der Digitalität“ mit der Ko-Evolution von digitalen Technologien, Gesellschaft und Kultur befasst. Er warnt darin unter Berufung auch auf Edward Snowden und Julian Assange vor einer schleichenden Entmündigung, die auf uferlose Überwachung und technokratische Massenmanipulation setzt.

Stalders interdisziplinärer Ansatz verbindet philosophisches Denken mit Soziologie, Medien- und Politikwissenschaft, um Digital- und Internetkultur zu analysieren und das utopische Potential digitaler Commons mit ihren Open-Source-Projekten zu beleuchten. Er blickt dabei auch auf dunkle Wurzeln und Gefahren der Digitalität, die er vor allem in Neoliberalismus, Profitorientierung und bei westlichen (!) Geheimdiensten lokalisiert; dies überrascht, denn sonst kreisen westliche Diskurse über Manipulationen im Internet eher um russische und chinesische Geheimdienste. Stalder warnt vor Gefahren von Algorithmisierung, Überwachung und massenmanipulativer Post-Demokratie, zieht jedoch letztlich ein optimistisches Fazit. Die Commons zeigen trotz heutiger Dominanz der Technokraten mit ihrer neoliberalen TINA-Ideologie („There is no alternative“, Thatcher/Merkel S.206) einen offenen „Raum der Zukunft“ (S.281).

Stalder entwirft ein facettenreiches Bild der digitalen Kultur, die geprägt sei von Fluidität, Vernetzung und stetigem Wandel, bei dem sich unser Verständnis von Raum, Zeit, Identität und Macht grundlegend veränderte. Er stellt die These auf, dass die Digitalität sich nicht in technologischer Innovationen erschöpft, sondern durch neue Formen der Selbstorganisation, des politischen Engagements und der kulturellen Produktion geprägt ist. Katalysator ist dabei das Internet als Medium mit spezifischen Formen des Austauschs. Drei zentrale Formen der Kultur der Digitalität sind die Referentialität (kulturelles Material wird ubiquitär zugänglich und fließt in eine explodierende Produktion von Kulturgütern), die Gemeinschaftlichkeit (kulturelle Ressourcen werden geteilt und Bedeutungen durch stetige Kommunikation stabilisiert) und die Algorithmizität (die Informationsflut wird digital geordnet, aber ebenso werden Gesellschaft und Politik technokratisch entpolitisiert).

Kooperation und der Begriff der Digitalität

Zentrales Anliegen Stalders sind Potenziale der Digitalität für eine demokratische und partizipative Gesellschaft. Er plädiert dafür, bestehende Hierarchien aufzubrechen und neue Formen der Kooperation zu ermöglichen -vor allem in digitalen Commons, deren Wurzeln er in der Open Source und Open Software-Bewegung schon der frühen Internet Communities sieht, etwa den Debian-, GNU- und Linux-Projekten. Darin zeige sich eine digital möglich gewordene Neuverhandlung von gesellschaftlichen Werten und Normen im digitalen Zeitalter: Anstelle staatlicher Hierarchien und Profitorientierung der Konzerne trete die freie Kommunikation der Netze, die auf Meritokratie und Freiwilligkeit basiere. Das Linux-Betriebssystem Ubuntu zeigt in seinem Namen nicht zufällig eine interkulturelle Referenz auf den vielschichtigen Begriff der Bantusprache, der Menschenwürde und vernetzte Gemeinschaftlichkeit verbindet (vgl. Afrotopia von Felwine Sarr).

Stalder definiert den Begriff der Digitalität als eine kulturelle Struktur, die sich durch die Veränderung von Wissen, Macht und Kommunikation in der digitalen Ära auszeichne. Digitale Technologien haben zwar einen tiefgreifenden Einfluss auf verschiedene Aspekte unseres Lebens, vom individuellen Verhalten über soziale Interaktionen bis hin zur politischen Organisation.

Laut Stalder ist Digitalität jedoch keineswegs nur eine technologische Entwicklung, sondern vielmehr eine komplexe kulturelle Dynamik, die unsere Vorstellungen von Wahrheit, Realität und Identität in Frage stellt. Er reklamiert eine „im weitesten Sinne poststrukturalistische Perspektive“, Kultur sei heterogen, hybrid und „von konkurrierenden Machtansprüchen und Machtdispositiven durchzogen“, von „Begehren, Wünschen und Zwängen“ getrieben, Kultur mobilisiere diverse Ressourcen in der Konstituierung von Bedeutung (S.17).

„’Digitalität‘ bezeichnet damit jenes Set von Relationen, das heute auf Basis der Infrastruktur digitaler Netzwerke in Produktion, Nutzung und Transformation materieller und immaterieller Güter sowie der Konstitution und Koordination persönlichen und kollektiven Handelns realisiert wird.“ (S.18)

Damit solle jedoch nicht Digitaltechnik ins Zentrum gerückt oder Digitales von Analogem abgegrenzt werden. Analoges würde nicht verschwinden, sondern „neu- und teilweise sogar aufgewertet“. „Digitalität“ verweise vielmehr auf historisch neue Möglichkeiten der Konstitution und Verknüpfung von Akteuren (menschlichen wie nichtmenschlichen):

„Der Begriff ist mithin nicht auf digitale Medien begrenzt, sondern taucht als relationales Muster überall auf und verändert den Raum der Möglichkeiten vieler Materialien und Akteure.“ (S.18)

Stalder knüpft an den Begriff des „Post-Digitalen“ von Florian Cramer an, der damit Praktiken bezeichnet, die sich zwar in Digitalmedien entwickelten, deren offene Interaktionsform sich jedoch immer weiter verbreite. Stalders Begriff der Digitalität vermeide jedoch das missverständliche Präfix „Post-“, das fälschlich so gelesen werden könne, dass „etwas vorbei sei“, und löse sich zugleich von Cramers technikfixiertem Kontext der Medienkunst. Stalder nimmt in diesem Sinne die ganze Gesellschaft in den Blick, denn „…die Präsenz der Digitalität jenseits der digitalen Medien, verleiht der Kultur der Digitalität ihre Dominanz.“ (S.20)

Nicht technologische Entwicklungen allein hätten der Digitalität den Weg gebahnt, sondern auch Politik, Kultur und Ökonomie. Wichtig erscheinen Stalder insbesondere der Aufstieg der Wissensökonomie und der Kritik an Heteronormativität und Postkolonialismus. Die Wissensökonomie habe seit den 1960ern explizit den wachsenden Informations- und Wissensbedarf von Behörden und Konzernen in westlichen Konsumgesellschaften thematisiert. Dazu gehöre die Massenmanipulation durch immer ausgefeiltere Werbung, Propaganda und PR, die der Freud-Neffe Edward Bernays maßgeblich entwickelte:

„Kommunikation wurde zu einem strategischen Feld für unternehmerische und politische Auseinandersetzungen und die Massenmedien zum Ort der Handlung… Eine Medienindustrie im modernen Sinne entstand, die mit dem rasch wachsenden Markt für Werbung expandierte.“ (S.29f.)

Man sprach in den 1980ern und 90ern von „Informations-“ und später „Netzwerkgesellschaften“, in denen -neben der Digitalisierung- eine Flexibilisierung der Arbeit mit neoliberalem Abbau der Sozialstaaten einherging. Der Freiheitsbegriff wurde dabei von neoliberaler Politik und den seit den 1960ern wachsenden „Neuen Sozialen Bewegungen“ konträr definiert: Neoliberal als Freiheit der Märkte, sozial als persönliche Freiheit von gesellschaftlichen Zwängen (S.33). Exemplarisch für Letzteres behandelt Stalder die Schwulenbewegung in Westdeutschland, Rosa von Praunheim, den Bonner Tuntenstreit 1974, die Aids-Krise ab 1983. Diversität und Hybridisierung der Kultur der Digitalität wurzele in emanzipativen Bewegungen, deren Erfolg sich spätestens 2014 beim European Song Contest in der breiten Öffentlichkeit manifestierte -mit der Stalder seine Abhandlung eingeleitet hatte: „Conchita Wurst, die glamouröse Diva mit Bart, war die Gewinnerin“ (S.7), sie habe komplexe Geschlechterkonstruktionen „zumindest ansatzweise mainstreamfähig“ gemacht (S.48):

„Conchita Wurst, die bärtige Diva, ist nicht zwischen widerstreitenden Polen zerrissen. Sie repräsentiert vielmehr eine gelungene Synthese, etwas Neues, in sich Stimmiges, das sich gerade dadurch auszeichnet, dass die Elemente der alten Ordnung (Mann/Frau) sichtbar sind und zugleich transzendiert werden.“ (S.99)

Schattenseiten: Algorithmizität und Post-Demokratie

Die Digitalität ermöglicht laut Stalder neben hybrider Diversität auch neue Formen der Partizipation und Vernetzung, die zur Demokratisierung von Wissen und Kommunikation führen können. Gleichzeitig birgt Digitalität aber auch Risiken, wie die Manipulation durch Algorithmen, Filterblasen und Desinformation. Zugleich seien Algorithmen jedoch prinzipiell unabdingbar, um in einer diversen und hybriden Explosion der Kultur mit ihrer wachsenden Unordnung orientiert zu bleiben. Ohne Suchmaschinen etwa könne heute kein Archiv mehr die digitalen Datenmassen, Texte und Kulturprodukte bewältigen.

Algorithmen automatisieren Kulturtechniken wie die Inhaltsanalyse von Bildern oder das Schreiben von Texten: Der Chef der Firma „Narrative Science“, die automatisierte Sport- und Finanzberichterstattung anbietet, habe 2012 für die nächsten Dekaden eine Ersetzung von neunzig Prozent der Journalisten durch Computer angekündigt. Bedenklich sei, „dass sich auch die CIA für Narrative Science interessiert und über ihre Beteiligungsgesellschaft In-Q-Tel in das Unternehmen investiert hat, ist ein Hinweis darauf, dass bereits heute Anwendungen jenseits des Journalismus entwickelt werden. Zu Propagandazwecken lassen sich mit Algorithmen beispielsweise problemlos massenhaft Einträge in Onlineforen und den sozialen Massenmedien erstellen.“ (S.175)

Dynamische Algorithmen können sich sogar halbautomatisch-eigenständig weiterentwickeln: 2012 habe Google mit solchen „deep learning“-Verfahren die „Gesichtserkennung in unstrukturierten Bildern“ um siebzig Prozent verbessert (S.180). In ausufernder Überwachung greife heute ein „Daten-Behaviorismus“ nach unserer Privatheit, in einem „Revival eines nach wie vor mechanistischen, reduktionistischen und autoritären Ansatzes“. Diese Haltung ungehemmter Kontrolle unseres Verhaltens finde sich bei jenen, die über umfassende Beobachtungsmöglichkeiten verfügen, „dazu gehören neben Facebook und Google auch die Geheimdienste westlicher Länder“ (S.201). Dabei ginge es neben der gern genannten „Serviceverbesserung“ aber auch um soziale Normierung sowie „Profit- oder Überwachungsoptimierung“ (S.202). Anders als viele deutsche Medienwissenschaftler, die an dieser Stelle der Analyse krampfhaft mit den Fingern auf „russische Trolle“ und den chinesischen Überwachungsstaat zeigen, beweist der Schweizer Felix Stalder Rückgrat und kritisiert die eigenen, die westlichen Machteliten (was besagte Kollegen wohl eher nicht aufgreifen dürften).

Assange, Snowden und Entmündigung im libertären Paternalismus

2013 habe, so Stalder, Edward Snowden die „flächendeckende Überwachung des Internets durch staatliche Geheimdienste“ enthüllt (S.233). Felix Stalder zitiert den Wikileaks-Gründer Julian Assange und resümiert: „Die Grenzen zwischen postdemokratischen Massenmedien und staatlichen Nachrichtendiensten sind fließend. Wie inzwischen bekannt ist, bestehen zwischen beiden Bereichen personelle Kontinuitäten und inhaltliche Gemeinsamkeiten.“ (S.234) Die USA hätten seit 2011 z.B. „ein eigenes Programm zu sozialen Massenmedien mit dem Namen ‚Social Media in Strategic Communication‘. (…) seit 2009 vernetzt die Europäische Union im Rahmen des INDECT-Programms Universitäten und Sicherheitsorgane mit dem Ziel ‚Lösungen und Werkzeuge der automatisierten Gefahrenentdeckung zu entwickeln’… Überspitzt könnte man sagen, dass die Missachtung der Grundrechte mit der Qualität der so geschaffenen Dienstleistung ‚Sicherheit‘ legitimiert wird.“ (S.235f.)

Leider sei die Gegenwehr gegen eine in westlichen Gesellschaften so geschaffene soziale Atmosphäre der Angst gering geblieben. Hinter Überwachung und Massenmanipulation stehe in den heutigen Postdemokratien, die demokratische Politik durch technokratisches Gouvernance ersetzen, eine neoliberale Anti-Aufklärung. Obsolet sei heute für die Machteliten „…die aus der Zeit der Aufklärung stammende Annahme, der Mensch könne sich durch den Einsatz seiner Vernunft und die Ausbildung seiner moralischen Fähigkeiten verbessern und sich aus seiner Unmündigkeit durch Bildung und Reflexion selbst befreien.“ (S.227) Eine kybernetische Sicht sehe den Menschen als dressierbare Versuchsratte, die mit subtilen „Nudges“ (Schubsern) zu steuern sei, so Richard Thaler und Cass Sunstein.

Die beiden Neobehavioristen bezeichnen ihr System als „libertären Paternalismus“, der eine „freiheitlich Bevormundung“ anstrebe, was bei den Regierungschefs in Washington und London, Obama und Cameron, so viel Anklang fand, dass sie Thaler und Sunstein in ihre Teams holten (S.228f.). Besonders in den sozialen Massenmedien (also den „sozialen Medien“, Stalder benutzt diesen gängigen Begriff jedoch nicht), ließe sich die mediale Umgebung via Nudging manipulieren. Dies geschehe vor allem im Dienste einer Gruppe, die Stalder als „den inneren Kern des postdemokratischen Systems“ bezeichnet, „bestehend aus den Spitzen der Wirtschaft, der Politik und der Geheimdienste“ (S.230). Viele Mainstream-Konformisten dürften in dieser simplen und analytisch untadelig abgeleiteten politischen Erkenntnis bereits angebliche „Verschwörungstheorie“ oder sogar „-ideologie“ wittern. Denn medial und in der akademischen Forschung werden die von Stalder aufgezeigten Fakten und Zusammenhänge geradezu krampfhaft ignoriert. Es ist zu befürchten, dass genau diese krampfhafte Ignoranz künftig zumindest diese Teile von Stalders Buch betreffen wird. Machtstrukturen dieses Kalibers werden bislang selten öffentlich diskutiert und dies geschieht dann oft nur in künstlerisch verfremdeter Form, wie etwa bei Mark Lombardi.

Stalder ruft im Fazit dazu auf, die Dynamik der Digitalität kritisch zu reflektieren und sich aktiv mit den Auswirkungen digitaler Technologien auf unsere Gesellschaft auseinanderzusetzen. Indem wir die Chancen und Herausforderungen der Digitalität verstehen, können wir Freiheit und Autonomie im digitalen Raum bewahren und weiterentwickeln: Obwohl „die Postdemokratie das Politische selbst abschaffen und alles einer technokratischen Alternativlosigkeit unterordnen will“, beweise die Entwicklung der blühenden Commons das Gegenteil, meint Stalder und schließt sein Buch mit dem Verweis auf utopische Potentiale der Digitalität: „Diese Widersprüchlichkeit der Gegenwart öffnet den Raum der Zukunft.“ Ausbaufähig scheint an Stalders Argumentation die Subjektkonstitution im Netz, die mit der Konzentration auf Kommunizieren, Posten und Liken wohl noch nicht ausreichend erfasst ist, sowie deren Verknüpfung mit Foucaults Konzept des Panoptismus.