05/24/24

NETmundial+10: Internet Governance 10 Jahre nach dem Snowden-Schock

700 Menschen aus 60 Ländern verhandelten über Regeln für das Internet, die Mitsprache für alle gesellschaftlichen Gruppen ermöglichen. Doch wie verhält sich NETmundial zu anderen Versuchen, Grundprinzipien des Netzes zu erarbeiten? Und was beschäftigte die Teilnehmer*innen besonders?

23.05.2024 Netzpolitik.org – Anne Roth

Ende April trafen sich in São Paulo, Brasilien, unter dem Motto „Global challenges for the governance of the digital world“ Vertreter*innen aus 60 Staaten zur „NETmundial+10“-Konferenz. Sie fand fast genau zehn Jahre nach der ersten NETmundial-Konferenz statt, die ebenfalls in São Paulo getagt hatte.

Nun sollten die damaligen Prinzipien überprüft und aktualisiert werden. Als Ergebnis verabschiedeten die Teilnehmenden ein „Multistakeholder Statement“. Das erklärte Ziel: „Internet Governance und die digitalpolitischen Prozesse“ stärken.

Anstoß zur ersten Konferenz hatten die Enthüllungen von Edward Snowden seit 2013 gegeben, die das Ausmaß der digitalen Überwachung durch die Geheimdienste der Five-Eyes-Staaten (USA, Großbritannien, Kanada, Australien und Neuseeland) deutlich gemacht hatten. Die damalige brasilianische Präsidentin Dilma Roussef war selbst von der Überwachung betroffen gewesen und hatte die Massenüberwachung deutlich kritisiert. 2014 hatte sie daher zum ersten NETmundial eingeladen.

Thema war die internationale Internet Governance und damit verbunden die Frage, wie die Dominanz der USA in der Kontrolle der Infrastruktur des Internets zurückgedrängt und wie diese demokratisiert werden konnte. Das formulierte Ziel war auch damals ein Konsens über universell akzeptierte Internet-Governance-Prinzipien und ein besserer institutioneller Rahmen dafür.

Das São Paulo Multistakeholder-Statement

Die Teilnehmer*innen kamen aus vielen verschiedenen Bereichen: Sie repräsentierten Regierungen, Zivilgesellschaft, Wissenschaft, internationale Organisationen, IT-Community und Unternehmen. Wolfgang Kleinwächter, Internet-Governance-Experte und Mitglied des NETmundial+10 High-Level Executive Committee, beschrieb die Gründung des NETmundial als Reaktion auf die Snowden-Enthüllungen so:

Als Reaktion auf dieses Ereignis kam die Weltgemeinschaft zusammen und sagte: Wir sollten das Internet nicht in den Händen der Regierung lassen. Wir müssen den Multistakeholder-Ansatz stärken. Das Internet braucht keinen Anführer.

Stattdessen, so Kleinwächter, brauche es die Zusammenarbeit aller. „Die Regierungen müssen eine wichtige Rolle spielen, aber sie sind nicht mehr die einzige Band in der Stadt.“

Die vor zehn Jahren vereinbarten Internet-Governance-Prinzipien bezogen sich auf Menschenrechte und Diversität. Es sollte ein gemeinsames und ungeteiltes Internet sein, das den freien Fluss von Informationen ermöglicht, offene Standards genauso wie Sicherheit und Stabilität bietet und eine Umgebung für Innovation und Kreativität sein soll.

Dazu kamen die zehn Process Principles, also Grundregeln, wie die Internetverwaltung geregelt sein soll. Hier steht das Multistakeholder-Prinzip an erster Stelle, gefolgt etwa von Offenheit, Partizipation, Transparenz, Barrierefreiheit und Agilität.

Kritik gab es von verschiedenen Seiten. So bemängelten zivilgesellschaftliche Akteur*innen, dass Massenüberwachung nicht klar verurteilt wurde. Heftige Auseinandersetzungen gab es auch um Netzneutralität und Providerhaftung.

Zehn Jahre später

Beim diesjährigen Treffen ging es darum, die damaligen Prinzipien noch einmal anzuschauen, zu prüfen und gegebenenfalls zu erneuern. Wieder kamen die verschiedenen Gruppen zusammen, insgesamt nahmen über 700 Menschen aus über 60 Staaten vor Ort und online teil.

Die deutschen Teilnehmer*innen vor Ort waren Jeanette Hofmann und Wolfgang Kleinwächter (Wissenschaft), beide Mitglieder des High-Level Executive Committee von NETmundial+10. Außerdem die „Interledger Foundation“ und der „Sovereign Tech Fund“ (Zivilgesellschaft), das Ministerium für Digitales und Verkehr (Bundesregierung) und für die technische Community Nathalia Sautchuk von der Hochschule Karlsruhe sowie Peter Koch von der DENIC eG.

Dass die deutsche Zivilgesellschaft kaum vertreten war, ist für Jeanette Hofmann, Professorin für Internetpolitik und Forschungsdirektorin des Humboldt-Instituts für Internet und Gesellschaft, vermutlich auch der Grund, warum „das Event hier weitgehend unbekannt geblieben ist“.

Priorität des diesjährigen Treffen waren die Prozesse der Internet Governance. Diese Verfahrensfragen zielten darauf ab, die Beteiligung verschiedener gesellschaftlicher Gruppen sowie geografischer Regionen an den Entscheidungsprozessen zu verbessern. Für Mallory Knodel, Chief Technology Officer der NGO „Center for Democracy & Technology“, hat das auch eine politische Bedeutung:

2014 haben Leute versucht, einen Prozess zu zeigen, der vom Globalen Süden angeführt wurde. Kein G-irgendwas, kein UN-irgendwas. Wir machen es selbst und wir bringen dazu alle zusammen. Und das hat geklappt. Es war wirklich großartig.

Knodel glaubt, das sei vor allem erfolgreich gewesen, weil wegen der Snowden-Enthüllungen „alle so wütend auf die Regierungen waren“.

Bruna Santos, brasilianisches Mitglied des High-Level Advisory Committee für die Zivilgesellschaft, sieht als einen der Erfolge des NETmundial, dass mittlerweile eine erkennbare Anzahl an Staaten bereit ist, im Vorfeld von Gesetzesvorhaben nicht nur mit traditionellen Lobbyist*innen, sondern mit ganz unterschiedlichen Stakeholdern und Communitys zu sprechen.

Ziel sei dabei auch, Fairness und Transparenz zu verbessern. Nicht zuletzt in der EU gebe es aber auch noch Raum für Verbesserung:

Wenn wir Verfahren wie die Diskussionen über die Entwürfe des Digital Services Act analysieren, wird deutlich, dass das Europäische Parlament dies noch besser hätte machen können, wenn es klare und transparente Diskussionen zwischen allen Interessenvertreter*innen organisiert hätte, um mehr Input für den Text zu zu bekommen.

Zersplitterung der Governance-Strukturen

Problematisch sei laut Santos aktuell, dass sich Diskussionen über Verfahrensfragen duplizieren könnten, weil derzeit eine ganze Reihe wichtiger Prozesse stattfindet: WSIS+20, CSTD, das neue IGF-Mandat 2025, der Global Digital Compact (GDC) sowie der Summit of the Future.

All diese Formate beschäftigen sich mit der Frage, wie das Internet von morgen aussehen und gestaltet werden soll. Bei manchen diskutieren vor allem Staaten miteinander, bei anderen auch andere Interessensgruppen. Jeanette Hofmann beschreibt eine klare Konkurrenz zwischen den UN und dem von ihnen „ungeliebten“ IGF, die sich auch in der Sprache zeige. Wenn es nämlich darum geht, ob von Internet Governance (IGF) oder Digital Governance (UN) die Rede ist:

Die UN beansprucht eine multilaterale Führungsrolle in Digital Matters, im Bereich Internet Governance herrscht dagegen der Multistakeholder-Ansatz vor und kann auch nicht so leicht aus dem Weg geräumt werden.

Die Zersplitterung der Debatten rund um Internet-Governance-Fragen könnten eine negative Entwicklung befördern, fürchtet Bruna Santos, weil sie nämlich dazu führen könne, dass die Regierungen multilaterale Verhandlungen zwischen den Staaten für den einzig gangbaren Weg halten, um ihre Meinungsverschiedenheiten zu klären.

Mallory Knodel wird noch deutlicher und sagt: „Die UN produzieren keine Ergebnisse.“ Sie verweist auf den Global Digital Compact. Diese Übereinkunft soll Leitlinien formulieren, an denen sich Länder global orientieren: Wie das Internet verwaltet wird, welche Grundprinzipien gelten – ähnlich wie bei NETmundial auch. Aus der technischen und zivilgesellschaftlichen Community kam zum GDC die Kritik, dass der aktuelle Entwurf die bisherige Organisation des Internets zentralisiere.

Knodel sagt:

Der GDC versucht, den Institutionen in Genf die Kontrolle zu entreißen, die tatsächlich Ergebnisse und vereinbarte Standards implementieren – ob es jetzt um das Klima, um nachhaltige Entwicklung oder aber digitale Transformation geht.

Für Bruna Santos ist deswegen wichtig, dass „wir die mögliche Doppelung von Diskussionen und Räumen verhindern müssen, die der GDC womöglich schaffen könnte, oder jedes andere Forum.“ Nicht zuletzt, weil es „ein wirklich nützliches Werkzeug ist, um die Zivilgesellschaft zu schwächen, wenn sie uns auf all diese verschiedenen Orte verteilen“, sagt Mallory Knodel.

Walk the Talk

Zu der Frage, ob das NETmundial+10 seinen eigenen Ansprüchen auf Partizipation und Diversität gerecht wurde, gibt es unterschiedliche Einschätzungen. Vinicius W. O. Santos ist Mitarbeiter des Brasilianischen Internet-Steuerungsausschusses und des NETmundial+10-Sekretariats, der die Vorbereitung und Durchführung der Konferenz eng begleitet hat. Santos glaubt, dass es angesichts der kurzen Vorbereitungszeit durchaus eine gute Beteiligung gab: „Es war wirklich beeindruckend zu sehen, wie dieses Netzwerk aufgeblüht ist.“

Unterm Strich brauche ein Prozess dieser Größenordnung aber mehr Zeit, um angemessen umgesetzt zu werden, mehr Communitys anzusprechen und um auch die Finanzierung auf mehr Schultern zu verteilen, um mehr Menschen die Anreise zu ermöglichen.

Bruna Santos hält das Ergebnis für ein „wirklich ausgewogenes Ergebnis aller Bedenken, von konstruktiver Kritik und dem Input der sehr diversen Communitys und Gruppen, die in das Entwurfsdokument, die Umfrage im Vorfeld und während der Sessions eingeflossen sind. Das Event dauerte nur zwei Tage, aber die Beteiligung der Stakeholder-Gruppen begann ja viel früher.“

Über die Autor:in

Anne Roth

Anne Roth war bis 2023 netzpolitische Referentin der Fraktion Die Linke im Deutschen Bundestag und schreibt und spricht jetzt freiberuflich über netzpolitische Themen. Außerdem bloggt sie gelegentlich über Innenpolitik, Netzpolitik, Medien und Feministisches in ihrem Blog annalist. Kontakt per Mail oder Messenger.https://netzpolitik.org/author/anne/

05/24/24

Theorien des digitalen Kapitalismus

Carstensen/Schaupp/Sevignani (Hg.): Theorien des digitalen Kapitalismus: Arbeit, Ökonomie, Politik, Subjekt, Suhrkamp, Frankfurt/M. 2023, 533 Seiten, 28,00 Euro (Leseprobe/Inhaltsverzeichnis)

Thomas Barth

Wie kann kritische Sozialwissenschaft den digitalen Kapitalismus, heute theoretisch fassen? Wie kann sie die Frage beantworten, ob sich der Kapitalismus angesichts der gegenwärtigen Digitalisierung grundlegend verändert? Der vorliegende Band gibt einen Einblick in theoretische Analysen, Zeitdiagnosen und Debatten eines digitalen Kapitalismus. Er bespricht entlang der Felder Arbeit, Ökonomie, Politik, Kultur und Subjekt die Formen und Auswirkungen des digitalen Kapitalismus. Eine integrative Theorie des digitalen Kapitalismus scheine zwar unmöglich, gleichwohl wolle man „Verbindungen der disparaten Ansätze“ ausleuchten (Backcover). Der Begriff „Kapitalismus“ deutet es an: Die meisten Autor:innen des unübersichtlichen Sammelbandes beziehen sich theoretisch auf Karl Marx oder wenigstens auf freudomarxistische Theoretiker, etwa auf Adorno oder Habermas.

Das Taschenbuch mit einem Umfang von 533 Seiten gliedert sich in vier Kapitel mit insgesamt 25 Unterkapiteln nebst Einleitung. Die Kapitel heißen: 1. „Arbeit“, 2. „Ökonomie“, 3. „Politik und Öffentlichkeit“ sowie 4. „Kultur und Subjekte“. Die Zuordnung der Beiträge ist dabei nicht immer einsichtig, etwa wenn die sehr lesenswerten Texte von Marisol Sandoval zu digitalen Genossenschaften und Felix Stalder zu Commons und Commoning nicht unter Ökonomie, sondern im dritten bzw. vierten Kapitel landen.

Progressive Perspektive auf Digitalisierung

Eine progressive Perspektive wird markiert durch Berichte über Arbeitskämpfe gegen Digitalkonzerne, deren unethische Geschäftspolitik, feministische Beiträge zum Thema Care und Digitales sowie ökologische Kritik –bei Thomas Barth (nicht identisch mit dem Rezensenten), auf dessen Text „Nachhaltigkeit im digitalen Kapitalismus“ jedoch niemand weiter eingeht. Oft wird auch versucht, Kulturkritik am digitalen Kapitalismus zu üben, politisch die Sache der (digital) Arbeitenden gegen die Seite des (Dotcom-) Kapitals zu vertreten oder marxistische Begriffe auf die Thematik der Digitalisierung anzuwenden.

Der Marxismus wurde oft tot gesagt, erweist sich aber langlebiger als erwartet. Der renommierte Suhrkamp-Wissenschaftsverlag brachte im Herbst 2023 diesen Sammelband überwiegend marxistischer Theoretiker:innen zum „Digitalen Kapitalismus“ heraus. Deren Beiträge sind fast alle politisch links, feministisch, ökologisch, marxistisch. Aber sie dokumentieren auch eine offenbar langjährige hartnäckige Weigerung vieler Marxist:innen, sich mit politischen Debatten rund um Informationsgesellschaft, Netzwerkkultur, Web2.0 und zuletzt „Digitalisierung“ auseinanderzusetzen. Erst mit der Plattformkritik scheint hier eine Debatte eingesetzt zu haben, der aber marxistische Perspektiven punktuell durchaus nützlich sind.

So entmystifiziert und kritisiert etwa Jamie Woodcock Dotcom-Konzerne und setzt im Text „Plattformarbeit“ (S.85-101) bei Nick Srniceks „Typologie der Plattformen“ an. Plattformen profitieren von Netzwerkeffekten und ihrer Tendenz zu Monopolisierung und kämen dem nahe, was Marx einen „Kaufmannskapitalisten“ nannte, der billig kaufe und teuer verkaufe (S.90). Auf einem abstrakten Niveau werden hehre PR-Selbstdarstellungen von Woodcock auf ein simples Profitmodell zurecht gestutzt, das nur als Trittbrettfahrer des Neoliberalismus seine Erfolge feierte:. Die Zunahme der Plattformarbeit sei Teil des neoliberalen „Wandels von Arbeit, Gesellschaft und Staat“ (S.93) mit grassierender Aushöhlung von Arbeitsrechten, Prekarisierung und Abwälzung von Risiken auf die Arbeitenden. Dabei würde etwa bei Amazon Mechanical Turk menschliche Arbeitskraft als „billigere Form von Software“ ausgebeutet (S.97). „Plattformen haben sich bisher als Laboratorium für das Kapital erwiesen, könnten aber auch ein Testfeld für neue Formen des Widerstands und der Organisation von Arbeitnehmer:innen darstellen.“ (S.101)

In diesem Sinne betont etwa Simon Schaupp die Möglichkeiten von Betriebsräten, bei Digitalisierung in Unternehmen Datenschutzgesetze für die Verteidigung von Arbeitnehmerrechten zu nutzen (S.334ff.); Tanja Carstensen widmet sich dem digitalen Ringen um Handlungsfähigkeit in Kämpfen, die um gender, race, class und ability geführt werden (S.404) und kritisiert mit Nancy Fraser die idealisierte Vorstellung von Öffentlichkeit nach Habermas (S.412); das Autorentrio Nachtwey/Truffer/Seidl kritisiert den „solutionistischen Geist des Kapitalismus“, aber ohne den Transhumanismus beim Namen zu nennen (S.458ff.); Helen Hester blickt zurück auf die Geschichte des Cyberfeminismus, der Beziehung von Frau und Technik vom Flechten und Weben über die feminisierte Schreibmaschine bis zum Cyberpunk-Genre (S.424ff.), seltsamerweise ohne dabei Donna Haraway zu erwähnen, obwohl sie sich auf deren Konzept vom situierten Wissen beruft (S.434); Jodi Dean ruft zum Kampf gegen den digitalen Neofeudalismus auf, der Arbeitende zu rechtlosen Bauern in einem „Game-of-Throne-Machtkampf“ (S.439) degradiert, beruft sich dabei auch auf den sozialistischen Ökonomen Yanis Varoufakis, den griechischen Ex-Finanzminister, dessen Europa-Wahlkampf-Auftritt in Deutschland jüngst verboten wurde -was man als Zeichen feudaler Willkür sehen könnte. Aus dem Wimmelbild kritischer Ansätze wichtige Argumentationsfiguren und Diskursarenen herauszufiltern ist verständlicherweise schwierig. Eine kritische Rezension muss einige Defizite des Sammelbandes benennen.

Digitalisierung und Informatisierung

Die Einleitung klärt zunächst die Begriffe Digitalisierung und Informatisierung, wobei letzere die Vergegenständlichung geistiger, regulierend-orientierender Tätigkeiten meint. In Zeichen oder Information erlange dabei nur ein Teil menschlicher Fähigkeiten, Erfahrungen und Wissens „eine eigenständige Gestalt“. Andere Kommunikationspartner:innen müssten die vergegenständlichten Informationen dann wieder in ihr Wissen und ihre Erfahrungen einbetten. Diese kooperative „Arbeit an den Zeichen“ (Fn1) bediene sich auch unterschiedlicher Informationstechniken. Informatisierung meine in einem zweiten Sinn die „Materialisierung des Informationsgebrauchs“ (Fn2) in Informationssystemen. Es ginge hier um den organisierten und vergegenständlichten Umgang mit Informationen. Digitalisierung sei demgegenüber die Formalisierung, Reduktion und Integration von Information die in virtuellen Modellen gipfle, welche Tätigkeiten, Arbeit und der Herstellung von Technik vorausgehe (S.10).

Gleich die erste Fußnote der Einleitung verweist auf einen posthum erschienenen Band mit Schriften von Arne Raeithel (1943-96) „Selbstorganisation, Kooperation, Zeichenprozess“ (1998), die zweite auf den Beitrag von Andreas Boes und Tobias Kämpf, „Informatisierung und Informationsraum: Eine Theorie der digitalen Transformation“ (S.141-161), so als hätten diese Raeithels für das Thema des Sammelbandes einschlägige Arbeiten weiterentwickelt. Leider nehmen Boes und Kaempf keinen Bezug auf Raeithel und auch sonst keiner der Beiträge -die drei weiteren Texte der Herausgeber:innen inbegriffen.

Boes und Kämpf blicken in ihrem Beitrag auf die Informatisierung als zentrales Element der Produktivkräfte, aus „historischer Perspektive“ sogar als „Teil der conditio humana“ sowie auf Information als soziale Kategorie (S.143). Wir werden sehen, dass Arne Raeithel in den 1980er und –90er Jahren die Ehre hatte, diese drei „konzeptionellen Säulen“ nicht nur als grundlegend vorauszuahnen, sondern zumindest teilweise auch bereits tiefer und detaillierter auszuarbeiten als Boes und Kämpf in ihrem Text erkennen lassen. Sie monieren am Stand der Forschung, dass wegen der Marx’schen Fokussierung auf industrielle Handarbeit die „Sphäre der Kopfarbeit“ vernachlässigt wurde. Ihr „Konzept der Informatisierung“ will „an dieser analytischen Leerstelle“ ansetzen, doch die vermeintliche Leerstelle hätte sich durch Lektüre von Raeithel mehr als schließen lassen. Ihr historischer Rückblick auf Zeichensysteme bis Buchdruck (S.150ff.) bleibt deutlich hinter Raeithels Geschichte der „symbolischen Herstellung sozialer Kohärenz“ zurück, der Vor- und Frühgeschichte bis Ethnologie aufbietet (Raeithel 1998, S.189-208) vgl. Raeithel 1996.

Die multimediale Welt des heutigen WWW konnte Raeithel noch nicht kennen, doch der von Boes und Kämpf als Fazit ihrer Analyse präsentierte, von „Bild, Ton, Zeichen usw.“ (S.154) erfüllte „Informationsraum“ überzeugt nicht wirklich: Er sei sozialer Handlungsraum, durchdringe die Gesellschaft, „eröffne das Potenzial für einen egalitären Modus der gesellschaftlichen Produktion von Wissen“ (S.158). Dies sind heute Gemeinplätze oder schon lange fragwürdig gewordene Hoffnungen der „Kalifornischen Ideologie“ des Slicon Valley (Barth 1999). Die Raummetapher für das Internet stammt aus den 80er-Jahren, der Cyberspace, den die Matrix-Filme auf die Leinwand brachten. Sie ist seit einer guten Dekade als ein Ordnungsmodell des Internets in den Medienwissenschaften kanonisiert –Raummodelle: Cyberspace, Portal, Plattform (Bleicher 2010, S.46 ff.); heute sind die Raummodelle nur noch eines von einem Dutzend Ordnungsmodelle, von „Dispositiv“ bis „Suchmaschinen“ (Bleicher 2022, S.109 ff.) –hier scheinen den Marxisten schlicht wichtige Basiskenntnisse aus der einschlägigen Nachbarwissenschaft zu fehlen. Das ist schlecht, wenn man ein nur interdisziplinär fassbares Thema bearbeiten will.

Arne Raeithel und Mark Poster als vergessene Klassiker

Thomas Barth (der Rezensent, nicht der Beiträger zum Suhrkamp-Band) zeichnete 1995 im Exkurs „Marxistische Ansätze zur Informationsgesellschaft“ die marxistische Begriffsentwicklung zur Informatisierung u.a. beim US-Marxisten Mark Poster und beim marxistischen Psychologen Arne Raeithel nach (Barth 1997, S.79ff.). Poster entwickelte aus dem Marx’schen Begriff der „Produktionsverhältnisse“ unter Bezug auf postmoderne Theorie (Baudrillard, Foucault) seinen auf die kommende Informationsgesellschaft zugeschnittenen Begriff der „Informationsverhältnisse“ -aber keiner der Suhrkamp-Beiträge bezieht sich auf Poster. Am weitesten ausgearbeitet war die marxistische Analyse der Digitalisierung, die man damals noch Informatisierung nannte, m.W. jedoch bei Arne Raeithel.

Raeithel analysierte soziale Kommunikation als Form gesellschaftlicher Arbeit, basierend auf einem vergegenständlichten Begriff von Sprechhandlungen bzw. generell von Information als Trägerin einer symbolisch geteilten Welt (Raeithel 1989). Dies greift der zweiten „Säule“ der Konzeption von Boes und Kämpf vor, Informatisierung als soziales Verhältnis und gesellschaftlichen Prozess zu verstehen, wobei Raeithel mit „Zur Naturgeschichte der Zeichenprozesse – Drei Stufen der Entwicklung von Kommunikation und Denken“ (Raeithel 1998, S.243-255) auch die dritte „Säule“, die historische Perspektive auf die informatorische conditio humana vorwegnahm. Dabei schloss Raeithel, der zu den sehr frühen Anwendern von Computer und Internet zählte und selbst programmieren konnte, ausdrücklich „rechnergestützte“ Arbeit, d.h. Arbeit im digitalen Bereich, ein (Raeithel 1992).

Raeithels Ansatz gründete auf der sowjetischen kulturhistorischen Schule von Leontjew und Wygotsky, die im Stalinismus marginalisiert wurde. Er formulierte einen Arbeitsbegriff aus, der kognitive Tätigkeit an symbolischen Gegenständen ins Visier nahm. Der so gezeichnete Arbeitsprozess zielt auf Veränderungen von Können, Begriffen und Werkzeugen, also auf die sich entwickelnde Reproduktion der inneren und äußeren Verhältnisse der Subjekte (Raeithel 1998, S.35). Raeithel ging damit bereits nicht nur über die theoretische Analyse von Boes und Kaempf hinaus, sondern bewegte sich in Bereichen, die der vorliegende Sammelband eher defizitär im Kapitel „Kultur und Subjekte“ behandelt.

Regulierung digitaler Plattformen

Ulrich Dolata und Jan-Felix Schrape entwerfen in ihrem Beitrag „Politische Ökonomie und Regulierung digitaler Plattformen“ ein –zumindest für diesen Sammelband- überraschend unkritisches, teils fast affirmatives Bild der Plattformkonzerne. Aus Sicht der Organisations- und Innovationssoziologie verteidigen sie zunächst die US-Technologiekonzerne Amazon, Apple, Alphabet/Google und Meta/Facebook gegen die Vorhaltung, dort würde in einem „asset-light-Geschäftsmodell“ weitgehendes Outsourcing betrieben (S.346). Unklar bleibt dabei, warum sie Microsoft ausnehmen. Ihre analytische Teilung von „Plattformunternehmen als organisatorischer Kern“ und der „Plattform als sozialer Handlungsraum“ scheint die Unabhängigkeit besagter „Handlungsräume“ von den Konzernen zu betonen. Das spielt deren Management in die Hände, das die Freiheit ihrer Nutzer gegenüber eigener manipulativer Eingriffe herausstellt. Dolata und Schrape erwähnen zwar das Machtgefälle zwischen Nutzer:innen und Konzernen, haben aber wenig Einwände gegen konzernseitige „lückenlose Beobachtung“ des Nutzerverhaltens, dessen Daten „zunächst als Rohmaterial anfallen“ (S.349).

Sie kritisieren den Ansatz von Shoshana Zuboff, weil deren „Überwachungskapitalismus“ bei der Entstehung dieser Daten fälschlich von „unbezahlter digitaler Arbeit“ der Nutzer ausgehe, obwohl es doch „viel trivialer“ um die „bereitwillige Offenlegung… alltäglichen Verhaltens“ ginge. Was den Nutzer:innen, die ihre „Datenspuren oft achtlos und im Vorbeigehen liefern“, entzogen wird seien wertlose Rohstoffe. Diese werden erst von den Konzernen durch „Aufbereitungs- und Veredelungsleistungen“ zur Ware erhoben. Die Konzerne erwerben damit offenbar nicht nur das ökonomische, sondern auch noch das moralische Recht, private Kommunikation als „handelbare Datensätze und personalisierte Werbemöglichkeiten“ zu Geld zu machen (S.358). Die Fixierung auf marxsche Wertlehre verstellt hier womöglich den Blick auf die Manipulation der Nutzer:innen, deren Daten nicht „achtlos im Vorbeigehen“, sondern in vorsätzlich süchtig machenden Strukturen produziert werden.

Beim Thema Regulierung sehen Dolata und Schrape die Plattformen unter „intensiver Beobachtung“ einer „politischen Öffentlichkeit“. Zivilgesellschaft und Journalisten hätten „Desinformationsdynamiken“ und „Verletzungen der Privatsphäre“ aufgedeckt –nebenbei bemerkt: in jenen Konzernaktivitäten, die Dolata und Schrape als „Veredelungsleistungen“ bezeichneten. Doch die Plattformkonzerne hätten auf die Kritik „durchaus reagiert –etwa mit Transparenzinitiativen sowie Versuchen einer institutionalisierten Einbindung zivilgesellschaftlicher Akteure in ihre eigenen Regulierungsstrukturen“. (S.360) Beispiele nennen die Autoren nicht, daher kommt die Frage nicht auf, ob es sich dabei nur um die üblichen PR-Spektakel gehandelt haben könnte.

Felix Stalder: Plattform-Demokratie-Spektakel

Facebook wurde nach diversen Skandalen in den USA besonders das Ziel von öffentlicher Kritik. Senatsanhörungen brachten Konzernchef Zuckerberg persönlich ins Schwitzen (was sogar wörtlich stimmte: man konnte in der TV-Übertragung sehen, wie der CEO mit Schweißtropfen auf der Stirn sein Sakko ablegen musste). Dennoch bewertete Felix Stalder 2016 Facebooks Reformen der „eigenen Regelungsstruktur“ kritisch.

Facebook habe sich zwar 2009 selbst auferlegt, Änderungen der Geschäftsordnung einer Abstimmung vorzulegen, sobald 7000 Kommentare dazu abgegeben würden; doch das Quorum von 30 Prozent der User:innen wäre bis zur Abschaffung der Regel 2012 nie erreicht worden, auch weil die Konzern-Demokratie dazu neigte die Wahlurnen zu verstecken. Überhaupt hätten Anbieter wie Facebook sich bemüht „mit jeder Neuerung das Machtgefälle zwischen Nutzern und Betreibern“ zu verschärfen (Stalder 2016, S.217). Kannten Dolata und Schrape das Buch ihres Kollegen Stalder nicht?

Felix Stalder lieferte auch einen äußerst lesenswerten Beitrag zum hier besprochenen Suhrkamp-Band, der sein recht bekanntes Werk „Kultur der Digitalität“ von 2016 selbstkritisch hinterfragt. Stalders 2016 noch große Begeisterung für die digitale Allmende („Commons“) der Open-Source-Bewegung wurde inzwischen gedämpft. Der Neoliberalismus instrumentalisiere zunehmend Commons als Trostpflaster für soziale Raubzüge, etwa wenn mittels Crowdsourcing bezahlte Arbeit durch schlechtbezahlte Arbeit ersetzt würde.

Der Geist der freien Software mit Gnu-Public-Licence (GPL) würde von der Software-Industrie heute unterlaufen, indem ihre Dienstleistung über die Cloud angeboten würde –ohne den Quellcode der spezifisch angepassten GPL-Programme offenlegen zu müssen: Eine neue Form kapitalistischer Einhegung einer Allmende. Kombination mit firmeneigenem Code sei eine weitere Einhegung, etwa bei Googles dadurch nicht wirklich offenem Android-System. Kulturelles Commoning diene auf Plattformen der Kommerzialisierung von Nutzerdaten-Extraktion. Schlimmer noch:

„Aber die Einhegung findet nicht nur als Form des Datenextraktivismus statt, sondern auch durch vielfache Möglichkeiten des ‚nudging‘, das die aus Nutzer:innensicht nichtkommerzielle Tätigkeiten in für Plattformbetreiber kommerziell interessante Richtungen lenkt, mit allen problematischen Konsequenzen.“ Felix Stalder 2023, S.510

Kulturproduktion im Internet wird so hinter dem Rücken der User doch wieder für eine Kulturindustrie vereinnahmt. Da wir von der Frankfurter Schule gelernt haben, so Mark Poster 2003, wie verheerend sich die Kulturindustrie auf die Arbeiterklasse und andere demokratisierende Bewegungen auswirkt, sei es unsere Pflicht, die Möglichkeiten ihrer Technologie zu verstehen. Wir sollten lernen, wie sie bei der Konstruktion kultureller Formen eingesetzt werden können, die einer demokratischen Lebenswelt angemessener sind.

Habermas und Plattform-Kapitalismus

An den Adorno-Schüler Habermas knüpfen immerhin zwei Beiträge an: Nosthoff/Maschewski untersuchen mit einem brandneuen Habermas-Text „Plattformökonomische Öffentlichkeiten“, denen der Nestor der kommunikativen Vernunft „höchst ambivalente und möglicherweise disruptive Auswirkungen auf die politische Öffentlichkeit“ zuschrieb. Die Fragmentierung des Publikums in emotionalisierte Teilöffentlichkeiten, Fakenews, Donald Trump und Gereiztheit plagen uns: „Kommunikation und Kontrolle bilden so das dominante wie dialektische Signum der Social-Media-Plattformen: Wer die Strukturen der Kommunikation kontrolliert, definiert auch die Strukturen der öffentlichen Sphäre“ (S.371f.). Nicht, dass nicht schon vor dem Start des WWW, aus dem die Plattformen dann entsprangen, vor dem Zusammenfließen von panoptischer Kontrolle und Verhaltenssteuerung gewarnt worden wäre: Das von mir seit 1996 empfohlene Gegengift eines „Inversen Panoptismus“, einer Umkehrung der Kontrolltechnologie gegen die Machtzentren, scheint den akademischen Autoren wohl zu radikal (Barth 1996). Keiner wagt es auf den 533 Seiten, die hier profilierteste Anti-Plattform auch nur zu erwähnen –Wikileaks und ihren wegen „Geheimnisverrat“ seit fünf Jahren inhaftierten Gründer Julian Assange.

Der zweite Habermas-affine Text ist von Evan Fisher: „Algorithmen und das Selbst“ (S.514-532) und beschließt den Band. Er untersucht die Rolle des Wissens in der Ko-Konstituierung von Mensch und Maschine, wobei Plattformen als „epistemische Medien“ analysiert werden. Mit Friedrich Kittler sieht Fisher Medien als Kulturtechniken, die Wissen über das Selbst schaffen, und dem Selbst in der öffentlichen Sphäre Selbstreflexion erlauben, so Habermas. Dessen emanzipatorisches Erkenntnisinteresse leitet Fisher aus der Psychoanalyse her und verfolgt es bis in die heutige Medienwelt der Plattformen. Deren Algorithmen schaffen zwar Wissen über das Selbst, jedoch ohne Selbstreflexion wie die Psychoanalyse, die Habermas der kritischen Theorie zuordnet. So endet der Sammelband pessimistisch, wobei Fisher noch die Profit-Eigeninteressen der Plattformen unterschätzt und ihr User-Profiling als auf „quasi-freiwilliger“ Selbstbewertung sieht (S.528).

Andere Beiträge, wie jener von Felix Stalder belehren ihn jedoch eines Besseren und wenn alle versammelten Autoren den ganzen Band rezipieren und die Wissenslücken ihrer divergierenden Ansätze damit schließen würden, hätte die Debatte schon viel gewonnen. Es fehlten gleichwohl, wie in dieser Buchkritik ausgeführt, noch viele Erkenntnisse der Medienwissenschaft und aus den kritischen Diskursen der Netzkultur (-Wissenschaft). Etwa aus den Texten des -von keinem der Suhrkamp-Beiträge zitierten- Experten Geert Lovink, der es in den liberalen Niederlanden vom Aktivisten und Netzkritiker zum Professor für Kunst und Netzwerkkulturen brachte. Lovink sieht uns „In der Plattformfalle“ und plädiert seit Jahren für eine „Rückeroberung des Internets“, dabei warnt er spöttisch:

„Man sollte sich nicht in pedantischen Übungen verlieren, um akademische Territorien mit ihren Kanons und Methoden zu definieren und zu verteidigen… Wir sollten die momentane Leichtigkeit annehmen und uns über die Verwirrung unter jenen amüsieren, die versuchen, ‚Digitalisierung‘ zu kartieren.“ Lovink 2022, S.29

Nicht Marx, aber Marxisten ignorieren Technologie

Vor über 20 Jahren zeigte sich Mark Poster (1941-2012) erstaunt über das Ausmaß, in dem viele Marxisten dazu neigten, neue Technologien „fast vollständig zu ignorieren“. Diese nahmen an, dass der Kapitalismus den entstehenden Cyberspace, das Internet vollständig übernehmen würde. Poster fand das sehr überraschend, weil Marx doch stets darauf geachtet habe, die Art und Weise zu untersuchen, wie soziale Innovationen sowohl für bestehende Institutionen als auch in Richtung ihrer Infragestellung wirkten. Marx selber wäre sogar so weit gegangen, disruptiv-brutale Ereignisse wie die Zerstörung der indischen Baumwollindustrie durch britische Kolonialisten insofern zu begrüßen, als sie die historische Entwicklung zum Sozialismus fördern könnten. Das Misstrauen marxistischer Kritiker gegenüber dem Internet erschien Mark Poster daher übertrieben, besonders angesichts der Chancen progressiver Netzkultur in der Open-Source und Hacker-Szene. Sein Optimismus speiste sich aus dem, was damals als „Kalifornische Ideologie“ wegen Ignoranz gegenüber der sozialen Frage kritisiert und heute auch als Transhumanismus bezeichnet wird.

Es war die Zeit einer ersten Verbreitung von Unternehmens-Websites, gefolgt von Börsen-Hype und Dotcom-Crash 2001, als im Kampf um die Netzkultur noch vieles offen war. Für Marxisten war es damals jedoch schon offensichtlich, so Mark Poster, dass das Internet nur eine weitere Teufelei war, um die Reichen noch reicher und die Armen noch ärmer zu machen. Heute, nach der Durchsetzung des Plattform- oder Überwachungskapitalismus, müssen wir leider feststellen, dass die Pessimisten nicht völlig falsch lagen. Zwar hat sich die widerständige Netzkultur weiterhin gehalten, doch Dotcom-Konzerne stehen in der Öffentlichkeit und an den Börsen als Sieger da. Marxistische Kritik an der Plattform-Industrie leidet heute unter deren Ignoranz zwar nicht mehr gegenüber der Technologie selbst, aber gegenüber den sie betreffenden Diskursen. Technik- und Netzkritik, wie sie auf Netzphilosophie gepflegt wird, scheint in vielen Suhrkamp-Beiträgen leider eher unbekannt zu sein. Erst mit der Plattformkritik scheint hier eine Debatte eingesetzt zu haben, der aber marxistische Perspektiven punktuell durchaus nützlich sind.

Fazit

Leider kann der Sammelband trotz vieler herausragender Beiträge seine Versprechen nicht einlösen, vor allem nicht jenes, die „Verbindungen der disparaten Ansätze“ auszuleuchten. Schon die Gliederung in die Kapitel „Arbeit“, „Ökonomie“, „Politik und Öffentlichkeit“ sowie „Kultur und Subjekte“ überzeugte wohl nicht jeden. Abweichend davon benennen die Herausgeber:innen sie in den Titeln der Unterkapitel ihrer Einleitung „Produktivkraftentwicklung und Arbeit“, „Wertschöpfung und Ökonomie“, „Politische Regulation und Öffentlichkeit“ sowie „Kulturelle Regulation und Subjekte“. Zu Beginn der Einleitung findet sich zudem der noch weitgehender abweichende Vorschlag zur „Strukturierung des Feldes anhand der kapitalismustheoretischen Basiskategorien Produktivkraftentwicklung, Arbeit, Wertschöpfung, politische Regulation sowie Kultur und Subjekte“ (S.11).

Die nicht immer einsichtige Zuordnung der Beiträge zu diesen Kapiteln bzw. Kategorien sowie insbesondere das Fehlen editorischer Orientierungshilfen machen den Sammelband äußerst unübersichtlich. Am Ende des Buches findet sich lediglich eine Liste mit Textnachweisen für die sieben Beiträge, die keine Originalbeiträge sind. Es fehlen biographische Angaben zu den Autor:innen, Literaturlisten zu den Beiträgen, ein Schlagwort- oder wenigstens Namensregister. Es fehlt mithin alles, was der Leser gebraucht hätte, um wirklich Verbindungen der disparaten Ansätze ausleuchten zu können. Einen Überblick über die verwendete Literatur gewinnt man nur mühselig aus den weit über tausend Fußnoten. Bezugnahmen der Beiträge oder Autor:innen aufeinander sind seltene Ausnahmen, bleiben fast immer beim bloßen Namedropping -selbst bei der in den Leitmedien herumgereichten und daher schwer ignorierbaren Shoshana Zuboff. Die renommierte Havard-Professorin gehört mit ihrer Kritik des „Überwachungskapitalismus“ zu den am häufigsten zitierten Autor:innen im Sammelband, leider fast immer nur als inhaltsleerer Verweis auf das Problem der Überwachung (das damit oft als abgehandelt betrachtet wird). Eine lebendige Diskussionskultur, Diskurse und Debatten, für die es allein schon innerhalb der marxistischen Digitalisierungsforschung genügend Themenfelder gäbe, sucht man bislang offenbar weitgehend vergeblich.

Herausgeber:innen und Autor:innen des Sammelbandes

Die drei Herausgeber:innen, die selbst Beiträge liefern und gemeinsam die Einleitung verfassten, sind: Tanja Carstensen, Privatdozentin für Soziologie der LMU München und Koordinatorin des Forschungsverbunds Sorgetransformationen an der Universität Hamburg, Simon Schaupp, Gastprofessor am Zentrum für Angewandte Kulturwissenschaft am KIT in Karlsruhe und Oberassistent für Soziologie der Universität Basel, Sebastian Sevignani, Akademischer Rat für Soziologie der Schiller-Universität Jena. Weitere Beiträger:innen sind: Thomas Barth (mit dem Rezensenten weder identisch noch verwandt noch bekannt), Kean Birch, Andreas Boes, Florian Butollo, D. T. Cochrane, Jodi Dean, Ulrich Dolata, Emma Dowling, Marlen van den Ecker, Eran Fisher, Christian Fuchs, Helen Hester, Ursula Huws, Kylie Jarrett, Tobias Kämpf, Felix Maschewski, Oliver Nachtwey, Anna-Verena Nosthoff, Tilman Reitz, Sarah T. Roberts, Marisol Sandoval, Stefan Schmalz, Jan-Felix Schrape, Timo Seidl, Nick Srnicek, Philipp Staab, Felix Stalder, Johannes Truffer, Judy Wajcman, Jamie Woodcock.

Literatur

Barth, Thomas, Das inverse Panoptikum: Ein postmoderner Ansatz für die politische Informationsstruktur des Cyberspace, zuerst in: Informatik Forum, Nr.2 1996, S.68-71.

Barth, Thomas: Soziale Kontrolle in der Informationsgesellschaft, Centaurus, Pfaffenweiler 1997.

Barth, Thomas: Die “Unabhängigkeitserklärung des Cyberspace” und der Panoptismus der globalen Netze, in: Medienwissenschaft, Nr.4, 1999, S.402-407.

Bleicher, Joan Kristin: Internet, UVK (UTB), Konstanz 2010.

Bleicher, Joan Kristin: Grundwissen Internet, UVK (UTB), Konstanz 2022.

Carstensen, Tanja, Simon Schaupp und Sebastian Sevignani (Hg.): Theorien des digitalen Kapitalismus: Arbeit, Ökonomie, Politik, Subjekt, Suhrkamp, Frankfurt/M. 2023.

Poster, Mark: The Mode of Information: Poststructuralism and Social Context, Polity Press, Cambridge 1990.

Poster, Mark: The Second Media Age, Polity Press, Cambridge 1995.

Raeithel, Arne: Kommunikation als gegenständliche Tätigkeit, in: Knobloch, C. (Hg.): Kommunikation und Kognition, Nodus, Münster 1989, S.29-70.

Raeithel, Arne: Ein kulturhistorischer Blick auf rechnergestützte Arbeit, in: Wolfgang Coy et al. (Hg.): Sichtweisen der Informatik, vieweg, Wiesbaden 1992, S.125-139.

Raeithel, Arne: Selbstorganisation, Kooperation, Zeichenprozess: Arbeiten zu einer kulturwissenschaftlichen, anwendungsbezogenen Psychologie, Westdt.Vlg., Wiesbaden 1998.

Stalder, Felix: Kultur der Digitalität, Suhrkamp, Berlin 2016.

Zuboff, Shoshana: Das Zeitalter des Überwachungskapitalismus, Campus, Frankfurt/M. 2018.

-Siehe auch die etwas reißerische Polemik (der Kampf um Aufmerksamkeit ist hart) des Rezensenten auf Telepolis: Warum Marxisten die Digitalisierung nicht verstehen

03/7/24

Digitale Mündigkeit

Leena Simon

Computer sind komplex. Sie bis ins letzte Detail zu verstehen, grenzt an Unmöglichkeit. Doch wer Wert auf ein freies und selbstbestimmtes Leben legt, kommt um ein Mindestmaß an Computerverständnis nicht umhin. Denn die Digitalisierung würfelt unsere Gesellschaft ganz schön durcheinander. Damit wir für die technischen Entwicklungen als Gesellschaft Verantwortung übernehmen können, sollten wir unabhängig davon entscheidungsfähig sein. Um mündig zu sein ist es nicht nötig, alles immer und in jedem Augenblick perfekt zu machen. Digitale Mündigkeit bedeutet Verantwortung für das eigene Handeln im digitalen Raum selbst zu tragen.

Was ist digitale Mündigkeit?

„Mündigkeit“ ist zunächst ein Rechtsbegriff. Er bedeutet, dass ein Mensch verantwortlich für sein Leben ist. Historisch leitet er sich ab von altdeutsch Munt, der Bezeichnung für die Verantwortung des früheren Hausherren über seine Frau, Kinder und Gesinde. Mündig konnten damals nur Männer werden, nämlich dann, wenn sie aus der Munt des Vaters heraustraten und für ihr eigenes Leben Verantwortung übernahmen. Frauen gingen über von der Munt des Vaters in die Munt des Ehemannes. Heute ist Mündigkeit vor allem ein rechtlicher Status, der einem Menschen z.B. das Wahlrecht oder das Recht, die Ehe einzugehen, zuspricht.

Mündig sein bedeutet Verantwortung für das eigene Leben zu tragen.

Neben der rechtlichen Bedeutung gibt es auch eine philosophische Definition von Mündigkeit. Immanuel Kant griff den rechtlichen Begriff auf und wendete ihn auf eine ganze Gesellschaft an. Er vergleicht die Geschichte der Menschheit mit dem Heranreifen eines Kindes. Damit legte die Aufklärung die Grundlagen der modernen Demokratie.

Wir tragen also doppelte Verantwortung: Für unser eigenes Leben und für den Fortbestand unserer Gemeinschaft. Dieser Verantwortung müssen wir uns bewusst sein, vor allem dann, wenn wir uns im Internet bewegen. Denn wir tragen ebenfalls Verantwortung für den Fortbestand unserer Kommunikationsgemeinschaft..

Doch Kant warnte damals schon, dass es nicht möglich sei, ad hoc mündig zu werden, wenn man zuvor noch gar nicht frei war. Mündigkeit ist Übungssache. Auch in der digitalen Welt: Menschen werden mit unfreier und komplizierter Software konfrontiert, die ihnen gar nicht die Möglichkeit bietet, deren Funktionsweise zu studieren. Der Umgang mit dem Computer wird oft nur minimal und oberflächlich antrainiert und später nicht mehr hinterfragt.

Heimliche Entmündigung

Meist nehmen wir gar nicht mehr so deutlich wahr, wo und wie wir überall entmündigt werden. Wenn wir einen Kredit nicht erhalten, weil uns eine Datenbank (anhand der statistischen Eigenschaften unserer Nachbarn) als nicht zuverlässig eingestuft hat, oder einen Job nicht antreten dürfen, weil wir vermeintlich Asthmatiker sind (dabei hatten wir nur für den Vater die Medikamente gekauft): Wir kennen diese Gründe nicht und können daher nicht beurteilen, wie sehr die weltweite Datensammlung schon unseren Alltag beeinflusst. Wie soll man da noch Verantwortung für das eigene Leben übernehmen?

Die Filterblase

Um im großen Datendickicht den Überblick zu wahren, wird im Internet – auch zu unserem Nutzen – vieles für uns personalisiert. Beispielsweise die Suchergebnisse, werden von der Suchmaschine auf uns optimiert. Das ist praktisch, denn so findet man viel schneller das, was man wirklich sucht. Doch es ist auch problematisch, da wir meist nur stets das angezeigt bekommen, was wir schon kennen.

Eli Pariser nennt das die „Filterblase“. Treffer, die unsere Gewohnheiten angreifen, oder eine Gegenposition zu unserer Meinung darstellen, sehen wir immer seltener. Und so bewegen wir uns mehr und mehr in einer Umgebung, die nur scheinbar neutral die Realität darstellt: In Wirklichkeit befinden wir uns in einer Blase, die uns die eigene Weltvorstellung als allgemeingültig vorspielt. Und das ist Gift für einen freien Geist, der sich ständig hinterfragen und neu ausrichten können möchte. In Konflikten liegt großes Wachstumspotential, um das wir uns berauben, wenn wir vor lauter Bequemlichkeit andere Meinungen einfach ausblenden.

Verantwortungsbewusstsein

Gegen Personalisierung und heimliche Entmündigung können wir uns zunächst nicht wehren. Daher ist es besonders wichtig, sich diese Phänomene stets ins Bewusstsein zu rufen. Wer sich dabei erwischt, ein Google-Ergebnis unterbewusst als „neutrale Suche“ verbucht zu haben, ist schon einen Schritt weiter, als wer noch immer glaubt, sie sei tatsächlich neutral.

Der erste und wichtigste Schritt in die digitale Mündigkeit ist Verantwortungsbewusstsein. Verantwortung tragen bedeutet nicht, immer alles richtig zu machen, sondern die richtigen Fragen zu stellen und sich mit den Konsequenzen des eigenen Handelns zu konfrontieren. Machen Sie sich stets bewusst, wie viel Ihnen nicht bewusst ist und verhalten Sie sich entsprechend. Unterstützen und schützen Sie Strukturen, die Transparenz und Offenheit ermöglichen, und hinterfragen Sie Strukturen, die Ihnen vorschreiben wollen, was Sie tun oder denken sollen. Üben Sie sich in Eigenwilligkeit, wenn Ihnen Technik Vorschriften machen möchte. Besonders wichtig dabei: Üben Sie, auch Menschen oder Systeme zu hinterfragen, denen Sie vertrauen. Das ist besonders schwer, aber genau hier sind sie besonders leicht hinters Licht zu führen.

Leena Simon: Digitale Mündigkeit. Wie wir mit einer neuen Haltung die Welt retten können, 336 Seiten, Hardcover, 32,00 EUR, ISBN: 978-3-934636-49-1

Dieses Buch weist Wege in die digitale Mündigkeit und liefert das Rüstzeug zum kritischen Denken und Handeln. Denn mit Mut, Entschlossenheit und Übung können wir wieder mündig sein. Dann finden wir auch die Lösungen für die Herausforderungen unserer Zeit. Online bestellen oder mit der ISBN: 978-3-934636-49-1 im Buchhandel bestellen. Buchvorstellung im Blog von Digitalcourage.

Dieser Beitrag wurde nach CC by sa 4.0 rebogged von https://muendigkeit.digital/

11/15/23

Brüssel: Aktivistischer Besuch

Petition gegen die Chatkontrolle überreicht

Konstantin Macher

Wir waren im Oktober mit Aktivist.innen der Kampagne „Stop Scanning Me“ aus 13 europäischen Ländern in Brüssel und haben Europaabgeordneten Unterschriften gegen die Chatkontrolle überreicht.

Stop Scanning Me-Kampagne

Im Rahmen der „Stop Scanning Me“-Kampagne (Übersetzt in etwa: Hört auf, mich zu scannen) hat unser europäischer Dachverband EDRi (European Digital Rights) die Reise von Freiwilligen aus ganz Europa zu einer Aktion im Europäischen Parlament ermöglicht. Drei Tage lang trafen sich Aktivist.innen aus Griechenland, Italien, der Tschechischen Republik, Österreich, Schweden, Finnland, Norwegen, Portugal, Dänemark, Rumänien, Deutschland, Spanien und Frankreich mit Abgeordneten des Europäischen Parlaments. Wir sprachen über die Chatkontrolle (sogenannte CSA-Verordnung) und die schwerwiegenden Folgen, welche das vorgeschlagene Überwachungsgesetz für Menschen haben würde.

Zivilgesellschaft in Brüssel

Die Diskussionen im Oktober fanden vor dem Hintergrund der Veröffentlichung einer investigativen Recherche von europäischen Medienhäusern statt. Journalist.innen hatten aufgedeckt, dass Teile der Europäischen Kommission mit ihrem Gesetzesvorschlag zur Chatkontrolle Interessen einer KI-Lobby vertreten haben. Wenig später wurde außerdem bekannt, dass die für die Chatkontrolle zuständige EU-Innenkommissarin versucht hat, Druck auf kritische Regierungen auszuüben. Dafür soll sie Menschen anhand ihrer religiösen und politischen Ansichten auf Sozialen Medien gezielt mit Desinformation ins Visier genommen haben, um die öffentliche und politische Meinung in den Mitgliedstaaten zu manipulieren, in denen sich die Regierungen dem Gesetz widersetzen.

Angesichts dieser schockierenden Enthüllungen und vor der Abstimmung des Ausschusses für bürgerliche Freiheiten (LIBE) des Europäischen Parlaments über den Chatkontrolle-Vorschlag war es besonders wichtig, der Zivilgesellschaft eine Stimme in Brüssel zu geben. Aus diesem Grund hat unser Dachverband EDRi einer Gruppe von Menschen ermöglicht, nach Brüssel zu kommen, um ihre Bedenken zu diesem Gesetz direkt mit ihren gewählten Abgeordneten zu diskutieren. Mit dabei waren sowohl erfahrene, als auch neue Aktivist.innen, die sich gemeinsam bei den Abgeordneten für den Schutz unserer Grundrechte eingesetzt haben.

Dabei gelang es unserer Gruppe, sich mit mehreren Dutzend Abgeordneten des Europäischen Parlaments zu treffen. Viele der Abgeordneten zeigten sich alarmiert über die Risiken der Chatkontrolle und über die enthüllten Skandale der zuständigen Innenkommissarin Ylva Johansson.

Neben den Advocacy-Treffen, die wir mit den Abgeordneten des Europäischen Parlaments hatten, überreichten wir und die anderen Aktivist.innen die über 200.000 Unterschriften von Menschen, welche die Chatkontrolle ablehnen. Die Unterschriften wurden durch mehrere Petitionen gesammelt, z.B. in Europa von EDRi und in Deutschland von uns gemeinsam mit Campact. Darin bringen viele Menschen ihre Sorgen zur Gefahr durch die Chatkontrolle zum Ausdruck und fordern, Verschlüsselung zu schützen.
Zu den Abgeordneten, die die Unterschriften entgegennahmen und ihre Unterstützung für Verschlüsselung zum Ausdruck brachten, zählten Saskia Bricmont (Grüne/EFA), Patrick Breyer (Piratenpartei, Grüne/EFA), Tiemo Wolken (S&D) Birgit Sippel (S&D) und Alex Agius Saliba (S&D).

reblogged von https://digitalcourage.de/blog/2023/chatkontrolle-petition-bruessel

Mehr zur Chatkontrolle auf unserer Themenseite

11/11/23

eIDAS-Reform: Digitale Brieftasche_mit Ausspähgarantie

Jetzt steht es fest: Die europäische digitale Brieftasche kommt. Aus Sicht von Beobachtern bringt der im Trilog erzielte Kompromiss etliche Verbesserungen im Vergleich zum ursprünglichen Kommissionsentwurf. Bürgerrechtsgruppen und Datenschützer:innen warnen jedoch davor, dass Staaten durch die Wallet eine „panoptische Vogelperspektive“ erhielten.

09.11.2023 Autor Daniel Leisegang auf Mastodon

„Wir haben es geschafft“, jubilierte EU-Kommissar Thierry Breton. Und Nadia Calviño, die Vize-Premierministerin Spaniens, deren Land derzeit den Vorsitz im Rat der EU innehat, versprach, dass die Einigung zur eIDAS-2.0-Verordnung „den Bürgerinnen und Bürgern in der neuen digitalen Welt eine Identität geben und unseren Binnenmarkt vertiefen wird – zum Nutzen der Innovation, der Privatsphäre, der Sicherheit und der Europäischen Union“

Den lang erhofften „Deal“ schlossen EU-Kommission, der Ministerrat und das EU-Parlament am Mittwoch. In einem finalen politischen Trilog haben sie sich auf einen Kompromisstext geeinigt. Damit geht das größte digitalpolitische Projekt der Europäischen Union nun in die Phase der Umsetzung.

Die eIDAS-Reform legt das rechtliche Fundament für die sogenannte „European Digital Identity Wallet“ (ID-Wallet). Demnach müssen bis zum Jahr 2026 alle 27 EU-Mitgliedstaaten ihren Bürger:innen eine digitale Brieftasche anbieten, mit der sie sich dann on- wie offline und in fast allen Lebensbereichen ausweisen können.

Zwei Jahre Verhandlungen

Clemens Schleupner, Referent für Vertrauensdienste & Digitale Identitäten beim Digitalverband Bitkom begrüßt die Einigung: „ID Wallets können sowohl Kosten sparen, indem Identifizierungsprozesse – zum Beispiel bei Banken – schneller und kostengünstiger durchgeführt werden können. Grundsätzlich bieten ID Wallets eine Vielzahl von Möglichkeiten, die heute noch nicht vollständig abzuschätzen sind, und zwar branchenübergreifend.“

Den entsprechenden Verordnungsentwurf dafür hat die Kommission im Juni 2021 vorgelegt. Er soll die eIDAS-Verordnung aus dem Jahr 2014 reformieren, die den sicheren Zugang zu öffentlichen Diensten sowie die Durchführung von Online-Transaktionen und grenzüberschreitenden Transaktionen in der EU regelt.

Datenschützer:innen und Bürgerrechtler:innen kritisierten das Vorhaben von Beginn an aus zwei zentralen Gründen. Zum einen drohe die Reform eine technische Infrastruktur zu schaffen, die es theoretisch ermöglicht, EU-Bürger:innen on- wie offline massenhaft zu identifizieren und zu überwachen. Zum anderen könnten nicht nur öffentliche, sondern auch private Stellen – also etwa Unternehmen – die Wallet einsetzen und ihre Kunden damit potentiell umfassend ausspähen.

Einige der Risiken, die der Ursprungsentwurf barg, wurden im Zuge der zurückliegenden Verhandlungen minimiert oder ausgeräumt. Andere bestehen aus Sicht von Bürgerrechtler:innen weiterhin – und sind so groß, dass Kritiker:innen eindringlich vor einer Nutzung der ID-Wallet warnen.

Der gelöschte Super-Cookie

Über die fortbestehenden Probleme können die erzielten Verbesserungen nicht hinwegtäuschen. Zu Letzteren zählt vor allem die Streichung einer eindeutigen, dauerhaften Personenkennziffer (Unique identifier). Dieser „Super-Cookie“ hätte aus Sicht von Datenschützer:innen und Bürgerrechtler:innen geradezu zum Tracking und Profiling eingeladen. Eine solche Kennziffer soll nun nur noch optional bei grenzüberschreitenden Verwaltungsvorgängen zum Einsatz kommen.

Stattdessen sollen sich die Wallet-Nutzer:innen im Alltag allein mit ihren personenbezogenen Daten, einem Pseudonym oder einem sogenannten Zero Knowledge Proof (zu Deutsch: Null-Wissen-Beweis) identifizieren. Damit können die Nutzer:innen ihre Identität bestätigen, ohne persönliche Informationen über sich preiszugeben.

Allerdings hat die Identifizierung nach wie vor einen Haken: Denn das Recht auf Pseudonymität kann laut dem Kompromiss durch nationales oder durch EU-Recht eingeschränkt werden. Und der Zero Knowledge Proof findet sich im beschlossenen Kompromissentwurf nur als Forderung in den erläuternden Recitals (Erwägungsgründen) der Verordnung und stellt für die EU-Mitgliedstaaten damit keine Verpflichtung dar.

Schutz vor Diskriminierung und Verlinkung

Immerhin: Wer sich gegen den Einsatz der ID-Wallet entscheidet, soll keine Nachteile erleiden. Der Kompromissentwurf sieht – anders als der Kommissionsvorschlag – explizit einen Schutz vor Diskriminierung für Menschen vor, die sich gegen eine Nutzung entscheiden.

Jene, die die Wallet nutzen, sollen nachvollziehbar und transparent darüber bestimmen können, welche Daten sie etwa gegenüber sogenannte relying parties preisgeben und welche nicht. Diese vertrauenswürdigen Parteien, gegenüber denen Nutzer:innen ihre Identität bestätigen, müssen sich vorab in den jeweiligen EU-Mitgliedstaaten registrieren und darlegen, welche Daten sie zu welchem Zweck von den Nutzer:innen anfordern werden. Über ein sogenanntes Datenschutzcockpit können die Nutzer:innen einsehen, welche Daten von ihnen abgefragt und geteilt wurden – und gegebenenfalls Beschwerden einreichen.

Außerdem legt der Kompromiss fest, dass verschiedene Identifikationsvorgänge nicht miteinander verknüpft werden dürfen. Der Schutz der Transaktionsdaten war bis zum Tag der Einigung umkämpft. Transaktionsdaten zeigen an, wann, wie und wo Nutzer:innen die Wallet einsetzen, sie bilden also das konkrete Nutzungsverhalten ab.

Artikel 6a zufolge muss die ID-Wallet dafür „Techniken zur Wahrung der Privatsphäre ermöglichen, die die Unverknüpfbarkeit gewährleisten, wenn die Bescheinigung von Attributen keine Identifizierung des Nutzers erfordert.“ Konkret heißt das: Kauft eine Person also beispielsweise in dem gleichen Geschäft wiederholt Alkohol und belegt dabei mit ihrer ID-Wallet ihr Alter, dann kann das Unternehmen die unterschiedlichen Vorgänge nicht miteinander verknüpfen, um so das Kaufverhalten dieser Person über eine längere Zeitspanne zu tracken.

QWACS: Zertifizierte Unsicherheit

Mindestens ebenso umstritten waren auch die Vorgaben zu Zertifikaten. Bis zuletzt hatten die Trilog-Partner um Artikel 45 und damit um die Frage gerungen, ob die Verordnung Browseranbieter dazu verpflichten soll, bestimmte qualifizierte Zertifikate (QWACs) zu akzeptieren. Bereits Artikel 22 der bestehenden eIDAS-Verordnung verpflichtet Mitgliedstaaten dazu, vertrauenswürdige Listen von qualifizierten Vertrauensdiensteanbietern zu erstellen, zu führen und zu veröffentlichen. Der Kompromisstext sieht darüber hinaus vor, dass Browser die in dem Zertifikat bescheinigten Identitätsdaten „in einer benutzerfreundlichen Weise“ anzeigen, wenn diese eine bestimmte Webseite besuchen.

Zertifikate sollen im Internet die Authentizität, Integrität und Vertraulichkeit der Kommunikation sicherstellen. Sie werden in der Regel von sogenannten Trusted Root Certificate Authorities ausgegeben. Das sind Unternehmen oder Körperschaften, die Zertifikate nach strengen Prüfverfahren validieren, ausstellen und widerrufen. Diesen funktionierenden selbstregulierten Genehmigungsmechanismus umgeht die EU durch die staatlichen Listen – mit womöglich dramatischen Folgen.

Staatliche Behörden könnten, so argumentieren Kritiker:innen, die Zertifikate dazu missbrauchen, um Webseiten zu kompromittieren und so die Internetkommunikation potentiell aller EU-Bürger:innen auszuspähen. Länder wie Kasachstan, China und Russland haben dies in der Vergangenheit getan. Entsprechend alarmiert hatten sich sowohl Bürgerrechtsorganisationen, IT-Sicherheitsexpert:innen und Entwickler:innen im Vorfeld der gestrigen Entscheidung geäußert.

Der Kompromiss sieht zwar vor, dass Browseranbieter selbst darüber entscheiden können, auf welche Weise sie Domains authentifizieren und die Internetkommunikation verschlüsseln. Wörtlich heißt es in einer Ergänzung zum Recital 32 bezüglich QWACs: „Die Verpflichtung zur Anerkennung, Interoperabilität und Unterstützung qualifizierter Zertifikate für die Website-Authentifizierung berührt nicht die Freiheit der Webbrowser, die Sicherheit des Internets, die Domänenauthentifizierung und die Verschlüsselung des Internetverkehrs in einer Weise und mit der Technologie zu gewährleisten, die diese für am besten geeignet halten.“

Allerdings findet sich diese Ergänzung in den Erwägungsgründen der Verordnung, aus denen sich keine bindenden Rechtsfolgen ableiten lassen. Die Hoffnung ruht daher nun auf Browseranbietern wie Mozilla, die sich frühzeitig gegen QWACs ausgesprochen haben. Auch das Sicherheitsteam von Chrome kritisiert die Pläne der EU. Sie befürchten, dass ihnen mit den QWACs eine schwache Verschlüsselung aufgezwungen wird. Die Anbieter könnten nun dazu übergehen, jeweils zwei verschiedene Varianten ihrer Browser anzubieten: eine unsichere für die EU und eine intakte für den Rest der Welt.

Blankoscheck zur Online-Überwachung

Die eIDAS-2.0-Reform würde es staatlichen Behörden aber nicht nur ermöglichen, den Internetverkehr auszuspähen, sondern sie könnten theoretisch auch die Wallets ihrer Bürger:innen einsehen.

Technisch wäre dies leicht zu verhindern gewesen. Das EU-Parlament hatte in seiner Position zum Verordnungsentwurf gefordert, die Wallet so zu gestalten, dass Transaktionsdaten nicht zentral erfasst werden. Der nun vereinbarte Kompromiss sieht nur eine logische Trennung dieser Daten vor. Mit den entsprechenden Befugnissen ist ein Zugriff und damit eine Zusammenführung der Daten theoretisch möglich.

Thomas Lohninger von der Bürgerrechtsorganisation epicenter.works zieht daher ein negatives Resümee der gestrigen Einigung: „Leider war der Zeitdruck der Verhandler am Ende stärker als ihre Sorgfalt. Bei diesem wichtigen Thema könnten wir das noch alle bereuen.“ Trotz der Verbesserungen, die in den vergangenen Monaten erzielt worden seien, warnt Lohninger vor dem neuen System: „Alles was man darüber tut, kann von staatlicher Seite eingesehen werden. Nachdem die Wallet in allen Lebensbereichen eingesetzt werden soll, hat der Staat damit die panoptische Vogelperspektive auf alles, was die Bevölkerung mit der Wallet macht“, so Lohninger.

„Diese Verordnung ist ein Blankoscheck zur Online-Überwachung der Bürger und gefährdet unsere Privatsphäre und Sicherheit im Internet“, kritisiert auch Patrick Breyer, Abgeordneter der Piratenpartei im Europäischen Parlament. „Dieser Deal opfert unverzichtbare Anforderungen im Verhandlungsmandat des Europäischen Parlaments, die die ID-Wallet datenschutzfreundlich und sicher gemacht hätten.“

Eine Wallet für alle EU-Bürger:innen bis 2030

Diese Befürchtungen lassen sich im weiteren legislativen Prozess wohl kaum noch ausräumen. Nach der gestrigen Entscheidung wird es noch ein „technisches Treffen“ geben, wo der Kompromisstext juristisch bereinigt wird. Wesentliche Änderungen sind dabei nicht mehr geplant.

Im Anschluss daran werden Rat und Parlament die Verordnung formell verabschieden. Der Rat tut dies planungsgemäß noch im Dezember dieses Jahres; das Parlament stimmt voraussichtlich am 28. November im ITRE-Ausschuss und im Februar 2024 im Plenum ab. Die Verordnung könnte dann frühestens im nächsten Frühjahr in Kraft treten. Bis zum Herbst 2026 müssten alle Mitgliedstaaten ihren Bürger:innen dann eine ID-Wallet anbieten. Geht es nach der Kommission sollen alle EU-Bürger:innen bis 2030 über eine digitale Identität verfügen.

Parallel zum legislativen Entscheidungsprozess werden aber noch etliche technische Fragen geklärt. Hier lassen sich möglicherweise noch einige der offenen Schlupflöcher schließen. Fest steht bereits, dass die ID-Wallets der jeweiligen Mitgliedstaaten auf der gleichen technischen Architektur (Architecture Reference Framework) basieren sollen, um so EU-weit genutzt werden zu können. Die Details dafür erarbeitet eine technische Arbeitsgruppe.

Der Bundestagsabgeordnete Markus Reichel (CDU) blickt mit Spannung auf deren Tätigkeit in den kommenden Monaten und erwartet von der Bundesregierung ein starkes Bekenntnis zum Datenschutz: „Ohne die explizite Einwilligung des Nutzers, sollten keine Daten geteilt werden können. Genau dafür muss sich die Bundesregierung in den Verhandlungen einsetzen. In der technischen Umsetzung muss die Unbeobachtbarkeit und die Unverknüpfbarkeit der Nutzungsdaten großgeschrieben werden“, so Reichel. Der Erfolg der Wallet hänge von der Sicherheit und dem Datenschutz ab. „Umso wichtiger ist es, diesen für sichere digitale Identitäten auch in der Architektur zu gewährleisten“, sagt der Abgeordnete.

Auch Clemens Schleupner vom Branchenverband bitkom erhofft sich noch Verbesserungen: „Es gibt noch zu viel Interpretationsspielraum für die Mitgliedsstaaten bei technischen Ausgestaltungen wie zum Beispiel bei der Frage, ob nur der Staat oder auch die Privatwirtschaft Wallets herausgeben darf.“ Langfristig könne die europäische digitale Brieftasche den Anstoß dafür geben, verschiedene Sektoren konsequent zu digitalisieren, vor allem die Verwaltung. -von Netzpolizik.org-

08/30/23
Total vernetzt - Nur wer sich anschließt wird nicht ausgeschlossen.

Rezension: Braches-Chyrek u.a. (Hg.): Handbuch Kindheit, Technik & das Digitale

Thomas Barth
Was bedeuten die rasanten medialen und digitalen Transformationen für das Leben von Kindern? Diese Frage wurde „in der deutschsprachigen Kindheitsforschung bislang wenig untersucht“ (Klappentext). Das Handbuch thematisiert zentrale Zusammenhänge und interdisziplinäre Diskurse über Gesellschaft, Technik und Kindheit mit dem Ziel, emanzipatorische Bildungs- und Lernprozesse zu fördern.
Die Herausgeber*innen kommen aus den Bereichen Pädagogik, Sozialpädagogik und Soziologie, ebenso die meisten der insgesamt 26 Beiträger*innen unter denen acht aus Digitalisierungs- oder Medienwissenschaften stammen. Charlotte Röhner und Heinz Sünker, beide emiritiert, sind Nestor*innen der deutschen Kindheitsforschung, Sünker ist zudem Adorno-Experte und sein Blick auf das Digitale geprägt von der Kritischen Theorie der freudomarxistischen Frankfurter Schule. Überwiegend aus dieser kritischen Perspektive diskutiert der erste von vier Teilen des Bandes „Technik und Gesellschaft“, also die sozialen, kulturellen, pädagogischen und politischen Folgen der Digitalisierung. „Welche neuen Zugriffsmöglichkeiten auf kindliche Subjektivität ergeben sich aus der Techniknutzung und welche Widerstandspotentiale (Adorno, Erziehung zur Mündigkeit)? Welche veränderten Konzeptualisierungsansätze von Kindheitspolitik ergeben sich?“ (Verlagstext).
Soziale Aufgaben wie Wert schätzen, Bindung schaffen, Trennung verarbeiten, Grenzen setzen, Identität und Autonomie gewinnen, sie alle unterliegen durch allgegenwärtige Digitalmedien neuen Risiken, etwa prekärer Datensicherheit, leicht zugänglichen jugendgefährdenden Inhalten oder Cybermobbing. Doch das Handbuch thematisiert auch neue Chancen der Digitalmedien. Im zweiten Teil „Digitalisierung und Mediatisierung von Kindheit“ wird die Sozialisation und Kinder als Akteur*innen thematisiert. Der dritte Teil „Digitales Konstruieren, Spielen und Handeln“ legt den Fokus auf die früher meist negativ bewerteten Computer-, Video- und heute auch Online-Spiele, sucht nach kreativen Potentialen, warnt aber auch, etwa vor unreflektiertem Konsum gewalthaltiger Spiele. Der letzte Teil „Digitalisierung und digitale Bildung in Institutionen“ nimmt Probleme und Lösungsansätze in Kitas und Schulen des Elementar- und Primarbereichs in den Blick.
Technologie, Adoption und Pflegefamilien
Prof. Rita Braches-Chyrek war 2010 Mitherausgeberin des Bandes „Kindheit in Pflegefamilien“, doch dieser Aspekt der Kindheitsforschung klingt im vorliegenden Handbuch nur in zwei Beiträgen an: 1. Die Afrikanistin Konstanze N‘Guessan streift mit „Verwandtschaft und Kindheit im Zeitalter assistierter Reproduktion – Einblicke in die ethnographische Erforschung des doing family“ das Thema Adoption und Islam. 2. Der Beitrag „Beobachtung der Beobachteten: Technologie, Schutz und Fürsorge an einem Tag im Leben von Jasmine“ von Rachel Thomson und Ester McGeeney, berichtet aus einer „alternativen Erziehungseinrichtung für Jugendliche, die keinen Zugang zur Regelschule haben“; sie beobachten dort den Medienalltag der fünfzehnjährigen Mutter Jasmine, die in einer Pflegefamilie untergebracht ist (s.u.2.).
1. Verwandtschaft, Kindheit und Technologie
Der Beitrag von N‘Guessan ist der einzige des Bandes, der nicht von digitalen Medien handelt -dafür aber biotechnologische Bezüge zum Transhumanismus aufweist, indem dessen Biologismus auf den Boden der sozialen, kulturellen und psychologischen Tatsachen zurückgeholt wird. Im Fokus stehen medizinische Technologien der assistierten Reproduktion und die kulturelle Herstellung von Verwandtschaft und Familie in verschiedenen Kulturen. Ihre Ausgangsfragen sind: „Was ist Familie und wer gehört dazu? Welche Dimensionen hat Eltern-Sein und wie wird Abstammung kulturell konzeptualisiert?“ Solche Fragen stellt die Ethnologie der „New Kinship Studies“, die seit den 1980er-Jahren die Verwandtschaftsforschung „von der Biologie befreit, die durch euroamerikanische Prägung entstanden sei.“
Verwandtschaft wird und wurde immer kulturell gemacht -und dieser Entstehungsprozess oft mit Biologismen wie „Blut ist dicker als Wasser“ verborgen, was oft schon den Status von Adoptivkindern kompliziert habe. Neue Reproduktionstechniken (NRT) lassen die biologische Simplifizierung heute vielerorts ins Schwimmen geraten. Denn es sind dabei nicht nur zwei, sondern bis zu fünf Personen im engeren Kreis einer konstruierbaren Elternschaft vorhanden: Mutter, Vater, Eispenderin, Samenspender und Leihmutter. Dazu kämen im weiteren Umfeld noch diverse Medizintechniker*innen, die etwa mit ihren Händen unter dem Mikroskop die Eizelle besamen. „NRT und Adoption konstituieren einen Möglichkeitsraum, auf den sich unterschiedlichste Akteur*innen in ihren Überlegungen und Praxen beziehen. Durch die Linse der NRT lässt sich Verwandtschaft als Ergebnis von Handlungen verstehen.“
Konstanze N‘Guessan erläutert an diversen afrikanischen und islamischen Kulturen Praktiken des Verwandt-Machens -und ist mit dieser interkulturellen Perspektive in diesem Handbuch einmalig. Wir erfahren von einem „Unfruchtbarkeitsgürtel“ in Zentral- und Südafrika, wo NRT trotz der hohen Kosten stark gefragt sind und auf andere als die euroamerikanischen Verwandtschafts-Praktiken treffen. In matrinlinearen Gesellschaften, etwa den Macao in Mozambik, können Vaterpflichten und -privilegien auf den Mutterbruder übergehen; in anderen Kulturen gibt es die „Geist- oder Frauenheirat“, wo Vater- bzw. Schwangerschaft durch Zahlung eines Brautpreises auf einen Ahnen oder eine Frau übertragen werden.
In islamischen Kulturen ist entscheidend, ob diese schiitisch oder sunnitisch sind: Bei Sunniten kann schon die Adoption verboten sein, im weniger restriktiven Schiismus bleiben Adoptivkinder zumindest von der patrilinearen Erbfolge ausgeschlossen; seit einer permissiven Fatwa von Ayatolla Khomeini sind in Iran und Libanon NRT-Kinder erlaubt und Adoptierten gleichgestellt. „Die Frage, wie ‚fremde‘ Kinder durch soziale Praktiken und diskursive Rahmungen der Familie zugehörig gemacht werden stellt sich nicht nur bei NRT-Kindern, sondern immer“, so N‘Guessan, denn Verwandtschaft sei eine „biologisch wie sozial unterdeterminierte, gestaltungsoffene wie gestaltungsnotwendige soziale Ordnung“. Damit stellt sie sich dem reaktionär-neoliberalen Mythos von der biologistisch verabsolutierten bourgeoisen Familie ebenso entgegen, wie dies mit breiterer Perspektive der afrikanische Ökonom und Kulturwissenschaftler Felwine Sarr in seinem Manifest Afrotopia tat.
2.Technologie, Schutz und Fürsorge
Thomson und McGeeney stehen mit ihrem britischen „Kinderalltagsprojekt“ in der Tradition materialistisch-feministischer Methodologie, die ihre Forschungstätigkeit eingehend selbstkritisch reflektiert und nach Möglichkeiten „nachhaltigerer Sorge-Relationalitäten“ sucht:
„Die digitalen Medien haben ganz eigene Möglichkeiten geschaffen, die auch neue Arten von erzieherischer Führung erfordern und neue Gebiet ethischer Untersuchungen eröffnen. (…) Junge Menschen in staatlicher Obhut wurden als eine besondere Risikogruppe identifiziert, einschließlich des Risikos in Bezug auf digitale Kulturen… besonders in den Bereichen Adoption und Pflegefamilien kämpfen Sozialarbeiter*innen darum, die Kinder vor der Aufnahme oder der Fortsetzung von Kontakten mit ihren leiblichen Eltern zu bewahren, wenn diese gerichtlich eingeschränkt worden war.“
Digitale Medien, besonders das allgegenwärtige Smartphone, erschweren diese Aufgabe, denn Kinder und Jugendliche verstehen es, sich der Kontrolle zu entziehen. Im Fall der einen Tag wissenschaftlich beobachteten Jasmine wird klar, dass auch sie und ihre Mitschüler*innen die ihnen auferlegten Regeln für den Mediengebrauch zu unterlaufen wissen: „Die ‚Ein-Tag-im-Leben-Methode‘ hat uns diese Art der dichten, affektiven Geometrien einfangen lassen.“ Die Forscher*innen erfahren, wie vermutlich Instagram und Snapchat von minderjährigen Müttern verwendet werden, um Babyfotos zu posten -schon deren Aufnahme wird von der Einrichtung eigentlich untersagt.
Die Konfliktsituation wird von Thomson und McGeeney aus beiden Perspektiven reflektiert: Die Schutzbefohlenen müssen einerseits „beobachtet, überwacht, geschützt und zensiert werden“, andererseits gibt es auch eine „Kinderöffentlichkeit“ mit „den Imperativen: gesehen werden, sichtbar sein, teilhaben in/an einer digitalen Kultur“. Die Autor*innen stellen fest, dass in dieser neuen Kultur „neue Arten der Subjektivität“ entstehen. „Im Kontext einer Aufmerksamkeitsökonomie können wir das Bedürfnis junger Menschen, gekannt und gesehen zu werden, nicht einfach ignorieren“. Jugendliche Medienpraxis unreflektiert „unterdrücken“ zu wollen, halten die beiden Forscher*innen „für irregehend“.
Der emanzipative Ansatz ist bei Thomson und McGeeney deutlich, doch bei der Reflexion des „Neuen“ an der „neuen Subjektivität“ ist noch Luft nach oben. Denken wir an eine 1950er-Jahre-Werbung für Dosen-Ananas: „Toast Hawaii! Da werden Ihre Nachbarn staunen!“ Foodporn auf Instagram posten ist vielleicht nur überkommene Subjektivierung in digitalisierter Werbeästhetik, die kunstvolle Beleuchtung und Belichtung von damals wird heute durch einen das Foto farblich aufpeppenden digitalen „Filter“ ersetzt.
Fazit
Die emanzipatorische Haltung ist löblich, doch leider gelingt der Transfer der Medienkritik von Adorno ff. auf die Digitalisierung durch die Bank nur ungenügend. Die zweifelhafte Referenz von Heidegger als Paten der Technikkritik überzeugt ebenso wenig wie der gelegentliche, hilflos wirkende Verweis auf neueste Ansätze wie Shoshana Zuboffs „Überwachungskapitalismus“. Dabei wäre bei Kenntnis der kritischen Diskurse zu Computer- und Internetkultur gar nicht nötig, das Rad neu zu erfinden: Der Adorno-Experte Mark Poster etwa kombiniert seit 30 Jahren Freudomarxismus mit postmodernen Ansätzen, etwa den Heidegger implizit weiterführenden Theorien von Michel Foucault, bei seiner Digitalmedienkritik.
Den meisten Beiträgen scheinen auch tiefer gehende Kenntnisse der technologischen und politischen Hintergründe der Digitalisierung zu fehlen, mit den beiden Ausnahmen des Professors für Digital Humanities (Sussex) David M. Berry und des Diplom-Informatikers Marius Melzer, der beim Chaos Computer Club ein Schülerprojekt betreibt. Bei Melzer bleibt die Warnung vor Manipulation im Internet nicht vage, sondern er führt konkret die wohl dramatischste Auseinandersetzung auf diesem Gebiet an:
„Das Beispiel Julian Assange zeigt dies deutlich: Die nach heutigem Wissensstand fingierten Vergewaltigungsvorwürfe (Melzer 2020) führten dazu, dass die vorhergegangene Wikileaks-Veröffentlichung „Collateral Murder“, die zeigte wie US-Soldaten im Irakkrieg lachend aus einem Hubschrauber auf Zivilisten und Journalisten feuerten, in Vergessenheit geriet.“ (S.114)
Die mit nur einem Satz allzu sparsame Erwähnung dieser digitalen Medienschlacht um die (nicht nur Medien-) Geschichte schreibende Enthüllungsplattform Wikileaks brachte einen gravierenden Fehler: In der Literaturliste wurde beim Quellennachweis der Vorname von N.Melzer offenbar zu M.Melzer fehlkorrigiert. Man nahm wohl ein Selbstzitat von Marius Melzer an und kannte nicht den wirklich zitierten weltberühmten Autor Nils Melzer, den UNO-Folterbeauftragten und Schweizer Professor für Völkerrecht. Nils Melzer hatte die gegenwärtige Folter des Wikileaks-Gründers Julian Assange angeprangert, den er als Opfer einer perfiden Intrige sieht. Er hatte in schockierenden Artikeln und seinem Buch „Der Fall Assange“ detailliert enthüllt, wie mutmaßlich Geheimdienste die Regierungen der USA und Großbritanniens sowie die schwedische Justiz den politisch verfolgten Assange als Vergewaltiger abgestempelt hatten. Diese Fakten wurden in westlichen Medien jedoch weitgehend vertuscht, was den Irrtum von Verlag, Lektoren und Korrekturat begründen dürfte. Somit wird dieses Handbuch selbst zu einem Beispiel gelungener Medienmanipulation im Digitalzeitalter.

Rita Braches-Chyrek, Jo Moran-Ellis, Charlotte Röhner, Heinz Sünker (Hrsg.): Handbuch Kindheit, Technik und das Digitale. Verlag Barbara Budrich GmbH (Opladen, Berlin, Toronto) 2021. 422 S., 69,90 Euro.

09/1/22
CC-by-sa-Gnsin

Transhumanismus, Triefnase & Digitalisierung

Thomas Barth

Transhumanistische Aktivisten und Philosophen schwelgen in Visionen einer digitalen Zukunft. Das Paradies soll uns spätestens nach dem Upload in die Virtual Reality einer bewohnbaren Cloud erwarten, wenn unser Geist sich digitalisiert selbst simulierend im Himmelreich der Matrix wiederfindet. Doch hienieden warten einstweilen noch ein paar Hindernisse, besonders hierzulande, wo selbst das stinknormale Internet dem 16 bleierne Jahre währenden Merkel-Staat als „Neuland“ galt.

Das irdische Elend der Digitalisierung wie auch die Schwächen des cishumanen Mängelwesens Mensch zeigten sich am 4. Oktober 2019 im Tagungszentrum der Diözese Rottenburg-Stuttgart. Die Kirche wollte den Transhumanismus erörtern und hatte neben dem Theologen Hoff dafür den Religionsphilosophen Professor Göcke und den „bekanntesten deutschsprachigen Transhumanisten“ Professor Sorgner eingeladen. Pech war, Sorgner kam stark vergrippt, Göcke stark verspätet, weil mit der offenbar fehldigitalisierten Deutschen Bahn.

Was ist der Mensch?

Was ist der Mensch? Was soll er glauben, worauf soll er hoffen? Diese Fragen bewegen Denker und Philosophen, Theologen wie Transhumanisten: „Der Transhumanismus geht davon aus, dass sich der Mensch als ein Produkt der biologischen Evolution auch selbstständig technisch bis hin zu einem neuen Mensch-Maschine-Wesen oder einer Cyberspace-Entität weiterentwickeln kann und sollte.

Der durchaus transhuman geneigte Göcke beginnt so die Einleitung zu seinem Buch „Designobjekt Mensch: Die Agenda des Transhumanismus auf dem Prüfstand“. Da kommt digitale Technologie wie gerufen, etwa als Hirn-Chip, als Big-Gene-Data, KI oder in fernerer Zukunft als virtueller Lebensraum ganz entkörperlichter Menschen (brain uploading). Bedeutsamer Zankapfel der Digitalisierung ist der Datenschutz, der nach Meinung Prof.Sorgners leider auch transhumanem Streben nach kybernetischer wie genetischer Verbesserung des Menschen im Weg steht.

Big-Data-Firmen lieben die Transhumanisten, wie etwa die Super-KI-Forscher des Machine Intelligence Research Institute , mehr als Datenschützer. Google etwa hat mit Ray Kurzweil einen prominenten Transhumanisten zum Forschungsdirektor gemacht, Tesla-Milliardär Elon Musk will mit seiner neuen Firma Neuralink Hirnimplantate entwickeln. Bei Facebook treibt Mark Zuckerberg persönlich transhumane Projekte voran, etwa die Worterkennung per Hirnscan. Das dabei angestrebte Brain-Diktaphon würde nebenbei dem maschinellen Gedankenlesen etwas näher kommen, das der NSA bei ihrer Totalüberwachung noch schmerzlich fehlt. Auch deutsche Transhumane scheinen Belangen der IT-Wirtschaft nicht abgeneigt, wie die Diözese Rottenburg auf oben erwähnter Tagung feststellen konnte.

Prof. Sorgner ließ es sich dort nicht nehmen, die Debatte mit einem Bonmot der IT-Industrie zu bereichern: „Daten sind das neue Öl!“ Unter dieser Parole hatte die Industrielobby bekanntlich versucht, die neue EU-Datenschutzverordnung zu torpedieren, wie eine Polit-Dokumentation zeigte. Aus Angst davor, die EU könnte von China digital abgehängt werden, tritt Sorgner dafür ein, ein europäisches Social-Credit-System nach chinesischem Vorbild einzuführen, inklusive einer personalisierten Dauerüberwachung der kompletten EU-Bevölkerung:

Warum es für uns keine realistische Position ist, die Datenerfassung zu unterlassen: Der zentrale politische Grund für eine umfassende Datensammlung ist, dass wir in einer globalisierten Welt leben und das Daten das ‚Neue Öl‘ sind, wie viele Experten betonen: Öl bedeutet Macht und finanzielles Florieren. Angesichts dieser Erkenntnis ist es keine realistische Option, keine personalisierten Daten zu sammeln… In China wird ab 2020 ein Sozialkreditsystem flächendeckend angewendet werden. Die Menge an digitalen Daten, die auf diese Weise erhoben wird, ist kaum zu unterschätzen. Je mehr digitale Daten verfügbar sind, desto mehr Macht und Geld kann realisiert werden. Europa dagegen hat Datenschutzbestimmungen institutionalisiert, die einer hilfreichen Erfassung digitaler Daten entgegenstehen.“ Prof. Stefan Lorenz Sorgner 

Damit wäre Sorgner wohl ein transhumaner Extremist, sogar aus Sicht der 2015 gegründeten Transhumanistischen Partei Deutschlands (TPD). Die pocht in den Leitlinien ihres Parteiprogramms Version 2.0 gleich an erster Stelle auf die Grundrechte der Menschenwürde und der informationellen Selbstbestimmung. Sorgner übergeht dagegen in seinem Redebeitrag den möglichen Einwand, dass blinde Gier nach Macht und Geld geradewegs in einen digitalen Totalitarismus führen könnte. Auch an seinem Buch mit dem reißerischen Titel „Transhumanismus: ‚Die gefährlichste Idee der Welt‘!?“ (2016), fällt auf, dass kaum Bedenken, Zweifel oder Kritik an Technologien vorkommen. Dabei haben insbesondere Eingriffe in das menschliche Gehirn eine dunkle Geschichte -man denke an Militär- und Geheimdienst-Projekte wie das Zimbardo-Experiment, LSD-Forschung, Gehirnwäsche oder MKUltra. Der Transhumanismus muss sich außerdem angesichts lobbyistischer Verfilzungen und enormer Geldsummen, die auf dem Spiel stehen, auch fragen, wer und warum ihn finanziert.

Thomas Hobbes und Bioshock

Hinter Sorgners transhumanem Bejahen des technischen Fortschritts, das geradezu von einer Euphorie in die nächste taumelt, verbirgt sich jedoch ein zutiefst pessimistisches Menschenbild: Der „Mensch als des Menschen Wolf“ des Frühaufklärers Thomas Hobbes, wie man es im „Bioshock“-Computerspiel in einer transhumanen Welt der Gen-Mutanten nachspielen kann. Dort werden individuell gestaltete Menschen zu einander bekriegenden Monstren in einer Gesellschaft, die nach den darwinistisch-libertären Grundsätzen von Ayn Rand konzipiert ist (so Weber in Weber/Zoglauer 2015 S.55,69).

Als Begründer der modernen politischen Philosophie empfahl Hobbes zur Überwindung der angeblich menschlichen Gewaltnatur den frühtotalitären Absolutismus eines staatlichen Leviathans. Angesichts einer Welt voller psychopathischer Wolfsmenschen ist eine an Ethik orientierte Lebenshaltung natürlich nicht ratsam, meint offenbar Sorgner, wenn er sagt:

Moralischer zu sein hingegen, ist ggf. nicht der zentrale Wunsch vieler Menschen. Überspitzt formuliert liegt dies meiner Meinung nach darin begründet, dass Moralität in der Regel im Interesse der nicht-moralischen Menschen ist und moralische Menschen eher ausgenutzt, ausgebeutet und unterdrückt werden.“ Sorgner 2016, S.62

Kritisch sieht Sorgner daher eine von manchen Transhumanisten geforderte gesetzliche Verpflichtung zum „moralischen Enhancement“ (und das ist fast die einzige Technikkritik im ganzen Buch). Dabei ist hier nicht ethische Bildung und Erziehung gemeint, sondern Moral etwa per Hirnimplantat oder Einflößung von Drogen, die analog zur Impfpflicht verordnet werden könnte. Das lehnt Sorgner ab. Aber nicht, weil ein Herumpfuschen an den höchsten Funktionen des menschlichen Gehirns unsere Gesundheit, Freiheit und Würde beeinträchtigen könnte, sondern -ganz im Sinne eines Bioshock-Rechtslibertarismus nach Ayn Rand- wegen des „globalen Wettbewerbs“:

Eine solche Regelung mag zwar praktisch nicht ausgeschlossen sein, jedoch erscheint sie mir in keinem Fall im politischen Interesse des betroffenen Landes zu sein, da ein Land mit einer besonders moralischen Bevölkerung im Kontext des globalen Wettbewerbs sicherlich nicht lange bestehen kann.“ Sorgner 2016, S.63

Janina Loh, die Sorgners „Metahumanismus“ in ihrem Buch „Trans- und Posthumanismus zur Einführung“ in einem kurzen Kapitel analysiert, mag diesen letztlich nicht als eigenständigen Ansatz anerkennen (Loh 2018, S.175). Auch Sorgners duales Theoriesystem von Kohlenstoff- bzw. Siliziumbasiertem Transhumanismus (womit er Bio- von Digitaltechnik trennt) lehnt Loh als zu schematisch und daher nur bedingt brauchbar ab (S.78).Aber Loh schreibt Sorgner auch zu, die von Transhumanisten prognostizierte Unsterblichkeit nur als „rhetorisches Mittel“ zu sehen (S.173), hat dabei jedoch evtl. überlesen, dass Sorgner Unsterblichkeit zwar für unmöglich erklärte, aber nur wegen eines in Milliarden Jahren drohenden kosmologischen Kollaps des Universums (Sorgner 2016 S.11, 2018 S.157).

Bis dahin könnte Sorgners extrem langlebiger (wenn auch im haarspalterisch-philosophischen Sinne nicht völlig unsterblicher) Transhumaner noch eine ganze Menge Neutrinos die Galaxis runterfließen sehen -und evtl. auch eine Revision der schließlich nur auf läppischen 200 Jahren Forschung basierenden Big-Bang-Theorie. Der Kritik am transhumanen Unsterblichkeitsstreben entgeht Sorgner mit seiner kosmologischen Scholastik aber nicht, der Frage nach sozialer Verantwortung hier und heute ebenso wenig.

Unsoziale Weapons of Math Destruction

Die Mathematikerin Cathy O‘Neil, die wirklich etwas von der Technik und dem Code dahinter versteht, fordert etwas mehr „moralisches Vorstellungsvermögen“, denn „Big Data-Prozesse kodifizieren die Vergangenheit und können nicht die Zukunft erfinden“ (S.276). Cathy O‘Neil spricht von Weapons of Math Destruction, also Mathe-Vernichtungswaffen (analog zu Massenvernichtungswaffen), warnt mit Blick auf Google, Amazon und Facebook davor, dass „Daten privatisiert und privat genutzt werden, um Profite zu erzeugen und Macht zu gewinnen“. Man müsse die Digitalisierung und ihre Algorithmen bändigen, indem man sie öffentlicher Aufsicht und die sie betreibenden Firmen mit „verpflichtenden Standards der Rechenschaftslegung“ staatlicher Regulierung unterwirft (S.308). Sie weist darauf hin, dass der Trump-Nestor „Steve Bannon, selbst während er gezielt daran arbeitet, das öffentliche Vertrauen in Wissenschaft zu untergraben, im Verwaltungsrat von Cambridge Analytica sitzt -einer politischen Datenfirma, die behauptet, sie habe Trump zum Wahlsieg verholfen…“ (S.313).

Heiße PR-Luft einer schmuddeligen Dotcom-Firma? Oder die üblichen Wahlmanipulationen im digitalen Kapitalismus, nur leider diesmal aufgeflogen? Manche KI-Kritiker sehen etwa in „lernfähigen neuronalen Netzen“, die aktuell als KI gepriesen werden, eine aufgeblasene Hype. Diese „KI“ wären eher „spreadsheets on steroids“ -Tabellenkalkulation auf Steroiden. So zitiert Schnetker in seiner Kritik der „Transhumanistischen Mythologie“, den DARPA-KI-Experten John Launchbury (Schnetker S.75). Cathy O‘Neil kritisiert die unsozialen Folgen des Einsatzes solcher „KI“ als klassistisch, rassistisch und sexistisch:

„Sie versprechen Effizienz und Gerechtigkeit, manipulieren dabei jedoch die höhere Bildung, verursachen zusätzliche Schulden, fördern massenhaft Gefängnisstrafen, prügeln bei jeder Gelegenheit auf die Armen ein und untergraben die Demokratie.“ (O‘Neil S.270)

Literatur

Göcke, B.P.: Designobjekt Mensch?! Ein Diskursbeitrag über Probleme und Chancen transhumanistischer Menschenoptimierung.“ In: Benedikt Paul Göcke/ Frank Meier-Hamidi (Hg.): Designobjekt Mensch. Der Transhumanismus auf dem Prüfstand. Freiburg i.Br.: Herder 2018, 117-152

Loh, Janina: Trans- und Posthumanismus zur Einführung, Hamburg: Junius 2018

Loh, Janina: Transhumanismus: Den Menschen weiterentwickeln, um ihn besser kontrollieren zu können, Berliner Gazette 15.8.2017

O‘Neil, Cathy: Angriff der Algorithmen, München: Hanser 2017

Schnetker, M.F.J.: Transhumanistische Mythologie: Rechte Utopien einer technologischen Erlösung, Münster: Unrast 2019

Sorgner, S.L.: Transhumanismus: ‚Die gefährlichste Idee der Welt‘!?, Herder: Freiburg 2016

Sorgner, S.L.: Was wollen Transhumanisten? In: Göcke/ Meier-Hamidi (2018) 153-180

Weber, K. u. T. Zoglauer: Verbesserte Menschen: Ethische und technikwissenschaftliche Überlegungen, München: K.Alber 2015

12/13/21

Rezension Nils Melzer: Der Fall Julian Assange

Nils Melzer: Der Fall Julian Assange. Geschichte einer Verfolgung – Der spektakuläre Report des UNO-Sonderberichterstatters für Folter, Piper Verlag 2021

Hermine Humboldt

Hat die schwedische Justiz Beweise gefälscht und Zeugenaussagen manipuliert, um einen Vergewaltigungsverdacht gegen Julian Assange zu konstruieren? Der UNO-Menschenrechtsexperte Prof. Nils Melzer war anfangs kein Assange-Unterstützer, aber er nutzte sein diplomatisches Mandat für eigene Ermittlungen im Fall Assange.

Was hat der Fall Assange mit Netzphilosophie zu tun? Der Schweizer Netzphilosoph Felix Stalder wies schon 2016 in seinem bahnbrechenden Buch „Die Kultur der Digitalität“ auf eine westliche Machtelite hin, die er als „den inneren Kern des postdemokratischen Systems“ bezeichnete, „bestehend aus den Spitzen der Wirtschaft, der Politik und der Geheimdienste“ (Stalder 2016, S.230). Der Begriff „Postdemokratie“ markiert eine Kritik an westlichen Ländern, die von einer schleichenden Entdemokratisierung und Herrschaft von Technokraten ausgeht, die sich ausgeklügelter medialer Massenmanipulation bedient.

„Die Grenzen zwischen postdemokratischen Massenmedien und staatlichen Nachrichtendiensten sind fließend. Wie inzwischen bekannt ist, bestehen zwischen beiden Bereichen personelle Kontinuitäten und inhaltliche Gemeinsamkeiten.“ (Stalder 2016, S.234)

In seinem Buch „Der Fall Assange“ bestätigt Nils Melzer die Analyse seines Schweizer Landsmanns Felix Stalder in spektakulärer Weise: Denn der Fall Assange ist zweifellos einer der größten Justizskandale die wir kennen (sollten). Den jedoch die wenigsten in voller Tragweite zur Kenntnis nehmen können, denn es ist auch ein eklatanter Fall von Medienversagen der westlichen „freien Presse“. An deren tatsächliche Freiheit kann man angesichts ihrer äußerst desolaten (Nicht-) Berichterstattung zu weiten Teilen dieser Story höchstens noch eingeschränkt glauben -wie auch der Philosoph Stalder gut begründet argumentiert hatte. 2010 wurde Julian Assange zum „Staatsfeind Nr.1“ für die USA und Großbritannien und geriet ins Fadenkreuz der mächtigsten Geheimdienste der Welt: Der CIA, NSA, FBI (und der ca. 30 weiteren US-Geheimdienste) sowie der Britischen MI5, MI6 und GCHQ. Diese Dienste warfen, so muss man annehmen, angesichts der Wikileaks-Enthüllungen ihre ganze Macht in die Waagschale. Dazu gehört auch die Macht über Massenmedien, Politik und Justiz vieler Länder -ganz offensichtlich hier der Justiz in Schweden und England.

Mit dem „Afghan War Diary“ veröffentlicht WikiLeaks 2010 das größte Leak der US-Militärgeschichte, mitsamt Beweisen für Kriegsverbrechen und Folter. Kurz danach verdächtigt Schweden WikiLeaks-Gründer Julian Assange der Vergewaltigung, und ein geheimes US-Schwurgericht ermittelt wegen Spionage. Als ihn Ecuador nach jahrelangem Botschaftsasyl der britischen Polizei überstellt, verlangen die USA sofort seine Auslieferung und drohen mit 175 Jahren Haft. Nils Melzer, UNO-Sonderberichterstatter für Folter, will sich zunächst gar nicht auf den Fall einlassen. Erst als er Assange im Gefängnis besucht und die Fakten recherchiert, durchschaut er das Täuschungsmanöver der Staaten und beginnt den Fall als das zu sehen, was er wirklich ist: die Geschichte einer politischen Verfolgung. An Assange soll ein Exempel statuiert werden – zur Abschreckung aller, die die schmutzigen Geheimnisse der Mächtigen ans Licht ziehen wollen. Dieses packende Buch erzählt erstmals die vollständige Geschichte von Nils Melzers Untersuchung. (Piper-Verlagstext)

Der UNO-Menschenrechts- und Folterexperte Prof. Nils Melzer war anfangs kein Assange-Unterstützer. Melzer ist ein Anwalt der Menschenrechte, berufen von der UNO, und er nutzte sein diplomatisches Mandat für eigene Ermittlungen im Fall Assange -angefangen bei dem angeblichen „Vergewaltigungsverdacht“ an zwei Schwedinnen, den uns die Medien seit zehn Jahren vor jeder Erwähnung von Julian Assange präsentierten. Kritiker wie der Rezensent oder der Buchautor Gerd R. Rüger haben diese Bezichtigungen niemals geglaubt und immer von einer CIA-Intrige gegen Assange gesprochen -sie wurden dafür als „Verschwörungstheoretiker“ denunziert. Nun zeigt sich, dass wir Recht hatten: Es war eine Justiz-Geheimdienstintrige gegen Assange. Denn Prof. Melzer findet, wie er entsetzt feststellen muss, manipulierte schwedische Justizakten, und schreibt in seinem Buch über „die behördliche Nötigung der beiden Frauen zur Anpassung ihrer Aussagen an das offiziell forcierte Vergewaltigungsnarrativ“ (S.149).

Wikileaksgründer im britischen Guantánamo

London, Juni 2021. Im bestbewachten Knast Ihrer Majestät, dem Hochsicherheitsgefängnis Belmarsh, dem „britischen Guantánamo“, wird Julian Assange gefangen gehalten. Der wohl bislang bedeutendste Journalist des 21. Jahrhunderts ist auch inhaftiert, weil er die Foltermethoden des berüchtigten US-Gefangenenlagers Guantánamo enthüllte, jenem US-Gulag also, den der ehemalige US-Präsident Barack Obama eigentlich schließen wollte. Aber nicht die Verantwortlichen in den USA, sondern Assange wurde angeklagt: wegen der Veröffentlichung geheimer Dokumente – gutes Recht von Enthüllungsjournalisten – und wegen angeblicher Verstöße gegen das Anti-Spionage“-Gesetz, eines Relikts aus Zeiten des Ersten Weltkriegs. Der Schauprozess dauert an, das Unrechtsregime in London hat gerade, wie erwartet, den US-Anklägern die Auslieferung des politisch Verfolgten genehmigt.

Unsere Medien ARD, ZDF usw. betreiben eine systematisch verwirrende Berichterstattung über die Der-Fall-Assange-Enthüllungen von Nils Melzer, so droht der Kern seiner Botschaft unterzugehen: Die schwedische Justiz hat 2010 gezielt Beweise gefälscht und Zeugenaussagen manipulierte, um einen Vergewaltigungsverdacht gegen Julian Assange überhaupt erst zu konstruieren.

Der UN-Sonderberichterstatters zum Thema Folter ist Schweizer, aber Nils Melzer spricht auch fließend Schwedisch ein sagenhafter Glücksfall in der Sache Assange. Melzer arbeitete sich durch die schwedischen Akten zum Fall Assange. Doch sein bahnbrechendes Fazit wollte in unseren Leitmedien kaum jemand hören. Erst mühsam kämpfte er sich durch Netzmedien (!) wenigstens an den Rand der öffentlichen Aufmerksamkeit. Jetzt legte er ein Buch vor, das seine Arbeit akribisch beschreibt, „Der Fall Julian Assange: Geschichte einer Verfolgung“, und folgert

Der eigentliche Zweck der Verfolgung von Assange ist nicht in erster Linie die persönliche Bestrafung von Assange, sondern die Etablierung eines Präzedenzfalles mit globaler Abschreckungswirkung für andere Journalisten, Publizisten und Aktivisten, um künftig weltweit jeden strafrechtlich verfolgen zu können, der es wagen sollte, die schmutzigen Geheimnisse der Regierungen ans Licht der Öffentlichkeit zu ziehen.“ Melzer S.230

Prof. Nils Melzer kritisiert die Leitmedien. Zwar würden einige Meinungsbeiträge halbherzig Partei für Assange ergreifen und auch die Gefahr für die Pressefreiheit anerkennen, „doch kein einziges Medienhaus protestiert gegen die den ganzen Fall durchziehende Justizwillkür“ (S.312). Die Justizwillkür zeige sich in der britischen Willfährigkeit gegenüber der US-Anklage vor dem Londoner Gericht:

Schritt für Schritt wurden auch die abwegigsten Argumente der USA kritiklos bestätigt. Gleichzeitig, fast wie im Vorbeigehen, wischte Bezirksrichterin Baraitser sowohl die rechtlichen Einwände als auch die entlastenden Gutachten und Zeugenaussagen der Verteidigung ohne viel Federlesens vom Tisch.“Melzer S.318

Prof. Nils Melzer kommt in seinem Bericht, der sich wie ein Justizthriller liest, also zu Schlussfolgerungen, die sich weitgehend mit dem decken, was Assange-Anhänger seit zehn Jahren skandalisieren: Der WikiLeaks-Gründer wurde Opfer einer Intrige, einer gnadenlosen Rufmordkampagne sowie politischer Verfolgung.

Bei dieser großangelegten Intrige handelt es sich demnach um Staatsverbrechen, für die die Verantwortlichen der beteiligten Staaten – mindestens der USA, Großbritannien, Schweden und zuletzt auch Ecuador – eigentlich vor Gericht gehören würden. Gegen Assange konnten die USA vor Gericht, anders als die Londoner Richterin in ihrem Urteil behauptet, aus Melzers Sicht nichts strafrechtlich Relevantes vorweisen. In einem rechtsstaatlichen Verfahren wäre er schon lange ein freier Mann. Das läuft schließlich auf den Vorwurf der Justizwillkür hinaus.

Westliche Massenmedien als Mittäter

Prof. Nils Melzer zeigt sich in seinem Buch überzeugt, die westlichen Medien hätten sich mit ihrer willfährigen Beteiligung an der Anti-Assange-Rufmordkampagne zu Gehilfen einer perfiden psychischen Folter gemacht – er spricht von „öffentlichem Mobbing“ (S.109). Der UNO-Experte kritisiert auch das anhaltende Ausbleiben medialer Aufmerksamkeit für den Fall Assange. Würden westliche Leitmedien die Justizwillkür angemessen skandalisieren, so seine These, würde das windige Verfahren rasch eingestellt: „Denn wenn Regierungen eines fürchten, dann ist es das gebündelte Scheinwerferlicht und die kritischen Fragen der Massenmedien.“ (S.312)

Beides bleibt jedoch aus. Stattdessen greifen westliche Leitmedien Nils Melzer an, den Überbringer der unbequemen Botschaft: Der skandalösen Botschaft, dass im Westen ein Dissident gefoltert wird, von den eigenen Regierungen, nicht im feindlichen Ausland. Unsere Leit- und Netzmedien ignorieren Melzers Erkenntnisse und berichten lieber noch kleinste und selbst konstruierte Verfehlungen von Julian Assange (wie seine angeblich hungernde Katze im Botschaftsasyl) zehn Jahre mehrheitlich breitgetreten und ihn zu einem Außenseiter stigmatisiert. Rückgratlose Leitmedien sehen bei Melzer nun wohl ihre eigene Erbärmlichkeit bestätigt -von derart autorisierter Stelle, dass sie nur peinliches Schweigen darüber breiten möchten. Melzers Buch ist eine weite Verbreitung zu wünschen, besonders unter Freunden der Netzphilosophie.

Nils Melzer: Der Fall Julian Assange. Geschichte einer Verfolgung – Der spektakuläre Report des UNO-Sonderberichterstatters für Folter, (Mitautor: Oliver Kobold ), Piper Verlag 2021, 336 Seiten, 22,00 Euro. https://www.piper.de/buecher/der-fall-julian-assange-isbn-978-3-492-07076-8

04/28/21

Summa technologiae: Der Internet-Kritiker Stanislaw Lem

Gerd Peter Tellurio

In den 2000er Jahren wurde Stanislaw Lem (1921-2006), Autor des weltberühmten Romans Solaris zum Kritiker des Internets und der Informationsgesellschaft – die von ihm vor allem in der Summa technologiae prognostiziert worden waren. Vor allem dort erörterte Lem das Verhältnis von Mensch und Computer sowie die Veränderung von Kultur und Gesellschaft vor dem Hintergrund einer Energie- und Informationskrise, der „Megabit-Bombe“ (vgl. Hennings 1983, S.82). Er vertritt eine biologistische Wahrheits- und Erkenntnislehre, die das Leben auf unserem Planeten als Zeugen beruft.

Erkenntnisse -das sind wahre Informationen. Die Evolution ist eine milliardenjährige Zucht solcher mit konstruktiven Absichten gesammelten und überprüften Informationen.“ (Summa, S.V)

Die Summa technologiae ist ein Buch von Lem, das 1964 erstmals veröffentlicht wurde, und es brachte Lem endlich auch Anerkennung als Wissenschaftler, wie Jarzebski berichtet (1986, S.26). Die Summa wurde 1976 von Friedrich Griese ins Deutsche übersetzt und die BRD-Ausgabe erschien 1976 im Insel-Verlag und 1981 als Taschenbuch bei Suhrkamp. Die DDR-Ausgabe erschien 1980 im Verlag Volk und Welt, Berlin. Erst im Jahr 2013 (!) erschien eine englische Ausgabe an der Universität von Minnesota -Grund für die Missachtung des großen polnischen Autors war vermutlich Lems Konflikt mit der Gilde der US-Autoren der SF (unten mehr dazu).

Der Titel des Werkes bezieht sich auf die großen „Summen“ der Theologie: Summa theologica von Thomas von Aquin bzw. Summa Theologiae von Albertus Magnus. „Technologie“ wird von Lem als die Gesamtheit der materiellen Grundlagen unserer Zivilisation und Kultur verstanden. Der Autor nähert sich seinem Thema auf philosophische Weise. Er will aufzeigen, was wir überhaupt von Wissenschaft und Technik erhoffen dürfen. Die oft im Zusammenhang mit diesem Werk erwähnten Voraussagen Lems zur „virtuellen Realität“ sind eigentlich nur Nebenprodukte. Für die tatsächliche informationstechnische Entwicklung dürften diese Voraussagen – mangels früherer englischer Übersetzung des Werks – ohne große Wirkung geblieben sein.

Prognosen der Digitalität, KI und Informationsgesellschaft

Bei den einschlägigen Prognosen finden wir vor allem die von Lem „Phantomatik“ genannte Virtuelle Realität, was später VR-Brille oder eyephones (Lem 2002, S.63) heißen sollte nannte Lem 1964 „Gegenauge“. Ihn interessierte die Möglichkeit, künstliche Welten zu schaffen, die sich nicht mehr von der natürlichen Realität unterscheiden lassen -William Gibson verfolgte diese Idee in Neuromancer weiter (der Matrix-Vorlage).

Lem prognostizierte auch die Künstliche Intelligenz, die er als „Intellektronik“ bezeichnet, und die durch „Informationszüchtung“ entstehen sollte. Heutige „selbstlernende Algorithmen“ sind erst ein schwacher Vorgeschmack von Lems an der biologischen Evolution orientierten Methode. Die führte ihn bis zu einer in westdeutschen TFA-Debatten (Technikfolgen-Abschätzung) 1981 diskutierten „Ethosphäre“, die unethisches Verhalten (von Menschen!) kybernetisch unterbinden sollte (Hennings 1983, S.7). Wichtig in der Summa technologiae ist die Ausweitung des Begriffs „Technologie“. „Technologien“ sind gemäß Lem „die Verfahren der Verwirklichung von Zielen, die sich die Gesellschaft gesetzt hat, aber auch solcher, die niemand im Auge hatte, als man ans Werk ging“. Als „Effektoren“ in solchen Verfahren kommen nicht nur einfache Werkzeuge und Apparate (Hammer, Schreibmaschine usw.) und rückgekoppelte Systeme (Computer, Tier, Mensch) in Frage, sondern auch sich selbst verändernde Systeme (z. B. eine lebende Tierart) oder sogar Systeme mit noch höherem Freiheitsgrad, bei denen die Auswahl oder sogar Erschaffung des Materials, mit dem das System sich selbst aufbaut, möglich ist -heutige KI kommt dem langsam näher. Mit dem Ausloten prinzipiell möglicher Technologieentwicklung geht es Lem eher um eine Metatheorie technischer Evolution als um die althergebrachte Futurologie.

Netz-Hype, Fakenews und Kritik

Dann kam die große Netz-Hype und Mahner wurden vergessen. Doch Stanislaw Lem glaubte den Netzvisionären nicht, die freudig eine totale Information beschworen und deren Segen priesen. Lem sah die Rolle der Nutzer weniger rosig, weil diese zu „Informationsnomaden“ würden, die nur sinnlos von Stimulus zu Stimulus hüpften. Es erweise sich als immer schwieriger, so Lem über das Internet, unterschiedliche Quellen und Sichtweisen zusammenzubringen, um ein rundes, vollständiges Wissensbild einer Sache zu erhalten. Weise Worte, lange vor der Fakenews-Hysterie der sogenannten „Sozialen Medien“ Facebook & Co.

Lem gilt als brillanter Visionär und Utopist, der zahlreiche komplexe Technologien Jahrzehnte vor ihrer tatsächlichen Entwicklung prognostizierte. So schrieb er bereits in den 1960er und -70er Jahren über Themen wie Nanotechnologie, neuronale Netze und virtuelle Realität. Ein wiederkehrendes Thema sind philosophische und ethische Aspekte und Probleme technischer Entwicklungen, wie etwa der künstlichen Intelligenz, menschenähnlicher Roboter oder der Gentechnik. In zahlreichen seiner Werke setzte er Satire und humoristische Mittel ein, wobei er oft hintergründig das auf Technikgläubigkeit und Wissenschaft beruhende menschliche Überlegenheitsdenken als Hybris entlarvte. Einige seiner Werke tragen auch düstere und pessimistische Züge in Bezug auf die langfristige Überlebensfähigkeit der Menschheit. Häufig thematisierte er Kommunikationsversuche von Menschen mit außerirdischen Intelligenzen, die er etwa in einem seiner bekanntesten Romane, Solaris, als großes Scheitern verarbeitete. (Wikipedia)

Die Lem – Philip K. Dick -Kontroverse

1973 wurde Lem die Ehrenmitgliedschaft der Science Fiction and Fantasy Writers of America (SFWA) verliehen, aber diese wurde ihm schon 1976 wieder entzogen. Den Rauswurf des polnischen Starautors hatten verschiedene amerikanische SF-Autoren, darunter Philip José Farmer, gefordert. Sie waren einerseits über Lems kritische Haltung gegenüber einem großen Teil der westlichen Science Fiction empört. Aber zudem waren unter ihnen laut Ursula K. LeGuin „kalte Krieger“, die fanden, dass ein Mann, der hinter dem Eisernen Vorhang lebe und sich über amerikanische SF kritisch äußere, eine Kommunisten-Ratte sein müsse, der in der SFWA nichts zu suchen habe.

There was a sizable contingent of Cold Warrior members who felt that a man who lived behind the iron curtain and was rude about American science fiction must be a Commie rat who had no business in the SFWA.“ Ursula K. LeGuin

Die Nestorin der feministischen SF, Ursula K. LeGuin, trat danach unter Protest aus der SFWA aus. Ein weiteres Argument für den Entzug der Ehrenmitgliedschaft war technischer Natur; die Ehrenmitgliedschaft sollte nicht an Autoren verliehen werden, die als zahlendes Mitglied in Frage kamen. Dieses Argument brachte laut seinem Biographen Lawrence Sutin der auch von mir hochgeschätzte SF-Hippie Philip K. Dick (Blade Runner) vor, der Lem für Schwierigkeiten bei den Honorarzahlungen für die polnische Ausgabe seines Romans Ubik verantwortlich machte -wofür es allerdings außer der bei P.K.Dick immer wieder beobachtbaren Paranoia keine Erklärung gibt. Dick hatte sich immerhin dafür ausgesprochen, Lem als zahlendes Mitglied zuzulassen. Eine solche Mitgliedschaft wurde Lem dann auch angeboten, der lehnte sie jedoch ab. Der Kalte Krieg forderte seine Opfer nicht nur an den zahllosen unsichtbaren und sichtbaren Fronten, sondern auch in der SF-Literatur.

Stanislaw Lem wurde 1921 in Lwow, Polen, geboren. Neben zahlreichen belletristischen Werken verfasste er theoretische Schriften über Science Fiction und über Gebiete der angewandten Philosophie und der Kybernetik. Sein Schaffen umfasst inzwischen 28 Werke, deren Gesamtauflage fast 8 Millionen Exemplare erreichte. Übersetzungen erschienen in 27 Sprachen, unter anderem in Japan, England, Russland, Amerika, Schweden, Italien, Holland und Frankreich. Sein Hauptinteresse galt der Science Fiction als literarische Gattung. Er starb 2006 in Krakau.

Stanislaw Lem, Summa technologiae, Suhrkamp, Frankf./M., 1976 (poln.Or.1964).

Stanislaw Lem, Die Technologie-Falle, Suhrkamp, Frankf./M., 2002 (poln.Or.1995).

R.-D. Hennings u.a. (Hrsg.), Informations- und Kommunikations-Strukturen der Zukunft: Ein Workshop mit Stanislaw Lem, W.Fink, München 1983.

Jerzy Jarzebski, Zufall und Ordnung: Zum Werk Stanislaw Lems, Suhrkamp, Frankf./M., 1986.