10/3/25

Grenzpolizist Big Brother: Migrations-Management-KI

Die folgende Erläuterung der regierungseigenen Bundeszentrale für politische Bildung (bpb) für KI im Einsatz gegen Migration (euphemistisch: „Migrationsmanagement“), erläutert einige Aspekte dieser Problematik. Seit 9/11 führen nicht nur die USA, sondern offenbar „der Westen“, also auch wir, einen „Krieg gegen den Terror“, der eine Einschränkung von Bürgerrechten beinhaltet. Kontrolliert wird dabei prinzipiell jeder von uns, speziell aber die Gruppe der sogenannten „Gefährder“, die sich offenbar insbesondere bei Migranten finden lässt; ihr Merkmal ist „eine nicht näher konkretisierbare Gefährlichkeit, die sich in der Zukunft ausbilden könnte. (…) Ziel ist hierbei, schwer bestimmbare konkrete Zeitpunkte und Formen eines terroristischen Anschlags zu kontrollieren und damit auch aufsteigende Ängste in der Bevölkerung zu reagieren.“ Siehe: „Gefährder“: Der Migranten-Minority Report.

Ängste der Bevölkerung sollen also „reagiert werden“ (nicht auf sie reagieren!); ein typischer Freudscher Versprecher, bei dem die wahre Intention entschlüpfte? Sollen unsere Ängste „reagiert werden“, also reaktiviert, abreagiert oder agitiert werden? Ängste helfen Machthabern, Bevölkerungen zu kontrollieren und in ihrem Sinne zu manipulieren. Ängste machen Menschen bereit zum Hass, zur Blindheit für vernünftige Lösungen, zur fanatischen Aufrüstung und Militarisierung. Andersartige, Andersfarbige, Migranten sind dafür die naheliegenden Sündenböcke, vor denen im Sinne reaktionärer und rechtsextremer Ideologien Angst geschürt werden soll. Wo Multi-Milliarden und Billionen für Rüstung (statt für die Menschen) ausgegeben werden, fällt auch für BigTech und KI einiges ab: Die gleich genannte Überwachungsfirma ANDURIL klingt nicht zufällig ähnlich wie Peter Thiels PALANTIR. Projekte zur Emotionserkennung, KI-Lügendetektoren und vorausschauender Polizeiarbeit (engl. predictive policing) laufen bereits.

Wie dabei KI gegen Migranten eingesetzt wird erläutert für die Bundesregierung das bpb im jetzt folgenden Text von Petra Molnar. KI dient dabei für Prognosen zum Migrationsgeschehen, für Grenz- und Fernüberwachung, für Identitäts- und biometrische Systeme, Gesichtserkennung, Asyl- und Visumsbearbeitung, für die Steuerung von „Alternativen zur Inhaftierung“, die auf ständige Überwachung hinauslaufen. KI bildet den digitalen Stacheldrahtverhau auf den künftigen „smart borders“, die sozial benachteiligten Migranten jene Freizügigkeit rauben, die wohlhabenden Touristen (einstweilen noch) offensteht. Das völkerrechtlich gebotene (!) Asylrecht bleibt dabei auf der Strecke, wenn automatisierte Entscheidungen mit digitalem racial Bias oder ähnlichem Unrecht fallen. (T.Barth) Folgender Text übernommen von bpb:

Künstliche Intelligenz im Migrationsmanagement: Chancen, Herausforderungen und Risiken

Petra Molnar (bpb) 04.09.2025 / 9 Minuten zu lesen

Weltweit wird künstliche Intelligenz zunehmend im Migrationsmanagement eingesetzt – auch in der EU und in Deutschland. Welche Entwicklungen, Chancen und Risiken gehen damit einher?

Überwachungsturm von Elbit Systems, Arizona, USA. Solche Überwachsungstürme entlang der Grenze zu Mexiko erkennen mithilfe von KI-Überwachung Bewegungen und sollen so dabei helfen, Personen in der Sonora-Wüste im Südwesten der USA abzufangen. (© Petra Molnar, Abbildungen fehlen hier aufgrund urheberrechtlicher Gründe)

Künstliche Intelligenz (KI)

verändert in rasanter Geschwindigkeit die Art und Weise, wie Regierungen Migration steuern und Grenzen kontrollieren. Von prognosebasierter Datenanalyse und Identitätsprüfung bis hin zu Grenzüberwachung und Asylentscheidungen – KI-Technologien werden zunehmend in die Infrastruktur der Migrationskontrolle in Europa und weltweit integriert. Dabei wird argumentiert, dass neue Technologien wie KI die Steuerungssysteme im Migrationsmanagement effizienter, sicherer und kostengünstiger machen können. Angesichts der aktuellen Entwicklungen im Bereich der digitalen Technologien bestehen jedoch auch ernsthafte Risiken für die Menschenrechte, die Privatsphäre und die Grundsätze des Asylrechts. Dieser Artikel basiert auf jahrelangen Forschungsarbeiten an verschiedenen Grenzen weltweit und gibt einen Überblick darüber, wie KI im Migrationsmanagement in Europa und weltweit eingesetzt wird. Wichtige Debatten über die Auswirkungen dieser Entwicklung auf Recht, Ethik und Gesellschaft werden dabei ebenfalls in den Blick genommen.

Wo und wie wird KI eingesetzt?

Weltweit und in der gesamten Europäischen Union (EU) wird KI mittlerweile in verschiedenen Phasen des Migrationsmanagements eingesetzt. Zu den wesentlichen Feldern gehören:

Grenzüberwachung: KI-gestützte Systeme werden zur Überwachung von Grenzen eingesetzt. Beispielsweise integriert das Europäische Grenzüberwachungssystem (Eurosur) Satellitenbilder, Drohnen und andere Sensordaten, die mit KI analysiert werden, um die Außengrenzen zu überwachen – insbesondere im Mittelmeerraum. An Landgrenzen und Flughäfen werden Algorithmen zur Gesichtserkennung und Objekterkennung eingesetzt, um Personen zu identifizieren, die irregulär einreisen oder als risikoreich gelten. In den Vereinigten Staaten stellen Unternehmen wie die US-amerikanische Firma Anduril autonome Überwachungstürme entlang der Südgrenze bereit, die mithilfe von KI-Überwachung Bewegungen erkennen und verfolgen und dabei helfen sollen, Personen in der Sonora-Wüste im Südwesten der USA abzufangen.

Identitäts- und biometrische Systeme: KI kann auch bei der Verarbeitung biometrischer Daten wie Fingerabdrücken, Iris-Scans und Gesichtsbildern zur Identitätsprüfung helfen. Eurodac, die EU-Datenbank, in der Fingerabdrücke von Asylbewerber:innen gespeichert werden, nutzt KI für einen effizienteren und genaueren Abgleich. In Deutschland hat das Bundesamt für Migration und Flüchtlinge (BAMF) eine Software zur Erkennung von Sprachen und Dialekten getestet, die die Herkunft von Personen, die einen Asylantrag gestellt haben, feststellen soll. Der Einsatz dieser Software hatte in der Folge Debatten darüber ausgelöst, wie genau und fair solche Systeme und ihre Ergebnisse sind. Die deutsche Bundespolizei setzt an wichtigen Verkehrsknotenpunkten und Grenzen biometrische und Gesichtserkennungstechnologien ein, darunter auch prognostische Komponenten. Gleichzeitig helfen automatisierte Dokumentenprüfsysteme dabei, gefälschte Reisedokumente zu identifizieren.

Asyl- und Visumsbearbeitung: KI-Anwendungen werden zunehmend zur Prüfung von Visums- und Asylanträgen eingesetzt. Einige Länder wie Kanada verwenden Algorithmen zum automatisierten Vorsortieren von Visumanträgen, während die Vereinigten Staaten Risikobewertungsalgorithmen einsetzen, die die Daten der Antragstellenden analysieren, um potenzielle Betrugs- oder Sicherheitsrisiken vorherzusagen, und dafür auch Daten verwenden, die aus sozialen Medien gesammelt wurden. Diese Systeme versprechen zwar Effizienz, werfen jedoch Bedenken hinsichtlich algorithmischer Verzerrungen, ordnungsgemäßer Verfahren und des Rechts auf individuelle Beurteilung auf. In Deutschland setzt das BAMF maschinelle Übersetzungsprogramme ein, um das Dolmetschen von Anhörungen im Asylverfahren und die automatisierte Dokumentenprüfung zu unterstützen. Fragen hinsichtlich ihrer Genauigkeit und möglichen Auswirkungen auf Asylentscheidungen bleiben hier bisher offen.

Prognosen zum Migrationsgeschehen: Regierungen und internationale Behörden wie die EU-Grenzschutzagentur Frontex nutzen KI zur Analyse großer Datensätze – darunter Daten aus sozialen Medien und Klimadaten –, um Migrationsmuster vorherzusagen. Diese zukunftsprognostizierenden Analysen sollen Frühwarnsysteme und die Ressourcenplanung unterstützen. Allerdings sind diese Modelle zur Vorhersage von Migrationsbewegungen oft nicht transparent. Befürchtet wird hierbei, dass sie zu präventiven Grenzschließungen oder Kontrollmaßnahmen sowie zu Aktivitäten wie dem Abfangen von Schutzsuchenden und illegalen Zurückweisungen ( Pushbacks) führen können.

Fernüberwachung und ‚Alternativen‘ zur Inhaftierung: Elektronische Fußfesseln, GPS-fähige Smartphones und Ortungsgeräte sowie KI-gesteuerte Check-in-Systeme werden als Alternativen zur Inhaftierung von Einwanderer:innen beworben, sind jedoch oft mit einer ständigen Überwachung verbunden. Diese Technologien werden in den USA, Großbritannien und anderen Ländern eingesetzt und manchmal an private Unternehmen ausgelagert.

Wer entwickelt und fördert diese Systeme?

An der Entwicklung von KI im Migrationsmanagement sind sowohl staatliche als auch privatwirtschaftliche Akteure beteiligt. Große Technologieunternehmen, Rüstungsfirmen und KI-Startups entwickeln und vermarkten Anwendungen für Regierungen. In Europa unterstützt die EU-Grenzschutzagentur Frontex technologische Innovationen, während die Finanzierung aus regionalen Forschungsprogrammen wie Horizon 2020 und dem Fonds für innere Sicherheit (ISF) stammt. Insbesondere Deutschland hat über das BAMF und die Bundespolizei in Identitätsfeststellungen anhand biometrischer Merkmale, Sprachanalyse und automatisierte Systeme zur Dokumentenanalyse investiert. An mehreren von der EU finanzierten Pilotprojekten waren auch deutsche Partner:innen beteiligt, darunter Universitäten und Forschungsinstitute.

Maritime Überwachungsdrohne auf der DEFEA-Konferenz in Athen, einer internationalen Fachausstellung für Verteidigung und Sicherheit. (© Petra Molnar)

Staaten wie die USA, Kanada und Australien sind ebenfalls führend im Bereich des Einsatzes von KI an ihren Grenzen und arbeiten häufig mit Technologieunternehmen wie den US-amerikanischen Firmen Palantir und Anduril oder der israelischen Firma Elbit Systems zusammen. Das Interesse des privaten Sektors ist Teil eines wachsenden und lukrativen, mehrere Milliarden Euro schweren „Industriekomplexes“ im Bereich der Grenzsicherung, in dem private Gewinninteressen und öffentliche Sicherheitsinteressen einander ergänzen.

Internationale Organisationen – darunter die Internationale Organisation für Migration (IOM) und das UN-Flüchtlingshilfswerk (UNHCR) – prüfen den Einsatz von KI-Anwendungen, um Menschen auf der Flucht zu registrieren, zu überwachen und Hilfsgüter zu verteilen, teilweise in Zusammenarbeit mit Partnern aus der Privatwirtschaft. Während diese Anwendungen als humanitäre Innovation dargestellt werden, werden gleichwohl oft sensible Daten unter ungleichen Machtverhältnissen gesammelt, die zwischen dem Globalen Norden und Süden oder zwischen Hilfsorganisationen und Menschen in Not bestehen.

Chancen und Versprechen

Akteur:innen, die den Einsatz von KI im Migrationsbereich befürworten, verweisen auf mehrere potenzielle Vorteile. So wird häufig Effizienz als einer der wichtigsten Treiber für den Einsatz von KI-Anwendungen genannt. Staaten, die KI einsetzen argumentieren, dass die Automatisierung von Routineaufgaben Rückstände bei der Bearbeitung von Asyl- und Visumsanträgen reduzieren, die Datenanalyse optimieren und die Koordination zwischen den Behörden verbessern kann. Ein weiterer wichtiger Treiber ist das Versprechen der Genauigkeit und die Tatsache, dass KI den biometrischen Abgleich und die Identitätsprüfung verbessern und damit Betrug und Verwaltungsfehler reduzieren kann. Im Kontext des derzeitigen Fokus auf Sicherheit, der die Politikgestaltung im Bereich des Migrationsmanagements prägt, zielen die KI-gestützte verbesserte Überwachung und Risikobewertung darauf ab, irreguläre Grenzübertritte oder gefälschte Dokumente aufzudecken. Schließlich ist auch die Vorhersagekraft der KI verlockend, da KI-gestützte Prognosen als Möglichkeit dargestellt werden, sich auf umfangreiche Migrationsbewegungen vorzubereiten, humanitäre Maßnahmen zu unterstützen und Ressourcen besser zu verteilen.

Mit solchen Vorteilen vor Augen werden von Staaten und der Privatwirtschaft Investitionen in KI begründet, mit dem Ziel sogenannter „intelligenter Grenzen“ (smart borders). Diese sollen sowohl sicher als auch technologisch fortschrittlich sein. In Deutschland werden solche Innovationen auch als Teil einer umfassenderen Digitalisierung des Migrationsmanagements angesehen, die mit den EU-Strategien für die digitale Transformation im Einklang steht.

Herausforderungen und Kritik

Trotz dieser Versprechen argumentieren Akteure aus der Zivilgesellschaft, Forschende und Betroffenen, dass der Einsatz von KI im Migrationsmanagement ernsthafte ethische und rechtliche Risiken birgt. Beispielsweise können KI-Systeme Diskriminierung und systemischen Rassismus verschärfen, da sie oft die Vorurteile in den Daten widerspiegeln, mit denen sie trainiert wurden. So ist etwa die Gesichtserkennung bei Menschen mit dunklerer Hautfarbe weniger genau, was das Risiko für Fehler bei ihrer Identifizierung erhöht. Risikobewertungssysteme können Angehörige bestimmter Nationalitäten oder ethnischer Gruppen unverhältnismäßig stark benachteiligen. Außerdem mangelt es erheblich an Transparenz bei der Entwicklung und dem Einsatz neuer Technologien. Bei vielen KI-Systemen weiß die Öffentlichkeit nur wenig darüber, wie sie ihre Entscheidungen treffen. Diese Undurchsichtigkeit untergräbt die Rechenschaftspflicht und macht es für Betroffene schwierig, schädliche Folgen anzufechten, wenn Fehler gemacht werden.

Hightech-Flüchtlingslager auf der griechischen Insel Kos. (© Petra Molnar)

Auch die Rechte auf Privatsphäre und Datenschutz sind betroffen: Werden biometrische und personenbezogene Daten gesammelt, gespeichert und analysiert, birgt dies erhebliche Risiken für die Privatsphäre, insbesondere wenn es um sensible Daten von marginalisierten Gruppen wie Menschen auf der Flucht geht. Die unbefugte Weitergabe von Daten und Hackerangriffe sind ebenfalls reale Bedrohungen. Zudem können Menschen auf der Flucht, die sich in einer prekären Lage befinden, oft keine sinnvolle Einwilligung in die Erfassung und den Umgang mit ihren Daten geben.

Rechtlich gesehen können KI- und Überwachungstechnologien, die Menschen daran hindern in Sicherheit zu gelangen, das bestehende Recht auf Asyl untergraben. Automatisierte Entscheidungen können außerdem dazu führen, dass Schutz überproportional verweigert wird oder es aufgrund fehlerhafter Risikobewertungen zu vermehrten Inhaftierungen kommt. Rechtliche Risiken dieser Art stünden im Widerspruch zum geltenden Völkerrecht, das eine individuelle Prüfung von Asylgesuchen und das Non-Refoulement-Prinzip

beinhaltet. Auch ist oft unklar, wer für durch KI verursachte Schäden verantwortlich ist und haftbar gemacht werden kann – der Staat, ein Auftragnehmer, der Softwareentwickler oder die Person bei der Einwanderungsbehörde, die die Anwendung verwendet? Oft ist der Rechtsschutz in diesem neueren Bereich wenig ausgeprägt, was das Einlegen von Rechtsmitteln erschwert – insbesondere in Grenzgebieten, die bereits von intransparenten und ermessensabhängigen Entscheidungen geprägt sind.

Rechtliche Rahmenbedingungen und Kontrolle

Derzeit ist die globale Regulierung im Bereich der KI noch schwach, wobei Innovationen Vorrang vor rechtsbasierten Ansätzen für digitale Grenzkontrolltechnologien haben. Allerdings gelten mehrere internationale und regionale Rechtsinstrumente für den KI-Einsatz im Migrationsbereich. So schützt beispielsweise der Internationale Pakt über bürgerliche und politische Rechte (ICCPR) das Recht auf Privatsphäre (Artikel 17) und das Recht auf Freiheit und Sicherheit (Artikel 9). Diese Rechte müssen im Migrationskontext auch bei der Anwendung von Technologien gewahrt werden. Die Genfer Flüchtlingskonvention von 1951 verpflichtet die Staaten zudem, Zugang zu Asyl zu gewähren und verbietet die Zurückweisung in Gebiete, in denen den betroffenen Personen Folter oder unmenschliche oder erniedrigende Behandlung drohen (Artikel 33). Automatisierte Entscheidungen, die den Zugang zum Asylbegehren blockieren, können gegen diese Schutzbestimmungen verstoßen. Nach EU-Recht regelt die Datenschutz-Grundverordnung (DSGVO) die Datenverarbeitung, einschließlich biometrischer Daten, und die EU-Grundrechtecharta garantiert das Recht auf Privatsphäre, Datenschutz und Nichtdiskriminierung. Vor kurzem hat die EU das Gesetz zur Regulierung künstlicher Intelligenz verabschiedet. Allerdings liegt hier nicht der Schutz der Rechte von Menschen auf der Flucht im Fokus.

Deutschland unterliegt als EU-Mitgliedstaat diesen rechtlichen Rahmenbedingungen, entwickelt jedoch auch eigene Durchführungsbestimmungen. Zivilgesellschaftliche Organisationen, die sich für die Rechte von Flüchtlingen und Migrant:innen einsetzen, haben mehr Transparenz hinsichtlich des Einsatzes von KI in der deutschen Migrationspolitik gefordert, darunter die Offenlegung von Verträgen und Folgenabschätzungen. Die Kontrolle in der Praxis bleibt jedoch begrenzt. Grenzgebiete unterliegen oft Notfall- oder Ausnahmeregelungen. Zudem können private Unternehmen Technologien durch Geschäftsgeheimnisse schützen. Unabhängige systematische Überprüfungen, Folgenabschätzungen und Kontrollmöglichkeiten sind jedoch für eine rechtskonforme Entwicklung und den Einsatz von Technologien an den Grenzen und zur Steuerung der Migration notwendig.

Ausblick

In einer von technologischem Fortschritt geprägten Welt, wird KI voraussichtlich eine immer wichtigere Rolle im Migrationsmanagement spielen. So werden beispielsweise das künftige Einreise-/Ausreisesystem (EES) der EU und das Europäische Reiseinformations- und -genehmigungssystem (ETIAS) KI für das Erstellen von Risikoprofilen und automatisierte Grenzkontrollen nutzen. Projekte zur Emotionserkennung, KI-Lügendetektoren und vorausschauender Polizeiarbeit wurden ebenfalls bereits getestet, allerdings auch weithin kritisiert.

Das ehemalige Flüchtlingslager auf Samos, Griechenland. (© Petra Molnar)

Wissenschaftler:innen und Menschenrechtsorganisationen fordern einen vorsorgenden Ansatz: gründliche Tests, um zu gewährleisten, dass Menschenrechte eingehalten werden, Transparenz und Kontrollmechanismen sowie eine breite öffentliche Debatte, bevor Technologien eingeführt werden. Einige Akteur:innen, darunter das Büro des Hochkommissars der Vereinten Nationen für Menschenrechte (OHCHR), schlagen ein vorübergehendes Aussetzen bestimmter Migrationstechnologien vor, insbesondere in Hochrisikosituationen. Vor allem aber werden die künftigen Entwicklungen der KI im Bereich Migration und an den Grenzen nicht nur von rechtlichen Garantien und demokratischer Rechenschaftspflicht abhängen, sondern auch davon, dass die menschlichen Kosten dieser Technologien anerkannt werden. KI-Systeme sind keine abstrakten Werkzeuge. Sie wirken sich auf reale Menschen aus, die sich oft in prekären und unsicheren Situationen befinden. Es ist wichtig, die Erfahrungen und Rechte von Menschen auf der Flucht in Diskussionen über den Einsatz von KI einzubeziehen.

KI-Anwendungen für das Migrationsmanagement werfen tiefgreifende rechtliche, ethische und soziale Fragen auf. Wenn Regierungen neue Technologien einführen, gilt es sicherzustellen, dass Effizienz und Sicherheit mit Menschenrechten, Würde und Gerechtigkeit vereinbar bleiben. Im Mittelpunkt dieser Debatten stehen Menschen, nicht nur Datenpunkte. Transparente Regeln, eine strenge Kontrolle und die Verpflichtung zu einem menschenzentrierten Design, das auch das Fachwissen der betroffenen Individuen und Communities berücksichtigt, sollten jede zukünftige Nutzung von KI im Migrationsbereich leiten.

Übersetzung aus dem Englischen: Vera Hanewinkel

Fussnoten/Quellen/Literatur

Petra Molnar, The Walls Have Eyes: Surviving Migration in the Age of Artificial Intelligence (2024)

Petra Molnar im Gespräch mit Benjamin Etzold über „intelligente Grenzen“: „Keines dieser KI-gestützten Instrumente ist neutral. Sie dienen einem bestimmten Zweck – der Ausgrenzung.“ (2025)

Mirca Madianou, Technocolonialism: When Technology for Good is Harmful (2024)

OHCHR, Digital Border Governance: A Human Rights Based Approach (2023)

The Migration and Technology Monitor Project

Lizenz

Dieser Text ist unter der Creative Commons Lizenz „CC BY-NC-ND 4.0 – Namensnennung – Nicht kommerziell – Keine Bearbeitungen 4.0 International“ veröffentlicht. Autor/-in: Petra Molnar für bpb.de. Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 4.0 und des/der Autors/-in teilen. Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.

Originalpublikation: https://www.bpb.de/themen/migration-integration/kurzdossiers/migration-und-sicherheit/570377/kuenstliche-intelligenz-im-migrationsmanagement/

05/28/25

Big Tech & Kolonialismus

„Kommunikationsinfrastrukturen waren schon immer Werkzeuge der Kontrolle“

Die Künstlerin Esther Mwema erforscht verborgene digitale Machtstrukturen. Auf der re:publica in Berlin sprach sie über die Parallelen zwischen kolonialen Infrastrukturen und den modernen Kabel- und Satellitenprojekten von Big Tech. Wir haben sie zu ihren Recherchen und ihrer Kunst befragt.

Ingo Dachwitz 28.05.2025 aus Netzpolitik

Esther Mwema ist mehrfach ausgezeichnete Künstlerin und Expertin für digitale Ungleichheit aus Sambia. Sie arbeitet unter anderem zu versteckten Machtstrukturen, seien es physische wie Internetunterseekabel und Satelliten oder soziale wie digitaler Kolonialismus und Geschlechterungleicheit. Seit mehr als zehn Jahren setzt sie sich mit den NGOs Digital Grassroots und Safety First for Girls (SAFIGI) für digitale Inklusion ein.

Auf der diesjährigen re:publica sprach Esther über „The Cosmology of Internet Infrastructure“, ihr Paper „Cosmologies of Internet Infrastructure: Three visions for bridging the digital divide” erschien im Juni. und veröffentlichte kurz darauf ein. Wir haben sie zu Parallelen zwischen damals und heute befragt und warum Kosmologie dabei eine Rolle spielt.

Vermeintlich großzügige Tech-Geschenke

netzpolitik.org: Infrastruktur gilt ja eigentlich als trockenes und schwer zu greifendes Thema. Was reizt dich als Künstlerin daran?

Esther Mwema: Ich war schon immer daran interessiert, wie die Dinge funktionieren. Mein erster Job war in einem Internetcafé und da habe ich mich gefragt: Oh, wie funktioniert eigentlich das Internet? Also habe ich mich mit der Architektur des Netzes und den verschiedenen Schichten beschäftigt. Dabei habe ich gelernt, dass das Internet über den Meeresgrund fließt. 95 Prozent des weltweiten Datenverkehrs läuft durch Unterseekabel. Das war eine krasse Erkenntnis: Das Internet ist nicht in der Cloud, sondern hat eine total physische Materialität.

Dann gab es da diesen Internet Health Report von Mozilla, ich glaube der von 2019 [PDF], der die Eigentümerschaft von Internetinfrastrukturen zum Thema machte. Früher hatte Big Tech sich vor allem auf die Anwendungsschicht im Internet-Stack beschränkt und jetzt investierten sie plötzlich heftig in Unterseekabel. Also habe ich mir das genauer angeschaut. 2022 konnte ich dank des Mozilla Creative Media Awards über Kabel im afrikanischen Kontext recherchieren: Wem gehören sie? Wo liegen sie? Wohin führen sie?

Man gerät bei der Recherche leicht in Rabbitholes, weil so wenig öffentlich darüber bekannt ist. Aber genau zu dieser Zeit kündigte Meta ein Unterseekabel an, das als erstes den gesamten Kontinent umrunden sollte. Sie nannten es ernsthaft „Simba“, nach dem Disney-Charakter. Später benannten sie es in „2 Africa“ um, als wäre es ein Geschenk an Afrika. Da sieht man, welche Machtdynamiken hier am Werk sind.

netzpolitik.org: In deinem Vortrag hier auf der re:publica hast du über Parallelen zwischen kolonialen und heutigen Infrastrukturprojekten gesprochen. Unter anderem sagst du, dass Infrastrukturen eine Verbindung zwischen Vergangenheit und Gegenwart herstellen. Wie meinst du das?

Esther Mwema: Kommunikationsinfrastrukturen waren schon immer Werkzeuge der Kontrolle. Es ist kein Zufall, dass die frühen Telegrafenleitungen bald nach dem Ende der Sklaverei aufkamen. Es ging darum, die Kolonien besser beherrschen und wirtschaftlich ausnutzen zu können. Es gibt auch große Ähnlichkeiten zwischen den Routen der damaligen Telegraphenleitungen und heutigen Unterseekabeln. Sie waren übrigens auch damals schon häufig in privater Hand.

Viele Telegrafenleitungen gehörten dem britischen Unternehmer John Pender. Er war mit Textilfabriken reich geworden, in denen Baumwolle aus Sklavenarbeit von amerikanischen Plantagen verarbeitet wurde. Auch die kolonialen Vorstellungswelten von Infrastruktur ähneln sehr den Vorstellungen von Big Tech bei ihren Infrastrukturprojekten.

Kolonisation als „zivilisatorische Mission“

netzpolitik.org: Die Kolonisatoren damals haben einfach behauptet, dass sie unbeanspruchtes, leeres Land einnehmen. Die Tech-Milliardäre machen es heute genauso, sagst du.

Esther Mwema: Sie nannten das damals „Tabula Rasa“ oder schlicht „leeren Raum“. Das stimmte natürlich nicht. Da lebten Menschen mit eigenen Kosmologien, in denen Natur, Geister und die Struktur des Raumes heilig waren. Die Kolonisatoren kamen mit einer Kosmologie des Extraktivismus und mit einer hierarchischen, patriarchalen Weltordnung. Der weiße Mann ganz oben, die Kolonisierten darunter und die Natur noch weiter unten. Die Existenz von allem Spirituellen wurde komplett geleugnet, weshalb die Kolonisatoren heilige Orte nicht respektierten.

Gleichzeitig haben sie ihre Eroberungen als „zivilisatorische Mission“ geradezu mystisch aufgeladen. Ich arbeite zum Beispiel mit Plakaten aus dem 19. Jahrhundert, die den Telegrafen als Instrument des Friedens und der Religion preisen. Auf einem Plakat segnet Vater Neptun aus dem Meer Uncle Sam und Britannica, also die USA und Großbritannien, die durch Telegrafenleitungen verbunden waren.

Die gleiche Rhetorik erleben wir heute bei Big Tech und dem Digital Divide: Es gibt da diese noch-nicht-angeschlossenen Regionen und wir müssen Brücken zu ihnen bauen. Connecting the unconnected. Also: Wir müssen die Unvernetzten vernetzen. Wir müssen ihnen Technologie bringen, damit sie so wie wir werden. Es ist eine neue zivilisatorische Mission, aber am Ende geht es doch wieder nur um Eroberung. Mehr Land. Mehr Daten. Mehr Material, um ihre Rechenzentren zu befüllen und ihre KI zu trainieren. Am Ende geht natürlich auch um physische Rohstoffe, die man aus den Ländern extrahieren möchte, die man anschließt.

netzpolitik.org: Du hast auch in deinem Vortrag über die „Kosmologie von Internetinfrastrukturen“ gesprochen. Was meinst du damit?

Esther Mwema: Kosmologie meint im Grunde, das Universum zu studieren. Bei meiner Beschäftigung mit der Internetinfrastruktur bin ich immer wieder auf dieses Thema gestoßen: das Weltall, das Universum. Vint Cerf, der das Internetprotokoll miterfunden hat und Vizepräsident und „Chief Internet Evangelist“ bei Google ist, arbeitet inzwischen an einem interplanetaren Kommunikationssystem. OpenAI will für 500 Milliarden Dollar den größten Verbund von Rechenzentren für KI bauen, den sie „Stargate“ nennen. Jeff Bezos hat seine Milliardengewinne aus der Ausbeutung von Amazon-Angestellten investiert, um zehnminütige Spritztouren ins All zu ermöglichen. Und natürlich Elon Musk, dem heute mehr als 60 Prozent aller aktiven Satelliten gehören.

Satelliten übrigens, von denen pro Tag drei bis fünf kaputtgehen und ersetzt werden müssen. Allein im Januar dieses Jahres sind 120 von Musks Satelliten verglüht. Neuere Satelliten verfügen auch über Überwachungskapazitäten, die die Privatsphäre und Demokratie gefährden. Deshalb glaube ich, dass wir die Kosmologie der Infrastruktur verstehen müssen, wenn wir die digitale Gesellschaft verstehen wollen, in der wir leben. Zur Kosmologie gehören der Ozean, das Land und das Weltall. Wir müssen die Auswirkungen unseres Handelns auf das Ganze betrachten.

Verfestigung ausbeuterischer Strukturen

netzpolitik.org: Mit dem Projekt Afrogrids versuchst du, andere Vorstellungswelten von Infrastruktur zu ermöglichen. Wie sieht das aus?

Esther Mwema: Afrogrids ist mein Kunstforschungsprojekt zur Internetinfrastruktur, das die vielfältigen Kosmologien anerkennen soll, die heute existieren und die auch lange vor dem Kolonialismus bestanden haben. Wir wollen diese Räume zurückerobern. Ich stelle den heutigen Vorstellungen von Infrastruktur zum Beispiel das BaKongo-Kosmogramm gegenüber. Es ist ein altes Symbol eines vorkolonialen kongolesischen Volkes, das eine Verbindung zwischen physischen und spirituellen Welten darstellt. Es beschreibt vier Aspekte des Seins: von der Geburt über das Aufwachsen zum Tod und zu dem, was nach dem Tod ist.

Das Kosmogramm erlaubt es uns, über Übergänge nachzudenken und steht im krassen Widerspruch zur kolonialen Wachstumlogik und dem Streben der Tech-Milliardäre nach Ewigkeit. In afrikanischen Kosmologien geht es sehr viel darum, den Dingen zu erlauben, ihre Zeit zu haben. Nach einer bestimmten Lebensspanne ist etwas Neues dran. Es geht um Respekt vor der Natur und die Fähigkeit, keine Spuren in der Landschaft zu hinterlassen. Heutige Internetinfrastrukturen aber müssen immer größer werden, dienen Monopolen und zerstören jede alternative Vorstellungswelt.

Nehmen wir als Beispiel das Konzept der rotierenden Unterkünfte, das es in einigen afrikanischen Gesellschaften lange gab. Die Menschen haben hier in provisorischen Unterkünften gelebt, das Land bearbeitet und sind dann an einen anderen Ort gezogen, damit sich das Land erholen konnte. Dies steht im Einklang mit der Philosophie des Cosmo-Ubuntu, die laut Forscher:innen auf maschinelles Lernen und KI angewendet werden kann. Stattdessen bauen wir heute Infrastrukturen, die permanent Ressourcen ausbeuten. Sie sind nicht regenerativ und werden so zu einer Art dauerhafter Strukturen, die das Land auslaugen und erschöpfen. Das trifft selbst auf einen immateriellen Rohstoff wie Daten zu: Es gibt nie genug Daten, es gibt immer eine Nachfrage nach mehr.

Über die Autor:in ingo

Ingo ist Journalist und Kommunikationswissenschaftler. Seit 2016 ist er Redakteur bei netzpolitik.org und u.a. Ko-Host des Podcasts Off/On. Er schreibt häufig über Datenmissbrauch und Datenschutz, Big Tech, Plattformregulierung, Transparenz, Lobbyismus, Online-Werbung, Wahlkämpfe und die Polizei. 2024 wurde er mit dem Alternativen Medienpreis und dem Grimme-Online-Award ausgezeichnet. Ingo ist Mitglied des Vereins Digitale Gesellschaft sowie der Evangelischen Kirche. Seit 02/2025 ist sein Buch erhältlich: „Digitaler Kolonialismus: Wie Tech-Konzerne und Großmächte die Welt unter sich aufteilen“

Kontakt: E-Mail (OpenPGP), Mastodon, Bluesky, FragDenStaat

04/9/25

Predictive Policing

Predictive Policing: Großbritannien will berechnen, wer zum Mörder wird

09.04.2025 Martin Schwarzbeck (Netzpolitik)

Die britische Regierung lässt an einem Programm forschen, das vorhersagen soll, ob eine Person zum Mörder wird. Für die Studie führen Forscher:innen persönliche Daten von hunderttausenden Menschen zusammen – unter anderem, ob sie Opfer häuslicher Gewalt wurden und an welchen psychischen Erkrankungen sie leiden.

Die britische Regierung will Mörder finden, noch bevor sie zur Tat schreiten. Dazu entwickelt eine Forschungsgruppe ein System, das zahlreiche persönliche – und zum Teil sehr intime – Informationen zusammenführt und daraus die Wahrscheinlichkeit berechnet, dass die Person eine andere tötet. Das geht aus geheimen Dokumenten hervor, die die Nichtregierungsorganisation State Watch mit einer Reihe von Anfragen nach dem britischen Informationsfreiheitsgesetz erhielt.

In die Vorhersage fließen beispielsweise Daten dazu ein, in welchem Alter ein Mensch erstmals zum Opfer wurde, beispielsweise von häuslicher Gewalt. Dass Opfer mit erhöhter Wahrscheinlichkeit zu Tätern werden, ist lange bekannt. Mit dem Mordvorhersagesystem werden nun aber sämtliche Opfer zu Verdächtigen. Außerdem erhebt das System Angaben zur psychischen Gesundheit, also beispielsweise, ob ein Mensch mit einer Sucht kämpft, ob er in der Vergangenheit selbstverletzendes Verhalten an den Tag gelegt hat oder gar einen Suizid versuchte.

Ebenfalls erhoben wird, in welchem Alter ein Mensch erstmals zum Zeugen einer Straftat wurde. All das fließt gemeinsam mit Daten zu kriminellen Vorstrafen, dem vollen Namen, dem Geburtsdatum, der ethnischen Zugehörigkeit und einer eindeutigen Identifikationsnummer in das Vorhersagesystem. Für dessen Training wurden die Daten von 100.000 bis 500.000 Menschen genutzt – ohne deren Zustimmung.

Statewatch nennt das geheime Projekt der britischen Regierung erschreckend und dystopisch. Bislang dient es Forschungszwecken, den Unterlagen zufolge ist jedoch geplant, es in die Praxis zu bringen. The Guardian schreibt, dass es vom Büro des Premierministers in Auftrag gegeben wurde, als Rishi Sunak von den Konservativen an der Macht war.

Ein ähnliches Tool, das Vorhersagen macht, wie wahrscheinlich ein Straftäter oder eine Straftäterin rückfällig werden, ist in Großbritannien bereits im Einsatz. Richter nutzen diese Vorhersagen beispielsweise, um zu entscheiden, wann eine Person aus dem Gefängnis entlassen wird. Dabei sind die Prognosen für Schwarze Menschen deutlich fehleranfälliger.

Laut Sofia Lyall, einer Forscherin von Statewatch, wird das Mordvorhersagesystem die strukturelle Diskriminierung, die dem Strafrechtssystem zugrunde liegt, noch weiter verschärfen. Neben rassistisch diskriminierten Menschen würden damit wohl auch einkommensschwächere Gruppen mit höherer Wahrscheinlichkeit zu potenziellen Mördern erklärt. Die Verwendung der sensiblen Daten zum Training des Modells hält sie für höchst besorgniserregend.

erschienen bei Netzpolitik

Über die Autor:in

Martin Schwarzbeck

Martin ist seit 2024 Redakteur bei netzpolitik.org. Er hat Soziologie studiert, als Journalist für zahlreiche Medien gearbeitet, von ARD bis taz, und war zuletzt lange Redakteur bei Berliner Stadtmagazinen, wo er oft Digitalthemen aufgegriffen hat. Martin interessiert sich für Machtstrukturen und die Beziehungen zwischen Menschen und Staaten und Menschen und Konzernen. Ein Fokus dabei sind Techniken und Systeme der Überwachung, egal ob von Staatsorganen oder Unternehmen.

Kontakt: E-Mail (OpenPGP), Mastodon

12/6/24

Michel Foucault: Philosophie Diskurs Netz

Michel Foucault: Der Diskurs der Philosophie, Suhrkamp, Berlin 2024, 349 S.

Rezension von Thomas Barth

Der Netzphilosoph Michel Foucault begann nicht erst mit seiner Theorie der Machtnetze in Netzstrukturen zu denken, wie das vorliegende Buch zeigt: Schon seine Diskursanalyse und Archäologie zielten auf das „Netz des philosophischen Diskurses“ als Teil eines Diskursuniversums. Denn Kultur sei ein Netz von Beziehungen, das Sprechakte und Diskurse, aber auch Objekte, Materialien und Institutionen zu einem Diskurs-Archiv verbinde. Der „fröhliche Positivist“ nahm lockere 50 Jahre den heute postulierten „material turn“ der Geisteswissenschaften vorweg. Alphabete, Bibliotheken, Buchdruck schufen demnach neue Netzwerke der Zirkulation der Diskurse, die sich, wie der 1966 von Foucault verfasste Text bereits andeutete, in Daten-, Computer- und Kommunikationsnetzen fortsetzen würden.

Ausgangspunkt ist eine nietzscheanische Philosophie der Zeitdiagnostik, und viele sagen ja auch, unsere Gesellschaft, unsere Kultur, unsere Zeit seien krank. Doch welchen Arzt können wir für sie rufen? Foucault erklärt uns: Den Philosophen. Denn schon seit Beginn der griechischen Philosophie laute deren Daseinsberechtigung „interpretieren und heilen“ (S.14). Dies überrascht, gilt Foucault doch als harscher Kritiker der Humanwissenschaften und Heilberufe, insbesondere der Kriminologie, Psychologie und Psychiatrie. In jungen Jahren selbst psychiatrisiert, entwickelte er eine Machttheorie, die neben Justiz und Strafvollzug besonders vordergründig wohlmeinende Zugriffe der Gesellschaft auf das Subjekt kritisiert. Dafür erarbeitete Foucault einen ganz eigenen methodisch-theoretischen Zugang über die (post-) strukturalistische Analyse gesellschaftlicher und kultureller Diskurse. Seine Konzepte sind heute ein fester Bestandteil unterschiedlichster Disziplinen und Ansätze in den Geisteswissenschaften, etwa Queer- und Genderstudies, Pädagogik, Pflege-, Sozial- und Medienwissenschaften, Disability Studies (Kammler/Parr 2007).

Autor und Hintergrund

Michel Foucault (1926-1984) lehrte ab 1970 am renommierten College de France in Paris, war sozialpolitisch engagiert und gilt heute zunehmend als einer der wichtigsten Denker des 20.Jahrhunderts. In Deutschland jahrzehntelang nur schleppend rezipiert, wird er heute in den meisten Geisteswissenschaften immer mehr wahrgenommen. Seine (Ideen-) Geschichten des Wahnsinns, der Medizin, des Gefängnisses sowie sein vierbändiges Werk „Sexualität und Wahrheit“ sind Meilensteine der Sozialphilosophie. Foucault lehnte jedoch disziplinäre Zuordnungen ebenso ab, wie Bekenntnisse zu Denkschulen oder –richtungen wie dem Poststrukturalismus oder der Postmoderne. Das vorliegende, schon 1966 verfasste Buch wurde von Foucault nie publiziert, posthume Publikationen hatte er testamentarisch untersagt. Seine Erben und Nachlassverwalter setzen sich seit Jahren darüber hinweg und im Suhrkampverlag erschienen diverse posthume Werke, etwa Sammlungen von transkribierten Tonbandmitschnitten seiner Vorlesungen. Das vorliegende Buchmanuskript fällt zwischen Foucaults bahnbrechendes Buch „Die Ordnung der Dinge“, das ihn international auch als Widersacher Sartres berühmt machte, und dessen Fortsetzung „Die Archäologie des Wissens“.

Aufbau und Inhalt

Ein Vorwort von Francois Ewald, editorische Anmerkungen, 15 Kapitel mit je eigenen Fuß- und Endnoten bilden den Kern des Textes. Ein Anhang mit Notizen Foucaults, die dem Text verbunden erschienen, und einer einordnenden und zusammenfassenden „Situierung“ durch Orazio Irrera und Daniele Lorenzini lassen den Leser an der editorischen Arbeit des anfangs elfköpfigen Redaktionskomitees (Daniel Defert verstarb während des Projekts) teilnehmen. Fußnoten dokumentieren Probleme mit dem Text, etwa die Ergänzung fehlender oder unleserlicher Wörter, sowie seltener falscher Angaben Foucaults, auch von ihm durchgestrichene Passagen werden hier dokumentiert und zeigen Varianten des Textes, die der Autor erwogen hatte. Die teilweise umfangreichen Endnoten der Kapitel liefern hilfreiche Anmerkungen der Herausgeber und erklären biographische, zeitgeschichtliche, theoretische Hintergründe.

1. Die Diagnose führt die Philosophie als diagnostisches Unternehmen ein, nach Nietzsche solle sie „Arzt der Cultur“ sein (S.17), könne aber nicht heilen, sondern nur „sagen, was ist“ (ebd.).

2. Jetzt erklärt das „Heute“ des Philosophen, der in der Triade des „Ich-Hier-Jetzt“ den Alltagsdiskurs überschreitet und sich von Literatur und Wissenschaft abgrenzt. Endnote 2 ordnet Foucaults Ansatz theoretisch zwischen Philosophie und Philologie ein (Roman Jakobson, de Saussure, Levi-Strauss, Althusser, Lacan, Husserl, Sartre, Merleau-Ponti, Todorov).

3. Der philosophische Diskurs und der wissenschaftliche Diskurs grenzt Philosophie von Wissenschaft ab, deren Erkenntnisse nicht so eng an das sprechende Subjekt gebunden seien. Für den Wahrheitsgehalt der Wissenschaft sei nur wichtig was gesagt würde, aber nicht wo, wann und von wem; Philosophie bedürfe des „Ich-Hier-Jetzt“, weshalb „von Descart bis Kant und von Kant bis Husserl das gleiche Projekt von Neuem begonnen“ (S.35) und „die Frage des Subjekts so hartnäckig“ (S.40) gestellt wurde.

4. Fiktion und Philosophie grenzt Philosophie von Literatur bzw. Fiktion ab, deren Werke zwar auch an das sprechende (zuweilen fiktive) Subjekt gebunden seien, aber nicht dazu bestimmt, wahr zu sein (S.52); Philosophie ziele vordringlich auf Wahrheit, Vernunft und insbesondere auf das Wesen des Subjekts (S.60).

5. Die Philosophie und der Alltag grenzt Philosophie vom Alltagsdiskurs ab, da sie eine kritische Funktion ausübe, alles „was stumm ist“ in eine Rede übertrage, zur „Kritik allen Wissens“ werde, zum „Diskurs aller anderen Diskurse“ (S.77).

6. Die Geburt des philosophischen Diskurses vertieft die These der Singularität des philosophischen Diskurses seit Descartes, auch anhand der neuen Diskursmodi seit Cervantes und Galilei: Literatur, Wissenschaft und Gott selbst hätten „anders zu sprechen“ begonnen (S.96), der philosophische Diskurs hätte den Anspruch erhoben, „durch die Wahrheit des Jetzt, das ihn trägt, zur Wahrheit zu gelangen“ (S.100).

7. Die allgemeine Anordnung des philosophischen Diskurses entwickelt dessen vier Grundaufgaben und Funktionen (Begründung, Interpretation, Kritik, Kommentar) und entlang dieser Hauptlinien das „gesamte Netz des philosophischen Diskurses“ (S.105); die alten metaphysischen Fragen nach Gott, Welt und Seele werden insofern neu beantwortet, als Gott nun optional würde, die zuvor beseelte Welt nur noch leerer Raum nebst relativer Zeit sei und von der unsterblichen Seele ein geistiges Prinzip, „ein reines Subjekt“ mit Innerlichkeit und Körper verbleibe (S.115), was man aber „nicht mit dem Ende der Metaphysik verwechseln“ dürfe (S.116); Kant habe Gott, Seele und Welt als Illusionen betrachtet und der Metaphysik eine neue Ontologie entgegengesetzt.

8. Die zwei Modelle des Diskurses zeigt zwei philosophische Serien von Wahlmöglichkeiten auf: 1. Enthüllung, Ursprung, Schein, Enzyklopädie sowie 2. Manifestation, Bedeutung, Unbewusstes, Gedächtnis; die jeweiligen Entscheidungen dekliniert Foucault anhand seiner vier Diskursfunktionen: So kann etwa die Funktion der Begründung des Diskurses durch eine Theorie der Enthüllung oder der Manifestation ausgeübt werden; Modell Eins begründet sich als Enthüllung der Wahrheit, interpretiert dies als Entdeckung ihres Ursprungs, kritisiert mittels einer Theorie des überwundenen Scheins und kommentiert den Logos der Welt in enzyklopädischer Form; Modell Zwei begründet sich als Manifestation der Wahrheit in den Phänomenen des Hier und Jetzt des Subjekts, das nicht nach deren Ursprung, sondern nach ihrer Bedeutung fragt und die Kritikfunktion gegen sein eigenes Unbewusstes richtet; kommentiert wird hier nicht mehr als Enzyklopädie der Wahrheit, sondern als Gedächtnis, das die „Versöhnung der Erfahrung mit dem, was in ihr fremd ist“ festhält, also das, was Foucault als „Ent-Entfremdung“ bezeichnet (S.139f.). Modell Eins steht für Philosophie, die sich auf dem Weg linearen Fortschritts zu universalen Wahrheiten und aufgeklärten Werten glaubt; Modell Zwei eröffnet in den „Beziehungen des Subjekts und der Geschichte ein unendliches Labyrinth“ und eine „unaufhörliche Unruhe“ (S.141f.).

9. Philosophie, Metaphysik, Ontologie erörtert die beiden Modelle in ihren Beziehungen zu Ontologie und Metaphysik; 1. die vorkantische Philosophie der Enthüllung als Metaphysik der Repräsentation und Ontologie innerhalb des Diskurses; 2. die nachkantische Philosophie der Manifestation als Anthropologie und Ontologie außerhalb des Diskurses; im 1. Modell enthüllt sich dem Subjekt des Philosophen die Existenz der Seele, deren Analyse „offenbart, dass Gott existiert, …der die Ordnung der Welt garantiert“ (S.155); im 2.Modell kann das Subjekt „nur als phänomenale Manifestation erscheinen… weit davon entfernt, auf eine tiefere Existenz zu verweisen“ entdeckt es nicht die Ordnung der Natur, sondern nur die Bedeutungen, die der Mensch ihr zuschreibt, entdeckt es „nur das Sein des Menschen, das über all die Dinge der Welt und die Ereignisse der Geschichte zum Ausdruck kommt“; dieser „anthropologische Zirkel“ führe zu zwei gegensätzlichen Philosophien: Der Positivismus sucht im biologischen, sozialen und psychologischen Sein des Menschen Aufschluss „über das Sein der Phänomene“; die anderen Philosophen wollen „das Sein der Endlichkeit von all den Bedingungen, die ihm auf der Ebene der Phänomene zugewiesen werden können, lösen“, um ein grundlegenderes Fundament zu finden. Diese Philosophen sehen sich selbst in ihrem Sein „zu einem Phänomen der Geschichte geworden“ (S.156f), das Sein der Geschichte wird sichtbar in philosophischen Diskursen, die sich selbst „unaufhörlich die Frage nach ihrem Verhältnis zur Geschichte“ stellen; erst die kantische Kritik brachte die „systematische Verschiebung der Elemente“ vom ersten zum zweiten Modell (S.158). Nun wurde deutlich, warum Foucault in seinem 7.Kapitel Kants Werk als „den Gravitationspunkt der gesamten abendländischen Philosophie“ sah (S.116).

Kant, dem –was Foucault nicht erwähnt– auch bedeutende Einsichten der Astrophysik zuzurechnen sind, etwa dass sich das Sonnensystem überhaupt entwickelt haben könnte, dass dies Milliarden Jahre gedauert haben könnte (Kants zeitgenössische Physiker bezifferten das Alter der Erde eher mit Zehntausenden von Jahren) sowie dass dies in einer Scheibenform geschah, standen die Erkenntnisfortschritte der Physik vor Augen, „während die Metaphysik endlos weiter dieselben Debatten führte“ (S.159); folgerichtig strebte Kant nach besserer Legitimation der Philosophie durch Suche nach Methoden und Formen der Erkenntnis: „Die Idee von einer Dialektik als Analyse der Bedingungen und Notwendigkeiten der Täuschung tritt an die Stelle der Idee einer Enzyklopädie der Wahrheit.“ (S.160)

Damit stehe Kants Werk „genau im Zentrum, im Gleichgewichtspunkt der gesamten abendländischen Philosophie“, womit Kant für den philosophischen Diskurs, „wie die Logiker sagen würden, eine neue Semantik gefunden“ habe (ebd.). Weiterentwicklungen sieht Foucault bei Fichte in der Lehre vom absoluten Ich mit reiner Subjektivität sowie in der Phänomenologie von Hegel bis Husserl, die transzendentale Subjektivität an den impliziten Horizont der empirischen Inhalte zu binden“ suche (S.167 Fn 12). Tatsächlich könne, so Foucault, der philosophische Diskurs nach der „Zerstörung der Metaphysik“ nur durch eine „Theorie der Repräsentation“ oder „mittels einer Analyse des Seins des Menschen eine Beziehung zum Sein haben.“ (S.165)

10. Beschreibung der Philosophie zeigt vier Haupttypen der Philosophiegeschichte als funktionale Elemente des philosophischen Diskurses und grenzt Foucaults eigenen Ansatz davon ab, der die Philosophiegeschichte in seiner funktionalen Beschreibung der Philosophie als Teil derselben einbezieht (S.185); die Philosophiegeschichte wendet sich als Teil des philosophischen Diskurses in der Funktion der Legitimation den Systemen zu, im Kommentar der Erfahrung, in der Kritik der Ideologie, in der Interpretation der Entzifferung einer Philosophie; für die Ideologisierung der Philosophie bedeutet dies, „dass die Philosophie tatsächlich… selbst eine Praxis darstellt und dass sie das Gesicht der Welt wirklich verändern kann, allerdings unter der Bedingung, dass sie demselben Diskursmodus angehört wie die politischen oder alltäglichen Aussagen.“ (S.183) Foucault geht es aber darum, den philosophischen Diskurs von außerhalb einzelner Werke zu analysieren (S.188).

11. Der neue Wandel fragt nach der Legitimation des Ansatz von Foucault selbst, die Philosophie als nur „eine Diskursform unter anderen“ (S.199) und verweist dabei auf die Krise der Philosophie, die, ihrer Gegenstände, Konzepte und Methoden beraubt, nur noch sich selbst in Frage stellen könne; mit Friedrich Nietzsche könne die Philosophie sich jedoch statt an der Wissenschaft an der Poesie orientieren, eine „Zersplitterung des philosophierenden Subjekts, seine multiple Existenz, seine Zerstreuung in alle Winde des Diskurses“ (S.216) lege nahe, „den Philosophen als reale Figur zu entlassen und aus seiner inhaltsleeren Identität eine Vielheit von Masken oder Gesichtern hervorgehen zu lassen“ (S.213), um von nun an „jeden Wahnsinn“ auch danach zu befragen „was er in seinem Abgrund an Philosophie aussagen kann“ (S.218).

12. Denken nach Nietzsche erörtert die postnietzscheanische Neuordnung der Diskurse; der logische Empirismus wolle aus dem philosophischen Diskurs alles als metaphysisch ausschließen, was nicht mit den Mitteln der Wissenschaft verifizierbar sei; eine politisch verstandene Philosophie wolle dagegen alles als metaphysisch verwerfen, was seinen Praxisbezug nur aus Kritik des Scheins oder des Impliziten herstelle und sich in Freiheit, Aktivität und Geschichte der Menschen involvieren (S.229f); postnietzscheanisch sei Husserls Phänomenologie aufgrund ihres radikalen Vorhabens, „zu den Sachen selbst zurückzukehren“, jedoch zugleich „die komplexeste, historisch überladenste Organisation, die man in den letzten drei Jahrhunderten aufkommen sah“ (S.240).

13. Das Archiv stellt die Frage nach der Sprache und postuliert die Konstituierung eines integralen Archivs als kultureller Form der Auswahl, Aufbewahrung und Zirkulation der Diskurse; der gegenwärtige Wandel unserer Kultur lässt sich anhand des Interesses an der Sprache charakterisieren, daran, dass formale Systeme, wie Sprachen, aus Symbolen mit Regeln bestehen (S.246), dass Literatur, Musik, Kunst sich entsprechend formaler Möglichkeiten entfalten, in einem neu organisierten Diskursuniversum; Kultur ist ein Netz von Beziehungen, das Sprechakte, Formen des Diskurses, Objekte, Materialien, Institutionen zu einem Diskurs-Archiv verbindet; es bildet ein System der Zwänge von Sprache und Geschichte, seine Gesetze untersucht die Disziplin der Archäologie (S.262).

14. Die Geschichte des Diskurs-Archivs verdeutlicht die Unmöglichkeit für jede Kultur, aus dem System ihres eigenen Diskurs-Archivs auszubrechen; die Archäologie als „Analyse des Diskurs-Archivs fungiert als eine Art immanente Ethnologie“ unserer Kultur, „dessen was als Bedingung, Element und Raum für alles dient, was wir sagen und denken können“ (267); Alphabete, Bibliotheken, Buchdruck schufen neue Netzwerke der Zirkulation der Diskurse, zahlreiche Brüche machen es unmöglich, „eine Gesamtgeschichte des Diskursarchivs“ zu schreiben (S.278); Endnote 15 konkretisiert durch Zitat aus Foucaults Buch „Die Archäologie des Wissens“: das Archiv umfasse also „ein privilegiertes Gebiet: gleichzeitig uns nahe, aber von unserer Aktualität abgehoben… es ist das, was uns außerhalb von uns begrenzt“ (S.281).

15 Der heutige Wandel beschließt das Buch mit der Einführung des Begriffs eines „integralen Archivs“, das unsere heutige Kultur von ihren Vorgängerinnen unterscheide; unsere Kultur habe sich die Aufgabe gestellt, „im Grunde alles vom Diskurs aufzubewahren“ (282); das Archiv dehne sich immer mehr aus, werde überhäuft, verliere seine Selektivität, es sei „anstatt der Ort der Rekonstruktion von Sprechakten zu sein, nur der Raum für die Aneinanderreihung von Diskursen… ein Netz neutraler Diskurse… Insofern ein Diskurs im Archiv gegeben ist, kann er durch Akte reaktiviert werden, die… dem ursprünglichen Akt absolut fremd sein können (Kommentare, Suche nach einem verborgenen Sinn, linguistische Analyse, Definition und Klassifizierung von Themen, Katalogisierung von Bildern und rhetorischen Figuren, Übersetzung in eine formale Sprache, Zerlegung im Hinblick auf eine statistische Auswertung…)“ (S.284f); die Diskursivität, durch die sich nunmehr die Erfahrung definiere, komme „immer nur dem Diskurs selbst zu“ (S.290); Fußnote a enthält eine offenbar verworfene Variante des letzten Kapitels, die verstärkt auf den Systembegriff setzt und sich abschließend auf Wittgenstein beruft (S.292).

Der Anhang enthält einige Notizen Foucaults, darunter recht instruktive Tabellen seines funktionalen Diskursmodells, und die „Situierung“ von Orazio Irrera und Daniele Lorenzini (S.305-345). Die beiden Editoren bescheinigen Foucault eine „entschieden originelle Antwort“ auf die seinerzeit heiß diskutierte Frage: „Was ist Philosophie?“ (S.309) und ordnen den Text in die damalige Debatte ein, die durch Foucaults Werk „Die Ordnung der Dinge“ befeuert wurde, unter anderem werden Sartre, Althusser, Merloth-Ponty, Derrida und Heidegger genannt. Foucault stelle im vorliegenden Buch die Philosophie als spezifische Art von Diskurs dar, der eine singuläre Beziehung zu seiner eigenen Aktualität unterhalte; der Mythos einer Geschichte, die aus tiefgründiger Bestimmung „von einem geheimen Ursprung zur Klarheit eines Horizonts verläuft“ könne verworfen werden (S.324); einen „blinden Fleck in der Foucaultschen Archäologie“ zeige zwar die Frage, von wo aus denn seine Diskursanalyse die in sich abgeschlossenen Diskursnetze von außen betrachten könne (S.336), doch er habe von Gaston Bachelard die Methode übernommen, Diskurse von ihren marginalisierten Rändern her zu analysieren; es ging Foucault „sein ganzes Leben lang“ darum, so ihr Schlusssatz, „seine eigene Kultur -und uns- in eine Falle zu locken, um die Möglichkeit zu eröffnen, anders zu denken und zu leben.“

Diskussion

Foucault habe wenig über Philosophie geschrieben, seine Themen seien nicht die der Philosophen: der Wahnsinn, das Krankenhaus, das Gefängnis, die Sexualität; so begann 1991 der Foucault-Kritiker Rudi Visker seine Abrechnung mit den Widersprüchen, in die sich Foucault mit seiner Kritik der Humanwissenschaften verwickelt habe. Das „Foucault-Lexikon“ des Wissenschaftstheoretikers Michael Ruoff kennt nur das Stichwort „Philosophie (praktizierte)“, für das es ganze vier Absätze übrig hat und Foucault so zitiert: „vielleicht ist Philosophie die allgemeinste kulturelle Form, in der wir darüber nachdenken können, was der Westen ist.“ Foucault habe die Bezeichnung „Philosoph“ 1970 deutlich abgelehnt, sie sei ein „Professorenberuf“; der späte Foucault, der eine Ethik der Sorge um sich selbst entwickelte, habe in der Philosophie aber jene Form des Denkens entdeckt, welche „die Bedingungen und Grenzen des Zugangs des Subjekts zur Wahrheit zu bestimmen versucht.“ (S.165f)

Das größte Hindernis für die deutsche Foucault-Rezeption war vermutlich die eloquente Polemik, die der staatstragende „Großdenker“ Jürgen Habermas 1985, also ein Jahr nach Foucaults Tod, mit „Der philosophische Diskurs der Moderne“ vorlegte; eine Abrechnung mit der französischen Postmoderne, als deren technokratische Ausgeburt er die Systemtheorie Niklas Luhmanns sah; insbesondere mit Foucaults Machttheorie geht Habermas hart ins Gericht, sucht Foucault in die Nähe des in Deutschland mehr als in Frankreich als Nazi-Philosophen gesehenen Heideggers zu rücken. Der Nachfolger Habermas‘ im Amt des Frankfurter Schuldirektors, Axel Honneth, ließ dort 2001 eine vielbeachtete „Foucault-Konferenz“ stattfinden, die eine differenziertere Sicht zeigte; in seinem Einführungstext zum Tagungsband scheint Honneth Abbitte für Habermas‘ Polemik leisten zu wollen, grenzt Foucault pointiert von Heidegger ab, stellt ihn in die Tradition des späten Wittgenstein. Foucaults Ziel sei die Subversion der gegebenen Gesellschaftsform gewesen, sein Werk habe in den Humanwissenschaften hergebrachte Begriffe des Sozialen, der Macht, des Wissens, des Subjekts tiefgreifend verändert. Foucault habe den „paradigmenbildenden Kern einer Disziplin, sei es die der Psychoanalyse, der Sexualwissenschaft oder der Kriminologie“ in seiner konstitutiven Evidenz entzaubert (S.17). Die Kritische Theorie seiner Frankfurter Schule, so Honneth, hätte bei unvoreingenommener Auseinandersetzung viel früher von den Einsichten Foucaults lernen können. 1988 hatte sich Honneth selbst noch polemisch an Foucault gerieben, dessen Machttheorie habe „am Ende zu einer systemtheoretisch reduzierten Version der Dialektik der Aufklärung verkümmern“ müssen (S.142).

Die von Suhrkamp als „kleine Sensation“ gefeierte Publikation des Diskurs der Philosophie zeigt das ungebrochene Interesse einer immer noch wachsenden Leserschaft an einem Denker, der gegenwärtige Machtregime mit seiner Kritik ins Mark traf und viele Menschen zum Widerstand motivierte. Das Buch, das der „Philosoph mit der Maske“ seinen zeitgenössischen Lesern offenbar vorenthalten wollte, ist unter anderem eine tiefgreifende Begründung seiner Ablehnung jeglicher „Großtheorien“, mit denen „Großdenker“ wie Habermas auf die universale Geltung westlicher Werte und ihrer globalen Normativität pochen. Foucault verweist demgegenüber auf die Verstrickung des erkennenden Subjekts in das Labyrinth seiner eigenen und der Geschichte der Philosophie, der allgemeinsten kulturellen Form, „in der wir darüber nachdenken können, was der Westen ist“. Die vermeintlich ewigen Werte westlicher Aufklärung, ihrer liberalen Demokratien –die er keineswegs ablehnt, sondern nur deren Unwilligkeit zu Analyse und Selbstkritik eigener Machtstrukturen–, verblassen für Foucault hinter „dem Ereignis“, das man vielleicht heute mit den Namen Guantanamo oder Belmarsh (wo man Julian Assange gefangen hielt) bezeichnen könnte.

Fazit

Das nicht einfache, aber elegant formulierte Buch stellt Foucaults Diskursanalyse der Philosophie in die Traditionen Kants und Nietzsches. Michel Foucault scheut sich nicht, die Philosophie im Sinne seines den Strukturalismus weit überschreitenden Ansatzes komplett neu zu denken. Mit seiner auf eine Gegenwartsdiagnostik zielenden Argumentation richtet sich das Buch an Studierende der Philosophie, Kultur- und Sozialwissenschaften, aber auch an Interessierte anderer Fachrichtungen.

Michel Foucault: Der Diskurs der Philosophie, Suhrkamp Verlag, Berlin 2024, 349 S., 34,00 Euro. ISBN: 978-3-518-58811-6

Verlagswerbung zum Buch: Was ist Philosophie? Und welche Rolle spielt sie in der Gegenwartsgesellschaft? Zwischen Juli und Oktober 1966, einige Monate nachdem er durch das Erscheinen von Die Ordnung der Dinge schlagartig zum neuen Star der Philosophie aufgestiegen war, gab Michel Foucault in einem sorgfältig durchkomponierten Manuskript seine Antwort auf diese bis heute viel diskutierten Fragen. Im Gegensatz zu denjenigen, die entweder das Wesen der Philosophie enthüllen oder sie gleich für tot erklären wollen, begreift Foucault sie als einen Diskurs, dessen Ökonomie im Vergleich mit anderen Diskursen – wissenschaftlichen, literarischen, alltäglichen, religiösen – herausgearbeitet werden muss. Der Diskurs der Philosophie schlägt somit eine neue Art und Weise der Philosophiegeschichtsschreibung vor, die von der reinen Kommentierung der großen Denker wegführt. Nietzsche nimmt allerdings einen besonderen Platz ein, da er eine neue Epoche einleitet, in der die Philosophie zur Gegenwartsdiagnose wird: Von nun an ist es ihre Aufgabe, einer Gesellschaft zu erklären, was ihr Zeitalter ausmacht. Nirgendwo hat Michel Foucault die Ambitionen seines intellektuellen Programms so deutlich gemacht wie in diesem Werk, das fast 60 Jahre nach seiner Niederschrift nun erstmals veröffentlicht wird. Eine kleine Sensation!

Literatur

Habermas, Jürgen: Der philosophische Diskurs der Moderne. Zwölf Vorlesungen, Frankfurt/M. 1985, Suhrkamp Verlag

Honneth, Axel: Foucault und Adorno: Zwei Formen einer Kritik der Moderne, in: Peter Kemper (Hg.): „Postmoderne“ oder der Kampf um die Zukunft. Die Kontroverse in Wissenschaft, Kunst und Gesellschaft, Frankfurt/M. 1988, Fischer Verlag, S.127-144

Honneth, Axel u. Martin Saar (Hg.): Michel Foucault. Zwischenbilanz einer Rezeption. Frankfurter Foucault-Konferenz 2001, Frankfurt/M. 2003, Suhrkamp Verlag

Kammler, Clemens und Rolf Parr: Foucault in den Kulturwissenschaften: Eine Bestandsaufnahme, Heidelberg 2007, Synchron Verlag

Foucault, Michel: Die Ordnung der Dinge. Eine Archäologie der Humanwissenschaften, Frankfurt/M. 1974, Suhrkamp Verlag

Foucault, Michel: Archäologie des Wissens, Frankfurt/M. 1981, Suhrkamp Verlag

Foucault, Michel: Der Diskurs der Philosophie, Berlin 2024, Suhrkamp Verlag

Visker, Rudi: „Foucault“: Genealogie als Kritik, München 1991, UTB W.Fink Verlag

05/24/24

Theorien des digitalen Kapitalismus

Carstensen/Schaupp/Sevignani (Hg.): Theorien des digitalen Kapitalismus: Arbeit, Ökonomie, Politik, Subjekt, Suhrkamp, Frankfurt/M. 2023, 533 Seiten, 28,00 Euro (Leseprobe/Inhaltsverzeichnis)

Thomas Barth

Wie kann kritische Sozialwissenschaft den digitalen Kapitalismus, heute theoretisch fassen? Wie kann sie die Frage beantworten, ob sich der Kapitalismus angesichts der gegenwärtigen Digitalisierung grundlegend verändert? Der vorliegende Band gibt einen Einblick in theoretische Analysen, Zeitdiagnosen und Debatten eines digitalen Kapitalismus. Er bespricht entlang der Felder Arbeit, Ökonomie, Politik, Kultur und Subjekt die Formen und Auswirkungen des digitalen Kapitalismus. Eine integrative Theorie des digitalen Kapitalismus scheine zwar unmöglich, gleichwohl wolle man „Verbindungen der disparaten Ansätze“ ausleuchten (Backcover). Der Begriff „Kapitalismus“ deutet es an: Die meisten Autor:innen des unübersichtlichen Sammelbandes beziehen sich theoretisch auf Karl Marx oder wenigstens auf freudomarxistische Theoretiker, etwa auf Adorno oder Habermas.

Das Taschenbuch mit einem Umfang von 533 Seiten gliedert sich in vier Kapitel mit insgesamt 25 Unterkapiteln nebst Einleitung. Die Kapitel heißen: 1. „Arbeit“, 2. „Ökonomie“, 3. „Politik und Öffentlichkeit“ sowie 4. „Kultur und Subjekte“. Die Zuordnung der Beiträge ist dabei nicht immer einsichtig, etwa wenn die sehr lesenswerten Texte von Marisol Sandoval zu digitalen Genossenschaften und Felix Stalder zu Commons und Commoning nicht unter Ökonomie, sondern im dritten bzw. vierten Kapitel landen.

Progressive Perspektive auf Digitalisierung

Eine progressive Perspektive wird markiert durch Berichte über Arbeitskämpfe gegen Digitalkonzerne, deren unethische Geschäftspolitik, feministische Beiträge zum Thema Care und Digitales sowie ökologische Kritik –bei Thomas Barth (nicht identisch mit dem Rezensenten), auf dessen Text „Nachhaltigkeit im digitalen Kapitalismus“ jedoch niemand weiter eingeht. Oft wird auch versucht, Kulturkritik am digitalen Kapitalismus zu üben, politisch die Sache der (digital) Arbeitenden gegen die Seite des (Dotcom-) Kapitals zu vertreten oder marxistische Begriffe auf die Thematik der Digitalisierung anzuwenden.

Der Marxismus wurde oft tot gesagt, erweist sich aber langlebiger als erwartet. Der renommierte Suhrkamp-Wissenschaftsverlag brachte im Herbst 2023 diesen Sammelband überwiegend marxistischer Theoretiker:innen zum „Digitalen Kapitalismus“ heraus. Deren Beiträge sind fast alle politisch links, feministisch, ökologisch, marxistisch. Aber sie dokumentieren auch eine offenbar langjährige hartnäckige Weigerung vieler Marxist:innen, sich mit politischen Debatten rund um Informationsgesellschaft, Netzwerkkultur, Web2.0 und zuletzt „Digitalisierung“ auseinanderzusetzen. Erst mit der Plattformkritik scheint hier eine Debatte eingesetzt zu haben, der aber marxistische Perspektiven punktuell durchaus nützlich sind.

So entmystifiziert und kritisiert etwa Jamie Woodcock Dotcom-Konzerne und setzt im Text „Plattformarbeit“ (S.85-101) bei Nick Srniceks „Typologie der Plattformen“ an. Plattformen profitieren von Netzwerkeffekten und ihrer Tendenz zu Monopolisierung und kämen dem nahe, was Marx einen „Kaufmannskapitalisten“ nannte, der billig kaufe und teuer verkaufe (S.90). Auf einem abstrakten Niveau werden hehre PR-Selbstdarstellungen von Woodcock auf ein simples Profitmodell zurecht gestutzt, das nur als Trittbrettfahrer des Neoliberalismus seine Erfolge feierte:. Die Zunahme der Plattformarbeit sei Teil des neoliberalen „Wandels von Arbeit, Gesellschaft und Staat“ (S.93) mit grassierender Aushöhlung von Arbeitsrechten, Prekarisierung und Abwälzung von Risiken auf die Arbeitenden. Dabei würde etwa bei Amazon Mechanical Turk menschliche Arbeitskraft als „billigere Form von Software“ ausgebeutet (S.97). „Plattformen haben sich bisher als Laboratorium für das Kapital erwiesen, könnten aber auch ein Testfeld für neue Formen des Widerstands und der Organisation von Arbeitnehmer:innen darstellen.“ (S.101)

In diesem Sinne betont etwa Simon Schaupp die Möglichkeiten von Betriebsräten, bei Digitalisierung in Unternehmen Datenschutzgesetze für die Verteidigung von Arbeitnehmerrechten zu nutzen (S.334ff.); Tanja Carstensen widmet sich dem digitalen Ringen um Handlungsfähigkeit in Kämpfen, die um gender, race, class und ability geführt werden (S.404) und kritisiert mit Nancy Fraser die idealisierte Vorstellung von Öffentlichkeit nach Habermas (S.412); das Autorentrio Nachtwey/Truffer/Seidl kritisiert den „solutionistischen Geist des Kapitalismus“, aber ohne den Transhumanismus beim Namen zu nennen (S.458ff.); Helen Hester blickt zurück auf die Geschichte des Cyberfeminismus, der Beziehung von Frau und Technik vom Flechten und Weben über die feminisierte Schreibmaschine bis zum Cyberpunk-Genre (S.424ff.), seltsamerweise ohne dabei Donna Haraway zu erwähnen, obwohl sie sich auf deren Konzept vom situierten Wissen beruft (S.434); Jodi Dean ruft zum Kampf gegen den digitalen Neofeudalismus auf, der Arbeitende zu rechtlosen Bauern in einem „Game-of-Throne-Machtkampf“ (S.439) degradiert, beruft sich dabei auch auf den sozialistischen Ökonomen Yanis Varoufakis, den griechischen Ex-Finanzminister, dessen Europa-Wahlkampf-Auftritt in Deutschland jüngst verboten wurde -was man als Zeichen feudaler Willkür sehen könnte. Aus dem Wimmelbild kritischer Ansätze wichtige Argumentationsfiguren und Diskursarenen herauszufiltern ist verständlicherweise schwierig. Eine kritische Rezension muss einige Defizite des Sammelbandes benennen.

Digitalisierung und Informatisierung

Die Einleitung klärt zunächst die Begriffe Digitalisierung und Informatisierung, wobei letzere die Vergegenständlichung geistiger, regulierend-orientierender Tätigkeiten meint. In Zeichen oder Information erlange dabei nur ein Teil menschlicher Fähigkeiten, Erfahrungen und Wissens „eine eigenständige Gestalt“. Andere Kommunikationspartner:innen müssten die vergegenständlichten Informationen dann wieder in ihr Wissen und ihre Erfahrungen einbetten. Diese kooperative „Arbeit an den Zeichen“ (Fn1) bediene sich auch unterschiedlicher Informationstechniken. Informatisierung meine in einem zweiten Sinn die „Materialisierung des Informationsgebrauchs“ (Fn2) in Informationssystemen. Es ginge hier um den organisierten und vergegenständlichten Umgang mit Informationen. Digitalisierung sei demgegenüber die Formalisierung, Reduktion und Integration von Information die in virtuellen Modellen gipfle, welche Tätigkeiten, Arbeit und der Herstellung von Technik vorausgehe (S.10).

Gleich die erste Fußnote der Einleitung verweist auf einen posthum erschienenen Band mit Schriften von Arne Raeithel (1943-96) „Selbstorganisation, Kooperation, Zeichenprozess“ (1998), die zweite auf den Beitrag von Andreas Boes und Tobias Kämpf, „Informatisierung und Informationsraum: Eine Theorie der digitalen Transformation“ (S.141-161), so als hätten diese Raeithels für das Thema des Sammelbandes einschlägige Arbeiten weiterentwickelt. Leider nehmen Boes und Kaempf keinen Bezug auf Raeithel und auch sonst keiner der Beiträge -die drei weiteren Texte der Herausgeber:innen inbegriffen.

Boes und Kämpf blicken in ihrem Beitrag auf die Informatisierung als zentrales Element der Produktivkräfte, aus „historischer Perspektive“ sogar als „Teil der conditio humana“ sowie auf Information als soziale Kategorie (S.143). Wir werden sehen, dass Arne Raeithel in den 1980er und –90er Jahren die Ehre hatte, diese drei „konzeptionellen Säulen“ nicht nur als grundlegend vorauszuahnen, sondern zumindest teilweise auch bereits tiefer und detaillierter auszuarbeiten als Boes und Kämpf in ihrem Text erkennen lassen. Sie monieren am Stand der Forschung, dass wegen der Marx’schen Fokussierung auf industrielle Handarbeit die „Sphäre der Kopfarbeit“ vernachlässigt wurde. Ihr „Konzept der Informatisierung“ will „an dieser analytischen Leerstelle“ ansetzen, doch die vermeintliche Leerstelle hätte sich durch Lektüre von Raeithel mehr als schließen lassen. Ihr historischer Rückblick auf Zeichensysteme bis Buchdruck (S.150ff.) bleibt deutlich hinter Raeithels Geschichte der „symbolischen Herstellung sozialer Kohärenz“ zurück, der Vor- und Frühgeschichte bis Ethnologie aufbietet (Raeithel 1998, S.189-208) vgl. Raeithel 1996.

Die multimediale Welt des heutigen WWW konnte Raeithel noch nicht kennen, doch der von Boes und Kämpf als Fazit ihrer Analyse präsentierte, von „Bild, Ton, Zeichen usw.“ (S.154) erfüllte „Informationsraum“ überzeugt nicht wirklich: Er sei sozialer Handlungsraum, durchdringe die Gesellschaft, „eröffne das Potenzial für einen egalitären Modus der gesellschaftlichen Produktion von Wissen“ (S.158). Dies sind heute Gemeinplätze oder schon lange fragwürdig gewordene Hoffnungen der „Kalifornischen Ideologie“ des Slicon Valley (Barth 1999). Die Raummetapher für das Internet stammt aus den 80er-Jahren, der Cyberspace, den die Matrix-Filme auf die Leinwand brachten. Sie ist seit einer guten Dekade als ein Ordnungsmodell des Internets in den Medienwissenschaften kanonisiert –Raummodelle: Cyberspace, Portal, Plattform (Bleicher 2010, S.46 ff.); heute sind die Raummodelle nur noch eines von einem Dutzend Ordnungsmodelle, von „Dispositiv“ bis „Suchmaschinen“ (Bleicher 2022, S.109 ff.) –hier scheinen den Marxisten schlicht wichtige Basiskenntnisse aus der einschlägigen Nachbarwissenschaft zu fehlen. Das ist schlecht, wenn man ein nur interdisziplinär fassbares Thema bearbeiten will.

Arne Raeithel und Mark Poster als vergessene Klassiker

Thomas Barth (der Rezensent, nicht der Beiträger zum Suhrkamp-Band) zeichnete 1995 im Exkurs „Marxistische Ansätze zur Informationsgesellschaft“ die marxistische Begriffsentwicklung zur Informatisierung u.a. beim US-Marxisten Mark Poster und beim marxistischen Psychologen Arne Raeithel nach (Barth 1997, S.79ff.). Poster entwickelte aus dem Marx’schen Begriff der „Produktionsverhältnisse“ unter Bezug auf postmoderne Theorie (Baudrillard, Foucault) seinen auf die kommende Informationsgesellschaft zugeschnittenen Begriff der „Informationsverhältnisse“ -aber keiner der Suhrkamp-Beiträge bezieht sich auf Poster. Am weitesten ausgearbeitet war die marxistische Analyse der Digitalisierung, die man damals noch Informatisierung nannte, m.W. jedoch bei Arne Raeithel.

Raeithel analysierte soziale Kommunikation als Form gesellschaftlicher Arbeit, basierend auf einem vergegenständlichten Begriff von Sprechhandlungen bzw. generell von Information als Trägerin einer symbolisch geteilten Welt (Raeithel 1989). Dies greift der zweiten „Säule“ der Konzeption von Boes und Kämpf vor, Informatisierung als soziales Verhältnis und gesellschaftlichen Prozess zu verstehen, wobei Raeithel mit „Zur Naturgeschichte der Zeichenprozesse – Drei Stufen der Entwicklung von Kommunikation und Denken“ (Raeithel 1998, S.243-255) auch die dritte „Säule“, die historische Perspektive auf die informatorische conditio humana vorwegnahm. Dabei schloss Raeithel, der zu den sehr frühen Anwendern von Computer und Internet zählte und selbst programmieren konnte, ausdrücklich „rechnergestützte“ Arbeit, d.h. Arbeit im digitalen Bereich, ein (Raeithel 1992).

Raeithels Ansatz gründete auf der sowjetischen kulturhistorischen Schule von Leontjew und Wygotsky, die im Stalinismus marginalisiert wurde. Er formulierte einen Arbeitsbegriff aus, der kognitive Tätigkeit an symbolischen Gegenständen ins Visier nahm. Der so gezeichnete Arbeitsprozess zielt auf Veränderungen von Können, Begriffen und Werkzeugen, also auf die sich entwickelnde Reproduktion der inneren und äußeren Verhältnisse der Subjekte (Raeithel 1998, S.35). Raeithel ging damit bereits nicht nur über die theoretische Analyse von Boes und Kaempf hinaus, sondern bewegte sich in Bereichen, die der vorliegende Sammelband eher defizitär im Kapitel „Kultur und Subjekte“ behandelt.

Regulierung digitaler Plattformen

Ulrich Dolata und Jan-Felix Schrape entwerfen in ihrem Beitrag „Politische Ökonomie und Regulierung digitaler Plattformen“ ein –zumindest für diesen Sammelband- überraschend unkritisches, teils fast affirmatives Bild der Plattformkonzerne. Aus Sicht der Organisations- und Innovationssoziologie verteidigen sie zunächst die US-Technologiekonzerne Amazon, Apple, Alphabet/Google und Meta/Facebook gegen die Vorhaltung, dort würde in einem „asset-light-Geschäftsmodell“ weitgehendes Outsourcing betrieben (S.346). Unklar bleibt dabei, warum sie Microsoft ausnehmen. Ihre analytische Teilung von „Plattformunternehmen als organisatorischer Kern“ und der „Plattform als sozialer Handlungsraum“ scheint die Unabhängigkeit besagter „Handlungsräume“ von den Konzernen zu betonen. Das spielt deren Management in die Hände, das die Freiheit ihrer Nutzer gegenüber eigener manipulativer Eingriffe herausstellt. Dolata und Schrape erwähnen zwar das Machtgefälle zwischen Nutzer:innen und Konzernen, haben aber wenig Einwände gegen konzernseitige „lückenlose Beobachtung“ des Nutzerverhaltens, dessen Daten „zunächst als Rohmaterial anfallen“ (S.349).

Sie kritisieren den Ansatz von Shoshana Zuboff, weil deren „Überwachungskapitalismus“ bei der Entstehung dieser Daten fälschlich von „unbezahlter digitaler Arbeit“ der Nutzer ausgehe, obwohl es doch „viel trivialer“ um die „bereitwillige Offenlegung… alltäglichen Verhaltens“ ginge. Was den Nutzer:innen, die ihre „Datenspuren oft achtlos und im Vorbeigehen liefern“, entzogen wird seien wertlose Rohstoffe. Diese werden erst von den Konzernen durch „Aufbereitungs- und Veredelungsleistungen“ zur Ware erhoben. Die Konzerne erwerben damit offenbar nicht nur das ökonomische, sondern auch noch das moralische Recht, private Kommunikation als „handelbare Datensätze und personalisierte Werbemöglichkeiten“ zu Geld zu machen (S.358). Die Fixierung auf marxsche Wertlehre verstellt hier womöglich den Blick auf die Manipulation der Nutzer:innen, deren Daten nicht „achtlos im Vorbeigehen“, sondern in vorsätzlich süchtig machenden Strukturen produziert werden.

Beim Thema Regulierung sehen Dolata und Schrape die Plattformen unter „intensiver Beobachtung“ einer „politischen Öffentlichkeit“. Zivilgesellschaft und Journalisten hätten „Desinformationsdynamiken“ und „Verletzungen der Privatsphäre“ aufgedeckt –nebenbei bemerkt: in jenen Konzernaktivitäten, die Dolata und Schrape als „Veredelungsleistungen“ bezeichneten. Doch die Plattformkonzerne hätten auf die Kritik „durchaus reagiert –etwa mit Transparenzinitiativen sowie Versuchen einer institutionalisierten Einbindung zivilgesellschaftlicher Akteure in ihre eigenen Regulierungsstrukturen“. (S.360) Beispiele nennen die Autoren nicht, daher kommt die Frage nicht auf, ob es sich dabei nur um die üblichen PR-Spektakel gehandelt haben könnte.

Felix Stalder: Plattform-Demokratie-Spektakel

Facebook wurde nach diversen Skandalen in den USA besonders das Ziel von öffentlicher Kritik. Senatsanhörungen brachten Konzernchef Zuckerberg persönlich ins Schwitzen (was sogar wörtlich stimmte: man konnte in der TV-Übertragung sehen, wie der CEO mit Schweißtropfen auf der Stirn sein Sakko ablegen musste). Dennoch bewertete Felix Stalder 2016 Facebooks Reformen der „eigenen Regelungsstruktur“ kritisch.

Facebook habe sich zwar 2009 selbst auferlegt, Änderungen der Geschäftsordnung einer Abstimmung vorzulegen, sobald 7000 Kommentare dazu abgegeben würden; doch das Quorum von 30 Prozent der User:innen wäre bis zur Abschaffung der Regel 2012 nie erreicht worden, auch weil die Konzern-Demokratie dazu neigte die Wahlurnen zu verstecken. Überhaupt hätten Anbieter wie Facebook sich bemüht „mit jeder Neuerung das Machtgefälle zwischen Nutzern und Betreibern“ zu verschärfen (Stalder 2016, S.217). Kannten Dolata und Schrape das Buch ihres Kollegen Stalder nicht?

Felix Stalder lieferte auch einen äußerst lesenswerten Beitrag zum hier besprochenen Suhrkamp-Band, der sein recht bekanntes Werk „Kultur der Digitalität“ von 2016 selbstkritisch hinterfragt. Stalders 2016 noch große Begeisterung für die digitale Allmende („Commons“) der Open-Source-Bewegung wurde inzwischen gedämpft. Der Neoliberalismus instrumentalisiere zunehmend Commons als Trostpflaster für soziale Raubzüge, etwa wenn mittels Crowdsourcing bezahlte Arbeit durch schlechtbezahlte Arbeit ersetzt würde.

Der Geist der freien Software mit Gnu-Public-Licence (GPL) würde von der Software-Industrie heute unterlaufen, indem ihre Dienstleistung über die Cloud angeboten würde –ohne den Quellcode der spezifisch angepassten GPL-Programme offenlegen zu müssen: Eine neue Form kapitalistischer Einhegung einer Allmende. Kombination mit firmeneigenem Code sei eine weitere Einhegung, etwa bei Googles dadurch nicht wirklich offenem Android-System. Kulturelles Commoning diene auf Plattformen der Kommerzialisierung von Nutzerdaten-Extraktion. Schlimmer noch:

„Aber die Einhegung findet nicht nur als Form des Datenextraktivismus statt, sondern auch durch vielfache Möglichkeiten des ‚nudging‘, das die aus Nutzer:innensicht nichtkommerzielle Tätigkeiten in für Plattformbetreiber kommerziell interessante Richtungen lenkt, mit allen problematischen Konsequenzen.“ Felix Stalder 2023, S.510

Kulturproduktion im Internet wird so hinter dem Rücken der User doch wieder für eine Kulturindustrie vereinnahmt. Da wir von der Frankfurter Schule gelernt haben, so Mark Poster 2003, wie verheerend sich die Kulturindustrie auf die Arbeiterklasse und andere demokratisierende Bewegungen auswirkt, sei es unsere Pflicht, die Möglichkeiten ihrer Technologie zu verstehen. Wir sollten lernen, wie sie bei der Konstruktion kultureller Formen eingesetzt werden können, die einer demokratischen Lebenswelt angemessener sind.

Habermas und Plattform-Kapitalismus

An den Adorno-Schüler Habermas knüpfen immerhin zwei Beiträge an: Nosthoff/Maschewski untersuchen mit einem brandneuen Habermas-Text „Plattformökonomische Öffentlichkeiten“, denen der Nestor der kommunikativen Vernunft „höchst ambivalente und möglicherweise disruptive Auswirkungen auf die politische Öffentlichkeit“ zuschrieb. Die Fragmentierung des Publikums in emotionalisierte Teilöffentlichkeiten, Fakenews, Donald Trump und Gereiztheit plagen uns: „Kommunikation und Kontrolle bilden so das dominante wie dialektische Signum der Social-Media-Plattformen: Wer die Strukturen der Kommunikation kontrolliert, definiert auch die Strukturen der öffentlichen Sphäre“ (S.371f.). Nicht, dass nicht schon vor dem Start des WWW, aus dem die Plattformen dann entsprangen, vor dem Zusammenfließen von panoptischer Kontrolle und Verhaltenssteuerung gewarnt worden wäre: Das von mir seit 1996 empfohlene Gegengift eines „Inversen Panoptismus“, einer Umkehrung der Kontrolltechnologie gegen die Machtzentren, scheint den akademischen Autoren wohl zu radikal (Barth 1996). Keiner wagt es auf den 533 Seiten, die hier profilierteste Anti-Plattform auch nur zu erwähnen –Wikileaks und ihren wegen „Geheimnisverrat“ seit fünf Jahren inhaftierten Gründer Julian Assange.

Der zweite Habermas-affine Text ist von Evan Fisher: „Algorithmen und das Selbst“ (S.514-532) und beschließt den Band. Er untersucht die Rolle des Wissens in der Ko-Konstituierung von Mensch und Maschine, wobei Plattformen als „epistemische Medien“ analysiert werden. Mit Friedrich Kittler sieht Fisher Medien als Kulturtechniken, die Wissen über das Selbst schaffen, und dem Selbst in der öffentlichen Sphäre Selbstreflexion erlauben, so Habermas. Dessen emanzipatorisches Erkenntnisinteresse leitet Fisher aus der Psychoanalyse her und verfolgt es bis in die heutige Medienwelt der Plattformen. Deren Algorithmen schaffen zwar Wissen über das Selbst, jedoch ohne Selbstreflexion wie die Psychoanalyse, die Habermas der kritischen Theorie zuordnet. So endet der Sammelband pessimistisch, wobei Fisher noch die Profit-Eigeninteressen der Plattformen unterschätzt und ihr User-Profiling als auf „quasi-freiwilliger“ Selbstbewertung sieht (S.528).

Andere Beiträge, wie jener von Felix Stalder belehren ihn jedoch eines Besseren und wenn alle versammelten Autoren den ganzen Band rezipieren und die Wissenslücken ihrer divergierenden Ansätze damit schließen würden, hätte die Debatte schon viel gewonnen. Es fehlten gleichwohl, wie in dieser Buchkritik ausgeführt, noch viele Erkenntnisse der Medienwissenschaft und aus den kritischen Diskursen der Netzkultur (-Wissenschaft). Etwa aus den Texten des -von keinem der Suhrkamp-Beiträge zitierten- Experten Geert Lovink, der es in den liberalen Niederlanden vom Aktivisten und Netzkritiker zum Professor für Kunst und Netzwerkkulturen brachte. Lovink sieht uns „In der Plattformfalle“ und plädiert seit Jahren für eine „Rückeroberung des Internets“, dabei warnt er spöttisch:

„Man sollte sich nicht in pedantischen Übungen verlieren, um akademische Territorien mit ihren Kanons und Methoden zu definieren und zu verteidigen… Wir sollten die momentane Leichtigkeit annehmen und uns über die Verwirrung unter jenen amüsieren, die versuchen, ‚Digitalisierung‘ zu kartieren.“ Lovink 2022, S.29

Nicht Marx, aber Marxisten ignorieren Technologie

Vor über 20 Jahren zeigte sich Mark Poster (1941-2012) erstaunt über das Ausmaß, in dem viele Marxisten dazu neigten, neue Technologien „fast vollständig zu ignorieren“. Diese nahmen an, dass der Kapitalismus den entstehenden Cyberspace, das Internet vollständig übernehmen würde. Poster fand das sehr überraschend, weil Marx doch stets darauf geachtet habe, die Art und Weise zu untersuchen, wie soziale Innovationen sowohl für bestehende Institutionen als auch in Richtung ihrer Infragestellung wirkten. Marx selber wäre sogar so weit gegangen, disruptiv-brutale Ereignisse wie die Zerstörung der indischen Baumwollindustrie durch britische Kolonialisten insofern zu begrüßen, als sie die historische Entwicklung zum Sozialismus fördern könnten. Das Misstrauen marxistischer Kritiker gegenüber dem Internet erschien Mark Poster daher übertrieben, besonders angesichts der Chancen progressiver Netzkultur in der Open-Source und Hacker-Szene. Sein Optimismus speiste sich aus dem, was damals als „Kalifornische Ideologie“ wegen Ignoranz gegenüber der sozialen Frage kritisiert und heute auch als Transhumanismus bezeichnet wird.

Es war die Zeit einer ersten Verbreitung von Unternehmens-Websites, gefolgt von Börsen-Hype und Dotcom-Crash 2001, als im Kampf um die Netzkultur noch vieles offen war. Für Marxisten war es damals jedoch schon offensichtlich, so Mark Poster, dass das Internet nur eine weitere Teufelei war, um die Reichen noch reicher und die Armen noch ärmer zu machen. Heute, nach der Durchsetzung des Plattform- oder Überwachungskapitalismus, müssen wir leider feststellen, dass die Pessimisten nicht völlig falsch lagen. Zwar hat sich die widerständige Netzkultur weiterhin gehalten, doch Dotcom-Konzerne stehen in der Öffentlichkeit und an den Börsen als Sieger da. Marxistische Kritik an der Plattform-Industrie leidet heute unter deren Ignoranz zwar nicht mehr gegenüber der Technologie selbst, aber gegenüber den sie betreffenden Diskursen. Technik- und Netzkritik, wie sie auf Netzphilosophie gepflegt wird, scheint in vielen Suhrkamp-Beiträgen leider eher unbekannt zu sein. Erst mit der Plattformkritik scheint hier eine Debatte eingesetzt zu haben, der aber marxistische Perspektiven punktuell durchaus nützlich sind.

Fazit

Leider kann der Sammelband trotz vieler herausragender Beiträge seine Versprechen nicht einlösen, vor allem nicht jenes, die „Verbindungen der disparaten Ansätze“ auszuleuchten. Schon die Gliederung in die Kapitel „Arbeit“, „Ökonomie“, „Politik und Öffentlichkeit“ sowie „Kultur und Subjekte“ überzeugte wohl nicht jeden. Abweichend davon benennen die Herausgeber:innen sie in den Titeln der Unterkapitel ihrer Einleitung „Produktivkraftentwicklung und Arbeit“, „Wertschöpfung und Ökonomie“, „Politische Regulation und Öffentlichkeit“ sowie „Kulturelle Regulation und Subjekte“. Zu Beginn der Einleitung findet sich zudem der noch weitgehender abweichende Vorschlag zur „Strukturierung des Feldes anhand der kapitalismustheoretischen Basiskategorien Produktivkraftentwicklung, Arbeit, Wertschöpfung, politische Regulation sowie Kultur und Subjekte“ (S.11).

Die nicht immer einsichtige Zuordnung der Beiträge zu diesen Kapiteln bzw. Kategorien sowie insbesondere das Fehlen editorischer Orientierungshilfen machen den Sammelband äußerst unübersichtlich. Am Ende des Buches findet sich lediglich eine Liste mit Textnachweisen für die sieben Beiträge, die keine Originalbeiträge sind. Es fehlen biographische Angaben zu den Autor:innen, Literaturlisten zu den Beiträgen, ein Schlagwort- oder wenigstens Namensregister. Es fehlt mithin alles, was der Leser gebraucht hätte, um wirklich Verbindungen der disparaten Ansätze ausleuchten zu können. Einen Überblick über die verwendete Literatur gewinnt man nur mühselig aus den weit über tausend Fußnoten. Bezugnahmen der Beiträge oder Autor:innen aufeinander sind seltene Ausnahmen, bleiben fast immer beim bloßen Namedropping -selbst bei der in den Leitmedien herumgereichten und daher schwer ignorierbaren Shoshana Zuboff. Die renommierte Havard-Professorin gehört mit ihrer Kritik des „Überwachungskapitalismus“ zu den am häufigsten zitierten Autor:innen im Sammelband, leider fast immer nur als inhaltsleerer Verweis auf das Problem der Überwachung (das damit oft als abgehandelt betrachtet wird). Eine lebendige Diskussionskultur, Diskurse und Debatten, für die es allein schon innerhalb der marxistischen Digitalisierungsforschung genügend Themenfelder gäbe, sucht man bislang offenbar weitgehend vergeblich.

Herausgeber:innen und Autor:innen des Sammelbandes

Die drei Herausgeber:innen, die selbst Beiträge liefern und gemeinsam die Einleitung verfassten, sind: Tanja Carstensen, Privatdozentin für Soziologie der LMU München und Koordinatorin des Forschungsverbunds Sorgetransformationen an der Universität Hamburg, Simon Schaupp, Gastprofessor am Zentrum für Angewandte Kulturwissenschaft am KIT in Karlsruhe und Oberassistent für Soziologie der Universität Basel, Sebastian Sevignani, Akademischer Rat für Soziologie der Schiller-Universität Jena. Weitere Beiträger:innen sind: Thomas Barth (mit dem Rezensenten weder identisch noch verwandt noch bekannt), Kean Birch, Andreas Boes, Florian Butollo, D. T. Cochrane, Jodi Dean, Ulrich Dolata, Emma Dowling, Marlen van den Ecker, Eran Fisher, Christian Fuchs, Helen Hester, Ursula Huws, Kylie Jarrett, Tobias Kämpf, Felix Maschewski, Oliver Nachtwey, Anna-Verena Nosthoff, Tilman Reitz, Sarah T. Roberts, Marisol Sandoval, Stefan Schmalz, Jan-Felix Schrape, Timo Seidl, Nick Srnicek, Philipp Staab, Felix Stalder, Johannes Truffer, Judy Wajcman, Jamie Woodcock.

Literatur

Barth, Thomas, Das inverse Panoptikum: Ein postmoderner Ansatz für die politische Informationsstruktur des Cyberspace, zuerst in: Informatik Forum, Nr.2 1996, S.68-71.

Barth, Thomas: Soziale Kontrolle in der Informationsgesellschaft, Centaurus, Pfaffenweiler 1997.

Barth, Thomas: Die “Unabhängigkeitserklärung des Cyberspace” und der Panoptismus der globalen Netze, in: Medienwissenschaft, Nr.4, 1999, S.402-407.

Bleicher, Joan Kristin: Internet, UVK (UTB), Konstanz 2010.

Bleicher, Joan Kristin: Grundwissen Internet, UVK (UTB), Konstanz 2022.

Carstensen, Tanja, Simon Schaupp und Sebastian Sevignani (Hg.): Theorien des digitalen Kapitalismus: Arbeit, Ökonomie, Politik, Subjekt, Suhrkamp, Frankfurt/M. 2023.

Poster, Mark: The Mode of Information: Poststructuralism and Social Context, Polity Press, Cambridge 1990.

Poster, Mark: The Second Media Age, Polity Press, Cambridge 1995.

Raeithel, Arne: Kommunikation als gegenständliche Tätigkeit, in: Knobloch, C. (Hg.): Kommunikation und Kognition, Nodus, Münster 1989, S.29-70.

Raeithel, Arne: Ein kulturhistorischer Blick auf rechnergestützte Arbeit, in: Wolfgang Coy et al. (Hg.): Sichtweisen der Informatik, vieweg, Wiesbaden 1992, S.125-139.

Raeithel, Arne: Selbstorganisation, Kooperation, Zeichenprozess: Arbeiten zu einer kulturwissenschaftlichen, anwendungsbezogenen Psychologie, Westdt.Vlg., Wiesbaden 1998.

Stalder, Felix: Kultur der Digitalität, Suhrkamp, Berlin 2016.

Zuboff, Shoshana: Das Zeitalter des Überwachungskapitalismus, Campus, Frankfurt/M. 2018.

-Siehe auch die etwas reißerische Polemik (der Kampf um Aufmerksamkeit ist hart) des Rezensenten auf Telepolis: Warum Marxisten die Digitalisierung nicht verstehen

11/21/23

August, Vincent: Technologisches Regieren

Buchkritik von Alexander Leipold

August, Vincent: Technologisches Regieren. Der Aufstieg des Netzwerk-Denkens in der Krise der Moderne. Foucault, Luhmann und die Kybernetik, 480 S., transcript, Bielefeld 2021.
Der Kauf des Kurznachrichtendienstes Twitter durch den Multimilliardär Elon Musk versetzt nicht nur Branchenbeobachter in Aufruhr. Angesichts der Reichweite Twitters befürchten viele eine Einschränkung der Meinungsfreiheit. Denn Twitter hat Millionen Nutzer, dient der politischen Kommunikation sowie kommerziellen Zwecken. Ein Einschreiten der Politik scheint indes nicht vorstellbar, handelt es sich doch um eine übliche Börsentransaktion. Vincent Augusts 2018 zunächst als Dissertation vorgelegte Abhandlung ermöglicht eine Einordnung dieses Falls mit den Mitteln der Ideengeschichte. Dabei interessiert ihn die Frage, unter welchen Bedingungen das Netzwerk-Denken, das als Form technologischen Regierens vorgestellt wird, souveräne Politik abgelöst hat und welche demokratischen Implikationen dies hat (S. 12).

Sein Fazit: Die Vorstellung politischer Planbarkeit wurde durch Technokratiekritik und Kybernetik nachhaltig diskreditiert. Im Zeitalter des technologischen Regierens haben große Gesellschaftsentwürfe keinen Platz, da sie der gesellschaftlichen Komplexität nicht gerecht würden. Doch berge die Auflösung kollektiver Gewissheiten auch die Gefahr der gesellschaftlichen Regression, wenn das Identifikationsbedürfnis der Vielen nicht anders artikuliert wird als in der elitären Sprache der Selbststeuerung (S. 407). Ausgehend von einer mangelhaften Auseinandersetzung mit der Frage, „wie es kam und was es überhaupt bedeutet, wenn die politischen und politikwissenschaftlichen Akteure ihre westlichen Gesellschaften im Vokabular des Netzwerks beschreiben“ (S. 15) vollzieht der Autor seine Beweisführung anhand von Hermeneutik und Theorienvergleich auf der Basis von Sekundärliteratur.

Foucault und Luhmann: Musterbeispiele technologischen Denkens

Michel Foucault und Niklas Luhmann, die als Musterbeispiele technologischen Denkens vorstellt werden, erörtert August entlang ihrer Originalwerke. Zunächst arbeitet er das Souveränitätsdenken als Leitkategorie politischer Selbstbestimmung nach dem Zweiten Weltkrieg heraus. Diesem Modell ordnet der Autor anschließend zwei Gegenpole unter, die er als Varianten einer „Technologik“ (S. 106) skizziert. Die eine Seite, die unter dem Begriff der Technokratie gefasst wird, stellte wissenschaftlich-technische Vernunft in den Dienst der Politik. Sie kann als Hoffnung einer vernunftbasierten Politik nach der Barbarei des Nationalsozialismus verstanden werden und informierte ausgehend von militärstrategischen Erwägungen die Planungsdiskussionen der Nachkriegszeit.
Ihr Erfolg ist gleichwohl auf das Vorhandensein neuer Rechenkapazitäten im Zuge der Durchsetzung der Computertechnologie zurückzuführen.

Diesem Modell, für das beispielhaft die Planungseuphorie der sozialliberalen Bundesregierung Willy Brandts ab 1969 in Westdeutschland angeführt werden kann, stellt August die Kybernetik gegenüber. Diese weist den Steuerungsanspruch der Politik zurück und stellt der Idee eines homogenen politischen Steuerungsobjekts die Vielgestaltigkeit der Welt und deren Interdependenz entgegen. War die Kybernetik zu Beginn nur eine – durchaus technisch informierte – Variante der Realitätsdeutung, gelang ihr Siegeszug, als sie mit der anhaltenden Wirtschaftskrise der 1970er Jahre eine breite gesellschaftliche Rezeption erfuhr. Dafür war zunächst jedoch eine Diskreditierung der keynesianischen Wirtschaftstheorie notwendig, für die wiederum Vertreter des Neoliberalismus die passenden Argumente an die Hand gaben.
Nachdem August diese Rahmenbedingungen rekonstruiert hat, widmet er sich zwei maßgeblichen Sozialtheoretikern, die er als Beispiele des neuen technologischen Regierungsdenkens ausweisen will, welches ab Ende der 1970er Jahre – zumindest in den westlichen Industriegesellschaften – an Deutungshoheit gewann.
Während Foucaults Mikroanalyse der Macht gesellschaftliche Herrschaftsbeziehungen auf die Individuen verlagerte, verwarf Luhmann angesichts steigender Systemkomplexität die Gemeinwohlorientierung der Politik als Funktionsfehler. Und obwohl weder Foucault noch Luhmann als Proponenten des Sozialabbaus verstanden werden konnten, leistete ihre Rezeption der Kybernetik dem Autor zufolge genau jener Debatte ungewollt Vorschub.


Diskussion und Fazit

August hat eine spannend zu lesende, geistreiche Studie vorgelegt, die durch die Synthese nebeneinanderliegender Diskursstränge besticht. Die zeitgeschichtliche Forschung wird damit um eine ideengeschichtliche Perspektive erweitert. An manchen Stellen neigt der Autor dazu, seinen Gegenstand zu reifizieren. So, wenn er „wegen der Diversität moderner Gesellschaft“ (S. 407) diese nicht mehr nur als kybernetische Metapher verstehen will, sondern als wünschenswerte Realität. Schließlich ist auch die an verschiedenen Stellen im Buch vorgenommene Entgegensetzung von Neoliberalismus und Netzwerk-Denken zu hinterfragen. Denn wenn das moderne Subjekt in kybernetischer Sicht als „vernetzter User von Informationen“ (S. 402) aufgefasst wird, entspricht dies genau Friedrich Hayeks Konzeption des Marktes als überragendem Informationsprozessor, worauf Philip Mirowski und Edward Nik-Khah hingewiesen haben. Möglicherweise legt erst der Plattform-Kapitalismus, für den Elon Musk stellvertretend steht, die Dystopie des technologischen Regierens frei. #

August, Vincent: Technologisches Regieren. Der Aufstieg des Netzwerk-Denkens in der Krise der Moderne. Foucault, Luhmann und die Kybernetik, 480 S., transcript, Bielefeld 2021. 38,00 Euro (print), PDF im Volltext frei

Rezensent Alexander Leipold, Zentrum für Demokratieforschung, Leuphana Universität Lüneburg, Deutschland, E-Mail: alexander.leipold@leuphana.de

(Angenommen von Neue Polit. Lit.: 1. September 2022 / Online publiziert: 20. September 2022
© Der/die Autor(en) 2022)

Quelle: Neue Polit. Lit. (2022) 67:343–345 https://doi.org/10.1007/s42520-022-00453-8
Funding Open Access funding enabled and organized by Projekt DEAL.
Open Access

Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf

http://creativecommons.org/licenses/by/4.0/deed.de

Auf Netzphilosophie wurden der besseren Lesbarkeit halber die Zwischenüberschriften „Foucault und Luhmann: Musterbeispiele technologischen Denkens“, „Diskussion und Fazit“ eingefügt; die Angaben zum Buch wurden um den Preis für das Buch (print) sowie den Link auf einen gratis verfügbaren PDF-Volltext ergänzt.

Das Netzwerk ist ein Grundbegriff des 21. Jahrhunderts geworden – und mit ihm die Diagnose, dass wir in einem neuen Zeitalter leben, in dem es auf Konnektivität, Flexibilität und Selbstorganisation ankommt. In einer groß angelegten Geschichte des Regierungsdenkens zeichnet Vincent August erstmals diese fundamentale Transformation nach. Er zeigt, dass unsere Welt keineswegs nur durch den Neoliberalismus geprägt wird – und dass die Netzwerk-Gesellschaft nicht einfach ein Resultat des Internets oder von Computern ist. Vielmehr griffen Berater:innen und Intellektuelle wie Foucault, Crozier oder Luhmann auf die Kybernetik zurück, um die Ideenwelt der Souveränität abzulösen und unser Regierungsdenken grundlegend zu verändern. Eine Analyse spätmoderner Gesellschaften kommt ohne eine Analyse dieses Netzwerk-Paradigmas nicht aus. (Verlagstext Transcript Verlag)

12/25/21

Pankaj Mishra: Freundliche Fanatiker

Thomas Barth

Es ist eine klarsichtige Analyse der politischen Irrwege unserer Zeit – jenseits der eurozentrischen Perspektive: Pankaj Mishra untersucht in seinem neuen Buch „Freundliche Fanatiker: Über das ideologische Nachleben des Imperialismus“ die Auswirkungen des Imperialismus auf die heutige Welt und wie imperialistische Ideen und Strukturen weiterhin in verschiedenen Formen fortbestehen. Die „freundlichen Fanatiker“ sind liberal-rechtspopulistische Neoimperialisten wie etwa der Rechtsintellektuelle Niall Ferguson, die den Untergang des Abendlandes beschwören, weil dem Westen angeblich die nötige Aggressivität fehle, seine wohlverdiente globale Vormachtstellung zu halten.

Dies sei aus neoimperialer Sicht auch Schuld der degenerierten Netzkultur der Digital Natives. Die seien kriegsuntüchtige Faulenzer, die erschlafft vor ihren Bildschirmen chillen, statt tapfer zu den Waffen zu greifen, wie noch ihre wackeren Großväter. Mishras Kritik: Diese neoimperialen Ideologen betreiben Geschichtsfälschung, blenden aktuelle wie historische Verbrechen des Westens systematisch aus und stehen in rassistischer und faschistischer Tradition. Sie hätten den politischen Rechtsruck westlicher Länder herbeigeredet, der Trump, den Brexit und rechtsextreme Regierungsbeteiligungen etwa in Wien, Warschau und Rom erst möglich machte.

Der bekannte Schriftsteller und Publizist kritisiert die selbstzufriedenen Gedankengebäude des Westens und zeigt, dass der Mythos vom angeblich überlegenen Westen bis heute kaum hinterfragt wird. Erst in jüngerer Zeit dringen Stimmen aus dem Süden mit ihrer diesbezüglichen Kritik in unsere Debatten vor. Etwa der senegalesische Kulturökonom Felwine Sarr mit „Afrotopia“ oder eben der indische Buchautor Pankaj Mishra, der für seine Kolonialismus-Kritik „Aus den Ruinen des Empires“ den Leipziger Buchpreis erhielt, mit „Das Zeitalter des Zorns“ einen internationalen Bestseller landete und durch seine Liberalismus-Kritik „Freundliche Fanatiker“ aktuell erneut die Wut konservativer Feuilletons auf sich zog. Im vorliegenden Essayband schaut Mishra besonders auf die USA und Großbritannien als die Mächte, die seit dem 19. und 20. Jahrhundert Vorreiter im Bestreben waren, einen rassistisch geprägten, wie Mishra sagt, „imperialistisch gesinnten Liberalismus“ durchzusetzen – mit verheerenden Folgen, wie die Gegenwart zeigt.

Böse Zwillinge: Imperialismus und Liberalismus

Mishra analysiert die historischen und ideologischen Wurzeln des Imperialismus und zeigt auf, wie sie bis heute in politischen, wirtschaftlichen und kulturellen Bereichen präsent sind: Rassismus, Kolonialismus und Imperialismus werden in der Erzählung vom demokratischen Aufstieg vertuscht. Simple, von Ressentiments geprägte Welterklärungen werden zum Mainstream. Mishra beleuchtet so die Rolle von liberalem Fanatismus und Extremismus in diesem Kontext und argumentiert, dass diese Ideologien oft aus imperialistischen Denkmustern entstehen, die westliche Werte für sich reklamieren, aber auch auf rassistische und antisemitische Wurzeln zurückzuführen sind.

„Eine lautstarke Beschwörung der Aufklärung oder eines anderen historisch und auf ewig festgelegten Wesenskerns Europas wirkt zunehmend wie das Symptom einer intellektuellen Rückständigkeit oder einer kulturellen Abwehrhaltung. Das multiethnische Europa ist eine unverrückbare Tatsache und benötigt daher eine stärker auf Inklusion bedachte, ergebnisoffenere Identität.“ Mishra S.61

Damit stellt sich Mishra gegen alle von rechtspopulistisch-konservativer Seite betriebenen Restriktionen europäischer Einwanderungs- bzw. Migrationspolitik. Diese berufe sich gerne auf den nationalistischen Juristen und Staatstheoretiker Carl Schmitt, der behauptet habe, die „Kraft einer Demokratie“ zeige sich darin, das Fremde, „die Homogenität bedrohende“ fernzuhalten oder zu beseitigen (Mishra S.51). Ob Schmitt mit diesen Behauptungen den von ihm unterstützten Nazi-Faschismus und dessen Massenmorde rechtfertigen wollte, diskutiert Mishra nicht. Schmitt, der als „Kronjurist“ des Nazi-Faschismus gilt, machte unter Hitler Karriere und rechtfertigte Diktatur und Massenmorde; der Zentralbegriff des nationalsozialistischen Staatsrechts sei „Führertum“, so Schmitt, und unerlässliche Voraussetzung dafür sei die „rassische“ Gleichheit von Führer und Gefolge (Wikipedia). Obwohl in seiner Karriere vor 1933 auch von jüdischen Kollegen gefördert, wandelte sich Schmitt nach Hitlers Machtergreifung zum fanatischen Antisemiten, der die Nazi-Rassegesetze juristisch legitimierte. Mishra stellt fest, dass heutige Rechtextremisten vom Front National in Paris, über die FPÖ in Wien bis zur British National Party „ihren ursprünglichen Antisemitismus“ neu verpackt hätten und nun Muslime „statt der Juden beschuldigen, heimlich nach der Weltherrschaft zu streben“ (S.52).

Die wahren Feinde der Demokratie aber sind jene, meint Mishra, die angeblich ihre Werte verteidigen: Dies zeige der in den USA tief verwurzelte Rassismus ebenso wie die Angst dortiger Machteliten vor islamistischen oder lateinamerikanischen Invasoren. Mit konkreten Beispielen hält Mishra den Westeliten einen Spiegel vor und macht sichtbar, wie brüchig das Fundament ist, auf dem unsere westliche Welt steht: Eine freiheitliche Demokratie, in der Gleichheit und Menschenwürde verwirklicht sind, ist noch lange nicht erreicht und wenn unsere Medien Parlamentswahlen westlicher Machtart als allein seligmachenden Weg zu einer Mitbestimmung der Bevölkerung hinstellen, wird dies oft als liberal-koloniale Herrschaftsattitüde gesehen. Mishra weigert sich aus gutem Grund, die im westlichen Medien-Mainstream kolportierte Mär von Indien als „größter Demokratie der Welt“ zu bestätigen, attackiert den aktuell wiedergewählten Präsidenten Indiens, Narendra Modi und dessen neoliberalen Hindu-Suprematismus. Mishra kritisiert auch die neokoloniale Ignoranz des Nordens, die Modi huldigt, und verweist auf den Erzliberalen O’Brian:

„Als Conor Cruise O’Brian in den 1960er Jahren Afrika und Asien besuchte, fiel ihm auf, dass viele Menschen in den früheren Kolonien ‚von dem Wort „Liberalismus“ angewidert waren‘. Sie sahen darin ‚eine beschönigende Maske, die eine zutiefst habgierige Gesellschaft vor der von ihr ausgeraubten Welt aufsetzt.“ (Mishra 2021, S.113)

Liberale „Bland Fanatics“

O’Brian habe nicht verstanden, warum man den Liberalismus für eine Ideologie der Reichen hielt, weil sie genau die Regeln zu universellen Werten erhob, die Entstehung und Fortbestand des Kapitalismus begünstigen. Mishra beschreibt, wie kolonialer Rassismus, Unmenschlichkeit und Überlegenheitskult in liberalen Ideologien gedeiht und spätestens mit Tony Blairs „New Labour“ auf ehemals sozialistisch oder wenigstens sozial gestimmte Politik übergreifen konnte. Die Idee der Republik, des Parlamentarismus selbst wurde dadurch zunehmend unglaubwürdiger:

„Die französische und die US-amerikanische Republik, die allen Menschen demokratische Rechte versprachen, setzten zugleich eine globale Hierarchie durch, in der die Rechte einigen wenigen vorbehalten blieben und allen übrigen vorenthalten wurden.“ (Mishra 2021, S.178)

Dabei stand auch die rassisch begründete Ausschließung von Anfang an „im Zentrum des liberalen Universalismus“. Von Nixon über Reagan und Trump, von Thatcher über Blair und den Brexiteer Boris Johnson, verfolgt Mishra die immer extremer werdende Ideologie westlicher Herrschaftseliten. Sein Programm ist die Enthüllung der verborgenen Schattenseiten einer von westlichen Medien sorgfältig glorifizierten Machtelite:

„Die freundlichen Fanatiker bemühten sich sehr, ihre parfümierte Vorstellung angloamerikanischer Überlegenheit vor der anrüchigen Vergangenheit des Völkermords, der Sklaverei und des Rassismus -wie auch vor dem Gestank der Korruption in den Wirtschaftsunternehmen- zu schützen…“ (Mishra 2021, S.24)

Dabei ist „Freundliche Fanatiker“ noch eine eher freundliche Übersetzung, denn der Originaltitel „Bland Fanatics“, hebt im Wort „Bland“ noch andere Seiten hervor: zwar milde, höflich, einschmeichelnd, aber auch kühl, ironisch -die listige Arroganz des Kolonialisten schwingt deutlicher mit als im Deutschen.

Als ersten Vertreter der bland fanatics knöpft sich Mishra den Kennedy-Biografen und bekennenden Bilderberg-Conférencier Niall Ferguson vor. Man ahnt, warum Ferguson den Unmut des indischen Kritikers erregte: Die Inder etwa verdanken laut Ferguson dem Britischen Empire ihre Freiheit, Demokratie und die englische Sprache; die USA sollten endlich diesem Beispiel folgen und sich stolz zu ihrem Imperialismus bekennen (Mishra S.30). In Fergusons Buch „Das verleugnete Imperium. Chancen und Risiken amerikanischer Macht“ werden als Schwächen westlicher Macht Feministinnen, Adipöse und Digital Natives genannt. Der Feminismus sei schuld am demographischen Niedergang Europas und daran, „dass Mädchen nicht mehr mit Puppen spielen“, die Amerikaner seien übergewichtig und die Europäer degenerierte Faulenzer, die sich endlos dem „Gaming, Chatten und Chillen mit ihren iPods“ hingeben würden (Mishra S.35).

Wie sein Gönner Kissinger sieht Ferguson in den Chinesen die kommende Macht, natürlich nur, weil sie angeblich den westlichen Imperialismus kopieren; seinen ökonomischen Aufstieg verdankt China bei Ferguson selbstverständlich nicht der klugen Kombination von Marxismus und Kapitalismus, sondern dem sich in Peking angeblich ausbreitenden Protestantismus. Der ist nach dem deutschnationalen Soziologie-Klassiker Max Weber mit seiner protestantischen Arbeitsethik die Wurzel eines „Geist des Kapitalismus“. Mishra kommentiert:

„Der wieder aufgewärmte Weberianismus -Indiz für Fergusons nostalgische Sehnsucht nach den Gewissheiten des Sommers 1914- verwandelt sich in eine weitere Klage über die westliche Zivilisation, deren Niedergang sich an der Tatsache zeige, dass die Kirchen leer und die Steuern auf Vermögen und Einkommen hoch seien… während ‚Imperium‘ zu ‚einem schmutzigen Wort geworden‘ sei.“ Mishra S.44

Bei uns würden Christliche Union und neoliberale FDP dieser Klage wohl einmütig zustimmen, stehen Religion bei den einen und Steuersenkung bei beiden weit oben auf der Agenda. Unverblümter Neoimperialismus wäre jedoch noch nicht gesellschaftsfähig und fremdenfeindliche Ressentiments werden noch den Rechtsextremisten allein zugeschrieben.

Neben fleißigen Chinesen machen Ferguson auch die vermehrungsfreudigen Araber große Sorgen um die westliche Vormachtstellung in der Welt. Besonders Europa ist nach dieser ebenso paranoiden wie rassistischen Weltsicht in großer Gefahr, schon sehr bald von Moslems überrannt zu werden. Mishra zitiert die auch von deutschen Rechtspopulisten und Rassisten oft erhobene Behauptung, dass

„eine junge muslimische Gesellschaft südlich und östlich des Mittelmeers bereitsteht, ein vergreistes Europa zu kolonisieren“ (Mishra S.46, Ferguson zitierend)

Der von der BBC hofierte schottische Historiker Ferguson strebe penetrant nach einer Reinwaschung nebst Rivival des Imperialismus. Mishra zeigt auf, wie Ferguson dabei in Fußstapfen von Nazi-Befürwortern und Rassisten wie T.L.Stoddard tritt, der in den USA der 1920er Jahre mit faschistoiden Bestsellern die Angst vor Schwarzen schürte.

Die Verteilung der Rassen nach T. L. Stoddard, schematisierende Karte aus The Rising Tide of Color

Stoddard gilt, was Mishra nicht erwähnt, laut Wikipedia als wichtiger Stichwortgeber des deutschen Nationalsozialismus. Nicht nur dämonisierte er Juden als „eigene Bastard-Rasse“ und verleumdete sie als „Gefahr für die europäische Zivilisation“: In seinem Buch The Revolt Against Civilization. The Menace of the Under Man (1922; dt. Der Kulturumsturz. Die Drohung des Untermenschen, 1925) identifizierte er den Bolschewismus mit einem rassisch definierten Judentum und dieses wiederum mit dem „Untermenschen“. Der Nazi-Ideologe Alfred Rosenberg griff diese hetzerischen Behauptungen Stoddards in Der Mythus des 20. Jahrhunderts auf, und machte damit das zynische Unwort „Untermensch“ zum nationalsozialistischen Schlagwort. Stoddards Weltkarte der „Verteilung der Rassen“ erinnert nicht zufällig an ähnliche, aber von Rassen auf Kulturen umgeschwenkte Karten des Havard-Professors Samuel Huntington. Auch dieser US-Ideologe schürt in seiner „unheilverkündenden Großtheorie“ von einem angeblich tobenden „Kampf der Kulturen“ Rassenängste (Mishra S.28). Huntington begann seine Karriere als Berater beim rassistischen Apartheid-Regime von Pieter Willem Botha in Südafrikas Geheimdienst Civil Cooperation Bureau, das zahlreiche Verbrechen an Apartheidsgegnern verübte – und bezeichnete 1960 die Gesellschaft Südafrikas zur Zeit der Apartheid als eine „zufriedene Gesellschaft“ (Wikipedia). Später setzte er seine Arbeit in den USA fort und war Mitgründer und Herausgeber der einflussreichen Zeitschrift Foreign Policy, die eine große Stütze des „verleugneten“ Imperiums der USA ist.

Ferguson bemüht sich, den Imperialismus für seine angeblichen Bemühungen um Handelsfreiheit und sogar zur Abschaffung der Sklaverei zu preisen (Mishra S.12). Ob diese durch oder nicht eher gegen die Imperialisten abgeschafft wurde, dürfte zumindest strittig sein, ergänzt der Rezensent, unstrittig dagegen, dass die Hauptimperialisten durch Sklavenhandel und -ausbeutung reich wurden. Die verkrampft-feindselige Haltung heutiger Westeliten gegenüber anderen Kulturen wurzele, so Mishra, in solch dunklen Ideologien und ziele weiterhin auf skrupellosen Machterhalt ab.

Das habe auch Folgen für das politische Klima der angelsächsischen „liberalen Demokratien“ selbst. Mit der Entfernung von Denkmälern für Sklavenhändler sei es dort nicht getan. Es müssten auch Geschichts- und Schulbücher endlich umgeschrieben werden, damit das dort „neumodische“ Sozialstaatsdenken nicht länger dämonisiert werden könne. Voraussetzung dafür sei, dass man dort „nachhaltig mit der Sklaverei, dem Imperialismus und dem rassistischen Kapitalismus abrechnet. Sie waren es, die einigen Leuten in Großbritannien und den USA gewaltigen Reichtum und einzigartige Macht bescherten, die große Mehrheit der Weltbevölkerung jedoch in einen brutalen Kampf gegen Mangel und Entwürdigung stürzten.“ (Mishra S.295)

Pankaj Mishras neues Buch bietet eine kritische Perspektive auf die globalen Auswirkungen des Imperialismus und regt dazu an, über die historischen Kontinuitäten in der heutigen Welt nachzudenken. So entstand der Neoliberalismus aus der Angst der Weißen um ihre Vorherrschaft. Und der westliche Liberalismus ist gar nicht so liberal, denn er definiert die eigene Kultur als die maßgebliche und brandmarkt andere Entwürfe als rückständig oder autoritär.

Mishra, Pankaj: Freundliche Fanatiker: Über das ideologische Nachleben des Imperialismus, Frankfurt/M. 2021, S.Fischer Verlag, 304 Seiten, 24,00 Euro

(Aktualisiert Juli 2024)

12/13/21

Rezension Nils Melzer: Der Fall Julian Assange

Nils Melzer: Der Fall Julian Assange. Geschichte einer Verfolgung – Der spektakuläre Report des UNO-Sonderberichterstatters für Folter, Piper Verlag 2021

Hermine Humboldt

Hat die schwedische Justiz Beweise gefälscht und Zeugenaussagen manipuliert, um einen Vergewaltigungsverdacht gegen Julian Assange zu konstruieren? Der UNO-Menschenrechtsexperte Prof. Nils Melzer war anfangs kein Assange-Unterstützer, aber er nutzte sein diplomatisches Mandat für eigene Ermittlungen im Fall Assange. Der verleumdete Gründer von Wikileaks wurde damit endlich rehabilitiert -doch die Enthüllungs-Plattform war nach zehn Jahren Rufmord- und Hetzkampagne aus dem Bewusstsein der Medienkonsumenten so gut wie ausradiert.

Was hat der Fall Assange mit Netzphilosophie zu tun? Der Schweizer Netzphilosoph Felix Stalder wies schon 2016 in seinem bahnbrechenden Buch „Die Kultur der Digitalität“ auf eine westliche Machtelite hin, die er als „den inneren Kern des postdemokratischen Systems“ bezeichnete, „bestehend aus den Spitzen der Wirtschaft, der Politik und der Geheimdienste“ (Stalder 2016, S.230). Der Begriff „Postdemokratie“ markiert eine Kritik an westlichen Ländern, die von einer schleichenden Entdemokratisierung und Herrschaft von Technokraten ausgeht, die sich ausgeklügelter medialer Massenmanipulation bedient.

„Die Grenzen zwischen postdemokratischen Massenmedien und staatlichen Nachrichtendiensten sind fließend. Wie inzwischen bekannt ist, bestehen zwischen beiden Bereichen personelle Kontinuitäten und inhaltliche Gemeinsamkeiten.“ (Stalder 2016, S.234)

In seinem Buch „Der Fall Assange“ bestätigt Nils Melzer die Analyse seines Schweizer Landsmanns Felix Stalder in spektakulärer Weise: Denn der Fall Assange ist zweifellos einer der größten Justizskandale die wir kennen (sollten). Den jedoch die wenigsten in voller Tragweite zur Kenntnis nehmen können, denn es ist auch ein eklatanter Fall von Medienversagen der westlichen „freien Presse“. An deren tatsächliche Freiheit kann man angesichts ihrer äußerst desolaten (Nicht-) Berichterstattung zu weiten Teilen dieser Story höchstens noch eingeschränkt glauben -wie auch der Philosoph Stalder gut begründet argumentiert hatte. 2010 wurde Julian Assange zum „Staatsfeind Nr.1“ für die USA und Großbritannien und geriet ins Fadenkreuz der mächtigsten Geheimdienste der Welt: Der CIA, NSA, FBI (und der ca. 30 weiteren US-Geheimdienste) sowie der Britischen MI5, MI6 und GCHQ. Diese Dienste warfen, so muss man annehmen, angesichts der Wikileaks-Enthüllungen ihre ganze Macht in die Waagschale. Dazu gehört auch die Macht über Massenmedien, Politik und Justiz vieler Länder -ganz offensichtlich hier der Justiz in Schweden und England.

Mit dem „Afghan War Diary“ veröffentlicht WikiLeaks 2010 das größte Leak der US-Militärgeschichte, mitsamt Beweisen für Kriegsverbrechen und Folter. Kurz danach verdächtigt Schweden WikiLeaks-Gründer Julian Assange der Vergewaltigung, und ein geheimes US-Schwurgericht ermittelt wegen Spionage. Als ihn Ecuador nach jahrelangem Botschaftsasyl der britischen Polizei überstellt, verlangen die USA sofort seine Auslieferung und drohen mit 175 Jahren Haft. Nils Melzer, UNO-Sonderberichterstatter für Folter, will sich zunächst gar nicht auf den Fall einlassen. Erst als er Assange im Gefängnis besucht und die Fakten recherchiert, durchschaut er das Täuschungsmanöver der Staaten und beginnt den Fall als das zu sehen, was er wirklich ist: die Geschichte einer politischen Verfolgung. An Assange soll ein Exempel statuiert werden – zur Abschreckung aller, die die schmutzigen Geheimnisse der Mächtigen ans Licht ziehen wollen. Dieses packende Buch erzählt erstmals die vollständige Geschichte von Nils Melzers Untersuchung. (Piper-Verlagstext)

Der UNO-Menschenrechts- und Folterexperte Prof. Nils Melzer war anfangs kein Assange-Unterstützer. Melzer ist ein Anwalt der Menschenrechte, berufen von der UNO, und er nutzte sein diplomatisches Mandat für eigene Ermittlungen im Fall Assange -angefangen bei dem angeblichen „Vergewaltigungsverdacht“ an zwei Schwedinnen, den uns die Medien seit zehn Jahren vor jeder Erwähnung von Julian Assange präsentierten. Kritiker wie der Rezensent oder der Buchautor Gerd R. Rüger haben diese Bezichtigungen niemals geglaubt und immer von einer CIA-Intrige gegen Assange gesprochen -sie wurden dafür als „Verschwörungstheoretiker“ denunziert. Nun zeigt sich, dass wir Recht hatten: Es war eine Justiz-Geheimdienstintrige gegen Assange. Denn Prof. Melzer findet, wie er entsetzt feststellen muss, manipulierte schwedische Justizakten, und schreibt in seinem Buch über „die behördliche Nötigung der beiden Frauen zur Anpassung ihrer Aussagen an das offiziell forcierte Vergewaltigungsnarrativ“ (S.149).

Wikileaksgründer im britischen Guantánamo

London, Juni 2021. Im bestbewachten Knast Ihrer Majestät, dem Hochsicherheitsgefängnis Belmarsh, dem „britischen Guantánamo“, wird Julian Assange gefangen gehalten. Der wohl bislang bedeutendste Journalist des 21. Jahrhunderts ist auch inhaftiert, weil er die Foltermethoden des berüchtigten US-Gefangenenlagers Guantánamo enthüllte, jenem US-Gulag also, den der ehemalige US-Präsident Barack Obama eigentlich schließen wollte. Aber nicht die Verantwortlichen in den USA, sondern Assange wurde angeklagt: wegen der Veröffentlichung geheimer Dokumente – gutes Recht von Enthüllungsjournalisten – und wegen angeblicher Verstöße gegen das Anti-Spionage“-Gesetz, eines Relikts aus Zeiten des Ersten Weltkriegs. Der Schauprozess dauert an, das Unrechtsregime in London hat gerade, wie erwartet, den US-Anklägern die Auslieferung des politisch Verfolgten genehmigt.

Unsere Medien ARD, ZDF usw. betreiben eine systematisch verwirrende Berichterstattung über die Der-Fall-Assange-Enthüllungen von Nils Melzer, so droht der Kern seiner Botschaft unterzugehen: Die schwedische Justiz hat 2010 gezielt Beweise gefälscht und Zeugenaussagen manipulierte, um einen Vergewaltigungsverdacht gegen Julian Assange überhaupt erst zu konstruieren.

Der UN-Sonderberichterstatters zum Thema Folter ist Schweizer, aber Nils Melzer spricht auch fließend Schwedisch ein sagenhafter Glücksfall in der Sache Assange. Melzer arbeitete sich durch die schwedischen Akten zum Fall Assange. Doch sein bahnbrechendes Fazit wollte in unseren Leitmedien kaum jemand hören. Erst mühsam kämpfte er sich durch Netzmedien (!) wenigstens an den Rand der öffentlichen Aufmerksamkeit. Jetzt legte er ein Buch vor, das seine Arbeit akribisch beschreibt, „Der Fall Julian Assange: Geschichte einer Verfolgung“, und folgert

Der eigentliche Zweck der Verfolgung von Assange ist nicht in erster Linie die persönliche Bestrafung von Assange, sondern die Etablierung eines Präzedenzfalles mit globaler Abschreckungswirkung für andere Journalisten, Publizisten und Aktivisten, um künftig weltweit jeden strafrechtlich verfolgen zu können, der es wagen sollte, die schmutzigen Geheimnisse der Regierungen ans Licht der Öffentlichkeit zu ziehen.“ Melzer S.230

Prof. Nils Melzer kritisiert die Leitmedien. Zwar würden einige Meinungsbeiträge halbherzig Partei für Assange ergreifen und auch die Gefahr für die Pressefreiheit anerkennen, „doch kein einziges Medienhaus protestiert gegen die den ganzen Fall durchziehende Justizwillkür“ (S.312). Die Justizwillkür zeige sich in der britischen Willfährigkeit gegenüber der US-Anklage vor dem Londoner Gericht:

Schritt für Schritt wurden auch die abwegigsten Argumente der USA kritiklos bestätigt. Gleichzeitig, fast wie im Vorbeigehen, wischte Bezirksrichterin Baraitser sowohl die rechtlichen Einwände als auch die entlastenden Gutachten und Zeugenaussagen der Verteidigung ohne viel Federlesens vom Tisch.“Melzer S.318

Prof. Nils Melzer kommt in seinem Bericht, der sich wie ein Justizthriller liest, also zu Schlussfolgerungen, die sich weitgehend mit dem decken, was Assange-Anhänger seit zehn Jahren skandalisieren: Der WikiLeaks-Gründer wurde Opfer einer Intrige, einer gnadenlosen Rufmordkampagne sowie politischer Verfolgung.

Bei dieser großangelegten Intrige handelt es sich demnach um Staatsverbrechen, für die die Verantwortlichen der beteiligten Staaten – mindestens der USA, Großbritannien, Schweden und zuletzt auch Ecuador – eigentlich vor Gericht gehören würden. Gegen Assange konnten die USA vor Gericht, anders als die Londoner Richterin in ihrem Urteil behauptet, aus Melzers Sicht nichts strafrechtlich Relevantes vorweisen. In einem rechtsstaatlichen Verfahren wäre er schon lange ein freier Mann. Das läuft schließlich auf den Vorwurf der Justizwillkür hinaus.

Westliche Massenmedien als Mittäter

Prof. Nils Melzer zeigt sich in seinem Buch überzeugt, die westlichen Medien hätten sich mit ihrer willfährigen Beteiligung an der Anti-Assange-Rufmordkampagne zu Gehilfen einer perfiden psychischen Folter gemacht – er spricht von „öffentlichem Mobbing“ (S.109). Der UNO-Experte kritisiert auch das anhaltende Ausbleiben medialer Aufmerksamkeit für den Fall Assange. Würden westliche Leitmedien die Justizwillkür angemessen skandalisieren, so seine These, würde das windige Verfahren rasch eingestellt: „Denn wenn Regierungen eines fürchten, dann ist es das gebündelte Scheinwerferlicht und die kritischen Fragen der Massenmedien.“ (S.312)

Beides bleibt jedoch aus. Stattdessen greifen westliche Leitmedien Nils Melzer an, den Überbringer der unbequemen Botschaft: Der skandalösen Botschaft, dass im Westen ein Dissident gefoltert wird, von den eigenen Regierungen, nicht im feindlichen Ausland. Unsere Leit- und Netzmedien ignorieren Melzers Erkenntnisse und berichten lieber noch kleinste und selbst konstruierte Verfehlungen von Julian Assange (wie seine angeblich hungernde Katze im Botschaftsasyl) zehn Jahre mehrheitlich breitgetreten und ihn zu einem Außenseiter stigmatisiert. Rückgratlose Leitmedien sehen bei Melzer nun wohl ihre eigene Erbärmlichkeit bestätigt -von derart autorisierter Stelle, dass sie nur peinliches Schweigen darüber breiten möchten. Melzers Buch ist eine weite Verbreitung zu wünschen, besonders unter Freunden der Netzphilosophie.

Nils Melzer: Der Fall Julian Assange. Geschichte einer Verfolgung – Der spektakuläre Report des UNO-Sonderberichterstatters für Folter, (Mitautor: Oliver Kobold ), Piper Verlag 2021, 336 Seiten, 22,00 Euro. https://www.piper.de/buecher/der-fall-julian-assange-isbn-978-3-492-07076-8

10/2/20

„Gefährder“: Der Migranten-Minority Report

In der Verfilmung „Minority Report“ einer Dystopie des SF-Autors P.K.Dick werden Menschen nicht mehr nur für Verbrechen bestraft, die sie begangen haben, sondern auch für solche die sie begehen werden (nach Ansicht der Sicherheitsbehörden). Dies widerspricht den Grundsätzen des Rechtsstaates und der Bürgerrechte, wird aber immer mehr zur Realität -spätestens seit den 9/11-Anschlägen, die 2001 drei Türme des WTC in New York zerstörten (nicht nur zwei, wie in neueren Dokumentationen oft wahrheitswidrig suggeriert). Die folgende Erläuterung der regierungseigenen Bundeszentrale für politische Bildung für den (noch nicht legal definierten) Begriff „Gefährder“, bislang nur ein „polizeilicher Arbeitsbegriff“, erläutert einige Aspekte dieser Problematik. Seit 9/11 führen nicht nur die USA, sondern offenbar „der Westen“, also auch wir, einen „Krieg gegen den Terror“, der eine Einschränkung von Bürgerrechten beinhaltet. Kontrolliert wird dabei offenbar insbesondere bei Migranten, „eine nicht näher konkretisierbare Gefährlichkeit, die sich in der Zukunft ausbilden könnte. (…) Ziel ist hierbei, schwer bestimmbare konkrete Zeitpunkte und Formen eines terroristischen Anschlags zu kontrollieren und damit auch aufsteigende Ängste in der Bevölkerung zu reagieren.“ (So das bpb im jetzt folgenden Text, Anmerkung: ist es nur Zufall, dass in diesem Satz ein „auf“ zu fehlen scheint? T.Barth)

Migration und Sicherheit: „Gefährder“ Gefährder – dieser Begriff taucht in aktuellen sicherheitspolitischen Debatten immer wieder auf. Doch wer ist damit eigentlich gemeint?

Autoren/-innen: Daniela Hunold, Jan Raudszus für bpb.de (Bundeszentrale für politische Bildung)

13.01.2020 / 6 Minuten zu lesen

Ein Mann trägt eine elektronische Fußfessel (Symbolbild -aus urheberrechtl.Gründen hier entfallen). Gefährdern kann das Tragen einer elektronischen Fußfessel angeordnet und somit ihre Bewegungen überwacht werden.

Der Begriff des Gefährders ist innerhalb der letzten Jahre zu einer festen Größe im Sprachgebrauch der Sicherheitsbehörden avanciert.[1] Er findet z.B. als Bezeichnung für Personen Verwendung, von denen eine islamistisch motivierte Terrorgefahr ausgeht. Der Begriff erstreckt sich aber auch auf andere Phänomenbereiche der politisch motivierten Kriminalität. Der Gefährderbegriff ist allerdings nicht legal definiert. Er ist also nicht als Rechtsbegriff im Gesetz verankert. Vielmehr handelt es sich um einen polizeilichen Arbeitsbegriff[2], der insbesondere im Zusammenhang mit Terrorismus wird. 2004 wurde der Begriff des Gefährders durch die Arbeitsgemeinschaft der Landeskriminalämter und des Bundeskriminalamtes folgendermaßen definiert:

„Ein Gefährder ist eine Person, bei der bestimmte Tatsachen die Annahme rechtfertigen, dass sie politisch motivierte Straftaten von erheblicher Bedeutung, insbesondere solche im Sinne des § 100a der Strafprozessordnung (StPO), begehen wird.[3]

Hierbei sind vor allem besonders schwerwiegende Straftaten angesprochen, die sich gegen staatliche Interessen oder das Leben von Menschen richten. In der Regel sind mit der Definition Personen gemeint, bei denen die Behörden annehmen, dass diese extremistische Mitglieder des militanten Spektrums des jeweiligen Phänomenbereichs sind. Aufgrund von sicherheitsbehördlichen Erkenntnissen können sie als Gefährder eingestuft werden, auch wenn keine beweiskräftigen Tatsachen für eine zukünftige Straftat vorliegen.

Neben der Einstufung als Gefährder gibt es außerdem die Einstufung als „relevante Person“. Dabei handelt es sich um Personen, die nach Einschätzung der Polizeibehörden innerhalb des extremistischen bzw. terroristischen Spektrums eine Rolle als Führungsperson, Logistiker oder „Akteur“ einnehmen. Von diesen Personen wird daher davon ausgegangen, dass sie sich an einer der oben genannten Straftaten beteiligen bzw. diese unterstützen würden. Es kann sich auch um eine bedeutende Kontakt- oder Begleitperson eines Gefährders, Beschuldigten oder Verdächtigen einer politisch motivierten Straftat handeln. [4]

Zahl der Gefährder

Die Zahl der Gefährder wird von keiner offiziellen Stelle regelmäßig veröffentlicht und ist zum Beispiel auch nicht Teil des Bundesverfassungsschutzberichts. Aufschluss geben v.a. Anfragen der Parteien im Deutschen Bundestag und Abfragen der Presse beim Bundeskriminalamt (BKA).

Danach verteilen sich die aktuellen Zahlen der Gefährder und relevanten Personen wie folgt:

Das BKA listet 679 Personen als Gefährder und 509 Personen als relevante Personen im Bereich der politisch-motivierten Kriminalität mit religiösem Hintergrund – dabei dürfte es sich ausschließlich um Mitglieder der islamistischen Szene handeln (Stand: 01.11.2019).

Im Phänomenbereich Rechtsextremismus liegen die Zahlen bei 46 Gefährdern bzw. 126 relevanten Personen (Stand: 25.11.2019). Die wenigsten Gefährder und relevanten Personen listet das BKA im Bereich der politisch-motivierten Kriminalität – links -. Hier ist die Rede von fünf Gefährdern und 85 relevanten Personen (Stand: 15.10.2019). Der Bereich der sogenannten Ausländischen Ideologie (u.a. die kurdische Arbeiterpartei PKK) schlägt mit 21 Gefährdern bzw. 50 relevanten Personen zu Buche. [5]

Einstufung und Radar-iTE

Die Einstufung einer Person als Gefährder oder relevante Person erfolgt durch die Polizeien der Länder oder das BKA. Die Behörden bauen ihre Entscheidung dabei auf vorliegenden Informationen auf. [6] Das bedeutet auch, dass die Entscheidung zur Einstufung nach den Maßgaben des jeweiligen Bundeslandes geschieht. Um eine Vereinheitlichung herbeizuführen und eine höhere Genauigkeit der Gefährdungseinschätzung einer Person zu gewährleisten, wurde 2016/2017 vom BKA in Zusammenarbeit mit der Arbeitsgruppe Forensische Psychologie der Universität Konstanz für den Bereich des islamistischen Terrorismus das Risikobewertungsinstrument Radar-iTEeingeführt. Basierend auf biografischen Informationen, die das Verhalten einer Person priorisieren und nicht etwa die Gesinnung oder Religiosität einer Person, erstellen Sachbearbeiter eine Bewertung mit drei verschiedenen Ausprägungen: hohes Risiko, auffälliges und moderates Risiko. Nach Bewertung des BKA wird der Einschätzungsprozess damit transparent und überprüfbar. [7] Gleichzeitig erlaubt Radar-iTE eine Priorisierung vorzunehmen und damit auch bei begrenzten Ressourcen polizeiliche Maßnahmen fokussierter einzusetzen.

Maßnahmen

Die ergriffenen Maßnahmen zur Eindämmung der von Gefährdern und relevanten Personen ausgehenden Gefahr unterscheiden sich nach Bundesland, den dortigen gesetzlichen und dienstlichen Regelungen und nach dem betroffenen Individuum. Behörden äußern sich normalerweise nicht dazu, welche Maßnahmen sie jeweils ergreifen. Zu den möglichen Maßnahmen gehören Gefährderansprachen und verschiedene Formen der Informationsbeschaffung, zum Beispiel durch (punktuelle oder dauerhafte) Observation. Auch kann bei Gefährdern das Tragen einer elektronischen Fußfessel angeordnet und somit ihre Bewegungen überwacht werden.

Kritik des Begriffs

Die Anwendung des Begriffs, also die Einstufung einer Person als Gefährder, ist umstritten, da sie vor allem auf Annahmen und Erkenntnissen der Sicherheitsbehörden beruht, sich daraus aber intensivierte polizeiliche Maßnahmen und erweiterte Befugnisse ergeben. So wurden mit der Verabschiedung des neuen Polizeiaufgabengesetzes in Bayern im Jahr 2018 die polizeilichen Befugnisse gegen eine als Gefährder eingestufte Person deutlich ausgeweitet.

Viele Bundesländer streben die Abschiebung von Gefährdern an, sofern diese ausländische Staatsangehörige sind. Im Jahr 2018 wurden insgesamt 52 Gefährder und andere Personen aus der islamistischen Szene ausgewiesen.[8] Seit 2017 wird dazu u.a. die Möglichkeit des § 58a AufenthG genutzt. 2019 hat das Bundesverwaltungsgericht auf der Grundlage eines hängigen Falls in Bremen entschieden, dass nach dieser Bestimmung eine Abschiebungsanordnung erlassen werden kann „auf der Grundlage einer hinreichenden zuverlässigen Tatsachengrundlage einer vom Ausländer ausgehende Bedrohungssituation im Sinne eines beachtlichen Risikos“, welches sich jederzeit aktualisieren und dann in eine konkrete Gefahr umschlagen könne. Eine bereits vorhandene konkrete Gefahr im Sinne des Polizeirechts ist dafür aber ausdrücklich nicht notwendig.[9]

Mit der Einführung und Anwendung des Gefährderbegriffes verdeutlicht sich eine Verschiebung des sicherheitsbehördlichen Fokus von konkreten, strafbaren Handlungen oder einem konkreten Verdacht auf Verhaltensweisen, die „nicht in den Bereich der Strafbarkeit (auch im Vorbereitungs- oder Versuchsstadium)“ fallen.[10] Vielmehr gewinnt die Bewertung der Bedrohung – für die Indizien ausreichend sein können – durch das „kriminelle Potential“ an Gewicht, also eine nicht näher konkretisierbare Gefährlichkeit, die sich in der Zukunft ausbilden könnte. Dementsprechend gelten auch andere Beurteilungsmaßstäbe und Eingriffsschwellen, die sich eher an einer abstrakten anstatt an einer konkreten Gefahr orientieren.

Die beschriebene Vorverlagerung des Zeitpunktes staatlicher Interventionen in einen Bereich, in dem noch kein strafrechtlich relevantes Handeln konkret bestimmbar oder vorhersagbar ist, zeichnet sich spätestens seit den Terroranschlägen im September 2001 ab. So führen z.B. die nach 9/11 verabschiedeten Anti-Terror-Gesetze

zu einer Vorverlagerung von Strafbarkeit und Erweiterung des Sicherheitsbegriffs zur vorbeugenden Sicherheitsgewährleistung. Weniger das Erreichen eines Zustandes der Sicherheit ist hier handlungsleitend, sondern die Annahme verschiedener Unsicherheitszustände. Ziel ist hierbei, schwer bestimmbare konkrete Zeitpunkte und Formen eines terroristischen Anschlags zu kontrollieren und damit auch aufsteigende Ängste in der Bevölkerung zu reagieren. Im Rahmen des Vorsorge-Paradigmas sind Vorverlagerungen somit oftmals mit der „zu bekämpfenden terroristischen Gefährdungslage begründet, bei der sich noch nicht hinreichend konkret ablesen lässt, wie, wann und wo sich diese Gefahr realisieren wird“.[11]

Dieser Artikel ist Teil des bpb-Kurzdossiers Migration und Sicherheit.

Fussnoten

  1. Wegner, M. & Hunold, D. (2017): Die Transformation der Sicherheitsarchitektur – die Gefährdergesetze im Lichte des Vorsorge-Paradigmas. KriPoZ (6), S. 367-375.

Fußnote  [2] Wissenschaftlicher Dienst des Deutschen Bundestages (2017): Sachstand Legaldefinition des Begriffes „Gefährder“. WD 3 – 3000 – 046/17. Externer Link: https://www.bundestag.de/resource/blob/503066/8755d9ab3e2051bfa76cc514be96041f/wd-3-046-17-pdf-data.pdf (Zugriff: 9.8.2019).

  1. Fußnote  [3] BT-Drs. 18/7151. Antwort der Bundesregierung auf die Kleine Anfrage der Abgeordneten Ulla Jelpke, Christine Buchholz, Annette Groth, weiterer Abgeordneter und der Fraktion DIE LINKE – Drucksache 18/6959 – Sogenannte islamistische Gefährder. Externer Link: http://dip21.bundestag.de/dip21/btd/18/071/1807151.pdf (Zugriff: 9.8.2019).
  1. Fußnote  [4] Bundeskriminalamt: Politisch motivierte Kriminalität. Externer Link: https://www.bka.de/DE/UnsereAufgaben/Deliktsbereiche/PMK/pmk.html (Zugriff: 9.8.2019).
  1. Fußnote  [5] Diese Aufstellung beruht auf einer journalistischen Abfrage der Zahlen beim BKA, die auf Twitter veröffentlich wurde (Externer Link: https://twitter.com/FlorianFlade/status/1199697804886712323?s=20). Die Herkunft der Daten wurde durch Rücksprache mit dem Journalisten am 27.11.2019 bestätigt.
  1. Fußnote  [6] Bundeskriminalamt: Politisch motivierte Kriminalität. Externer Link: https://www.bka.de/DE/UnsereAufgaben/Deliktsbereiche/PMK/pmk.html (Zugriff: 9.8.2019).
  1. Fußnote  [7] Bundeskriminalamt (2017): Presseinformation: Neues Instrument zur Risikobewertung von potentiellen Gewaltstraftätern. 2. Februar. Externer Link: https://www.bka.de/DE/Presse/Listenseite_Pressemitteilungen/2017/Presse2017/170202_Radar.html (Zugriff: 9.8.2019).
  1. Fußnote  [8] Tagesspiegel (2019): Weiterhin um die 400 islamistische Gefährder in Deutschland. 6. März. Externer Link: https://www.tagesspiegel.de/politik/terrorgefahr-weiterhin-um-die-400-islamistische-gefaehrder-in-deutschland/24070206.html (Zugriff 11.11.19)
  1. Fußnote  [9] Bundesverwaltungsgericht (2017): Beschluss vom 13.07.2017 – BVerwG 1 VR 3.17. Externer Link: https://www.bverwg.de/130717B1VR3.17.0 (Zugriff 11.11.19)
  1. Fußnote  [10] Schwarz, K.-A. (2017): Sachverständige Stellungnahme zu dem Gesetzentwurf der Fraktionen CDU/CSU und der SPD für ein Gesetz zur Neustrukturierung des Bundeskriminalamtgesetzes (BT-Drs. 18/11163). Deutscher Bundestag. Ausschussdrucksache 18(4)806 G. Externer Link: https://www.bundestag.de/resource/blob/498694/76f82280dcc2c6f16722b181cada3b34/18-4-806-G-data.pdf (Zugriff: 16.12.2019).
  1. Fußnote  [11] Wegner, M. & Hunold, D. (2017): Die Transformation der Sicherheitsarchitektur – die Gefährdergesetze im Lichte des Vorsorge-Paradigmas. KriPoZ (6), S. 367-375, S. 327f.

Lizenz

Dieser Text ist unter der Creative Commons Lizenz „CC BY-NC-ND 3.0 DE – Namensnennung – Nicht-kommerziell – Keine Bearbeitung 3.0 Deutschland“ veröffentlicht. Autoren/-innen: Daniela Hunold, Jan Raudszus für bpb.de. Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 3.0 DE und der Autoren/-innen teilen. Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.

Originaltext hier

04/28/20

Smart Borders: „Intelligente“ Schengenraum-Außengrenzen

Smart Borders – intelligente Außengrenzen des Schengenraums?

Goetz Herrmann, (für bpb) 13.01.2020 / 4 Minuten zu lesen

Offen und sicher sollen sie sein. Sie sollen die Zirkulation von Waren, Kapital und Personen ermöglichen, gleichzeitig aber irreguläre Bewegungen verhindern. Ein Beitrag über Grenzen als „Filter“ und Konzepte ihrer Digitalisierung.

Scanner des Smart Borders Grenzkontrollsystems am Flughafen Frankfurt/Main. Das Smart Borders Package soll ein besseres Management der Außengrenzen der EU ermöglichen. (© dpa)

Was sind Smart Borders?

Unter Smart Borders – intelligenten Grenzen – wird ein Bündel an Maßnahmen und Technologien zur Überwachung der Grenzen des Schengenraumes verstanden. Das 2013 auf den Weg gebrachte Smart Borders Package soll aus Sicht der Europäischen Kommission (EK) ein besseres Management der Außengrenzen ermöglichen, effektiver Interner Link: irregulärer Migration entgegenwirken und einen „Beitrag zur Bekämpfung von Terrorismus und schwerer Kriminalität“ Zur Auflösung der Fußnote[1] leisten. Dazu werden Informationen über Nicht-EU-Bürger_innen (Drittstaatangehörige) gesammelt. Gleichzeitig sollen Grenzübertritte schneller vonstattengehen. Eine zentrale Rolle spielen dabei Informationssysteme wie das „Einreise-/Ausreisesystem“ (Entry-Exit-System, EES), die zu einer Automatisierung der Grenzkontrollen beitragen sollen. In diesen Datenbanken können große Mengen an Informationen zusammengefasst werden, auf die Behörden in ganz Europa Zugriff haben.

Der Kontext: Bordermanagement

Die Smart Borders Initiative der EU vollzieht sich vor dem Hintergrund eines weltweiten Transformationsprozesses von Grenzen. Dabei treten neben Modelle einer klassischen souveränen Grenzsicherungspolitik (Interner Link: manifest im Bild einer Mauer) Konzepte des Grenzmanagements. Diese streben an, Sicherheitsrisiken abzuwenden, gleichzeitig aber ein hohes Maß an Mobilität aufrechtzuerhalten. Zur Auflösung der Fußnote[2] Dies sei nötig, da eine prosperierende Gesellschaft auf ein hohes Maß an Mobilität und Zirkulation von Personen, Waren und Kapitel angewiesen sei. Aus dieser Offenheit gingen jedoch gleichzeitig Bedrohungen hervor, „da Terroristen und andere Kriminelle danach trachten, diese Freiheiten zu zerstörerischen und böswilligen Zwecken zu missbrauchen“. Zur Auflösung der Fußnote[3] Demnach müssten „Grenzen als Sortiermaschinen“ Zur Auflösung der Fußnote[4] oder wie eine „firewall“ Zur Auflösung der Fußnote[5] operieren und gefährliche Elemente aus dem komplexen Fluss transnationaler Zirkulation herausfiltern. Zur Auflösung der Fußnote[6] Grenz- und Sicherheitspolitik richten ihren Fokus also verstärkt auf transnationale Mobilität.

Die EU setzt mit ihrem Konzept des „integrierten Grenzmanagements“ auf die Zusammenarbeit mit Anrainerstaaten Zur Auflösung der Fußnote[7], etwa in Form von Mobilitätspartnerschaften Zur Auflösung der Fußnote[8], und den umfangreichen Informationsaustausch „zwischen Grenzschutzbehörden und anderen Strafverfolgungsbehörden“. Zur Auflösung der Fußnote[9] Dabei ruhen große Hoffnungen auf neuester Informations- und Kommunikationstechnologie.

Das Smart Borders Package

Das Smart Borders Package wurde erstmalig am 28. Februar 2013 von der damaligen EU-Innenkommissarin Cecilia Malmström auf einer Pressekonferenz präsentiert. Dabei bezog sie sich auf Pläne der Kommission von 2008, worin bereits die Einführung eines Entry-Exit-Systems und die erleichterte Einreise für als vertrauenswürdig eingestufte und registrierte Vielreisende, das „Registered Traveller Programme“ (RTP), gefordert wurden. Gegen Letzteres regte sich v.a. im Europäischen Parlament Widerstand, sodass es 2016 zurückgezogen wurde. Im Oktober 2017 stimmten das Europäische Parlament und der Rat der EU einer modifizierten Version des Entry-Exit-Systems zu, das bis 2020 vollständig implementiert sein und rund 480 Millionen Euro kosten sollte. Zur Auflösung der Fußnote[10] Inzwischen wird mit einer operativen Inbetriebnahme im Jahr 2021 gerechnet. Zur Auflösung der Fußnote[11]

Datenbanken

Innenkommissarin Malmström präsentierte die im Smart Borders Package vorgeschlagenen Technologien als Grundstein für ein „offeneres“ und zugleich „sichereres“ Europa. Zur Auflösung der Fußnote[12] Das deutet bereits an, welche wichtige Rolle „einschlägigen Informationsinstrumenten“ Zur Auflösung der Fußnote[13] im Bereich des Grenzmanagements und der Sicherheitspolitik zugesprochen wird. Tatsächlich verfügt die EU über mehrere solcher „Informationssysteme“, die „zusammengenommen ein komplexes Muster einschlägiger Datenbanken“ Zur Auflösung der Fußnote[14] bilden. Die drei bisher wichtigsten sind das Interner Link: Schengener Informationssystem (SIS), worin u.a. Personen- und Sachfahndungen (z.B. gestohlene Fahrzeuge) eingetragen sind, das Visa Information System (VIS) mit Daten über erteilte Visa für Kurzzeitaufenthalte und Interner Link: EURODAC, eine Datenbank, in der Fingerabdrücke von Personen gesammelt werden, die einen Asylantrag gestellt haben oder ohne legalen Aufenthaltsstatus in einem Mitgliedstaat aufgegriffen wurden.

Das Entry-Exit-System soll diese Informationssysteme ergänzen. Darin sollen sowohl Drittstaatsangehörige erfasst werden, die sich für einen Kurzaufenthalt im Hoheitsgebiet der Mitgliedstaaten aufhalten dürfen, als auch Personen, denen Einreise und Aufenthalt verweigert wurden. Zur Auflösung der Fußnote[15] Gespeichert werden Datum und Ort der Einreise sowie die Dauer des autorisierten Aufenthalts. Zur Auflösung der Fußnote[16] Die zentrale Speicherung dieser Informationen soll v.a. dabei helfen, eingereiste „Overstayer“ zu ermitteln, also Personen, die zwar mit einem gültigen Visum den Schengenraum betreten haben, aber ihn nach Ablauf des Visums nicht wieder verlassen. Zur Auflösung der Fußnote[17] Im Entry-Exit-System werden neben Kenndaten einer Person auch biometrische Informationen erfasst, in diesem Falle vier Fingerabdrücke und ein Gesichtsbild. Dies soll Dokumentenfälschungen erschweren. Entry-Exit-System und Visa Information System sollen auch miteinander verknüpft werden, also den direkten Zugriff auf die jeweiligen Daten ermöglichen.

Kritik

Wie effektiv die angestrebten Maßnahmen tatsächlich sein werden, ist schwer einzuschätzen, da „Interner Link: Sicherheit“ kaum messbar ist. Kritiker_innen bezweifeln, dass die Überwachung von Mobilität Terroranschläge wirksam verhindern kann, da nur wenige Attentäter_innen in der Vergangenheit von außerhalb des Schengenraums kamen oder im Zuge irregulärer Reisebewegungen unentdeckt nach Europa gelangt sind. Zur Auflösung der Fußnote[18] Der Großteil der Kritik an Bestrebungen zur Errichtung einer Smart Border bezieht sich jedoch auf Interner Link: datenschutzrechtliche Probleme. Diese entstehen aus der massenhaften Erhebung, Speicherung, Verarbeitung und dem Austausch von personenbezogenen Daten: So sah beispielsweise 2013 der Europäische Datenschutzbeauftragte Verstöße gegen Artikel 7 (Achtung des Privat- und Familienlebens) und 8 (Schutz personenbezogener Daten) der EU-Grundrechtecharta. Zur Auflösung der Fußnote[19] Ebenso gilt die Vermengung von sicherheits- und migrationspolitischen Fragen als problematisch. Dass dies durch die neuen Technologien forciert wird, zeigt das Beispiel der Praxis des „cross-referencing“ von Datenbanken: Dadurch wird die ehemals auf Papierlisten geführte kleine Gruppe unerwünschter Personen – primär Terrorist_innen und Schwerkriminelle – mit der weitaus größeren Personengruppe in Verbindung gebracht, die wegen kleinerer Verstöße gegen Aufenthaltsrecht oder Visaüberschreitung erfasst wurden. Zur Auflösung der Fußnote[20]

Dieser Artikel ist Teil des Kurzdossiers „Interner Link: Migration und Sicherheit„.

Bigo, Didier (2011): Freedom and speed in enlarged borderzones. In: Vicki Squire (Hg.): The contested politics of mobility. Borderzones and irregularity. London: Routledge (Routledge advances in international relations and global politics, 87), S. 31–50.

Bigo, Didier; Brouwer, Evelien Renate; Carrera, Sergio; Guild, Elspeth; Guittet, Emmanuel-P; Jeandesboz, Julien et al. (2015): The EU counter-terrorism policy responses to the attacks in Paris. Towards an EU security and liberty agenda. Brüssel (CEPS paper in liberty and security in Europe).

Broeders, Dennis; Hampshire, James (2013): Dreaming of Seamless Borders. ICTs and the Pre-Emptive Governance of Mobility in Europe. In: Journal of Ethnic and Migration Studies 39 (8), S. 1201–1218.

Europäische Kommission (EK) (2016a): Solidere und intelligentere Informationssysteme für das Grenzmanagement und mehr Sicherheit. Mitteilung der Kommission an das Europäische Parlament und den Rat. Brüssel.

Europäische Kommission (EK) (2016b): Proposal for a Regulation of the European Parliament and the Council: establishing an Entry/Exit System (EES) to register entry and exit data and refusal of entry data of third country nationals crossing the external borders of the Member States of the European Union and determining the conditions for access to the EES for law enforcement purposes and amending Regulation (EC) No 767/2008 and Regulation (EU) No 1077/2011. Brüssel.

Europäische Kommission (EK) (2008): Vorbereitung der nächsten Schritte für die Grenzverwaltung in der Europäischen Union. Mitteilung der Kommission an das Europäische Parlament, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen. Brüssel.

Europäisches Parlament (EP); Rat der Europäischen Union (Rat) (2017): Verordnung (EU) 2017/2226 des Europäischen Parlaments und des Europäischen Rates über ein Einreise-/Ausreisesystem (EES) vom 30. November 2017 zur Erfassung der Ein- und Ausreisedaten sowie der Einreiseverweigerungsdaten von Drittstaatsangehörigen an den Außengrenzen der Mitgliedstaaten und zur Festlegung der Bedingungen für den Zugang zum EES zu Gefahrenabwehr- und Strafverfolgungszwecken und zur Änderung des Übereinkommens zur Durchführung des Übereinkommens von Schengen sowie der Verordnungen (EG) Nr. 767/2008 und (EU) Nr. 1077/2011. In: Amtsblatt der Europäischen Union.

Herrmann, Goetz (2018): Reflexive Sicherheit, Freiheit und Grenzmanagement in der Europäischen Union. Die Reterritorialisierung emergenter Bedrohungsgefüge. Wiesbaden: Springer VS.

Lenz, Ramona (2010): Mobilitäten in Europa. Migration und Tourismus auf Kreta und Zypern im Kontext des europäischen Grenzregimes. Wiesbaden: Springer VS.

Mau, Steffen (2010): Grenzen als Sortiermaschinen. In: Welttrends. Zeitschrift für internationale Politik 71, S. 57-66.

Rat der Europäischen Union (Rat) (2010): Strategie für die innere Sicherheit der Europäischen Union. Auf dem Weg zu einem europäischen Sicherheitsmodell. Europäischer Rat; Europäische Union. Luxemburg.

Walters, William (2009): Europe’s Borders. In: Chris Rumford (Hg.): The SAGE Handbook of European Studies. Los Angeles, Calif.: SAGE, S. 485–505.

Fussnoten

Zur Erwähnung der Fußnote  [1]

EK (2016a), S. 14.

Zur Erwähnung der Fußnote  [2]

Vgl. Herrmann (2018), S. 227.

Zur Erwähnung der Fußnote  [3]

Rat (2010), S. 11.

Zur Erwähnung der Fußnote  [4]

Mau (2010).

Zur Erwähnung der Fußnote  [5]

Walters (2009), S. 492.

Zur Erwähnung der Fußnote  [6]

Vgl. Bigo (2011), S. 35.

Zur Erwähnung der Fußnote  [7]

Vgl. Rat (2010), S. 28.

Zur Erwähnung der Fußnote  [8]

Die Partnerstaaten erhalten dabei finanzielle Mittel oder Visaerleichterungen, wenn sie sich an den Grenzsicherungsmaßnahmen der EU beteiligen. Vgl. Lenz (2010).

Zur Erwähnung der Fußnote  [9]

Rat (2009), S. 56.

Zur Erwähnung der Fußnote  [10]

Vgl. EK (2016b), S. 6. Eine Zusammenfassung der Änderungen gegenüber dem Vorschlag von 2013 findet sich unter: Externer Link: http://europa.eu/rapid/press-release_MEMO-16-1249_en.htm (Zugriff: 18.6.2019).

Zur Erwähnung der Fußnote  [11]

Externer Link: https://ees.secunet.com/de/fakten-zum-entry-exit-system/ (Zugriff: 18.6.2019).

Zur Erwähnung der Fußnote  [12]

Vgl. Externer Link: http://europa.eu/rapid/press-release_SPEECH-13-172_en.htm

Zur Erwähnung der Fußnote  [13]

EK (2016a), S. 2.

Zur Erwähnung der Fußnote  [14]

Ebd., S. 6.

Zur Erwähnung der Fußnote  [15]

Vgl. EP/Rat (2017), S. 21.

Zur Erwähnung der Fußnote  [16]

Vgl. EK (2008), S. 8.

Zur Erwähnung der Fußnote  [17]

Vgl. ebd., S. 5.

Zur Erwähnung der Fußnote  [18]

Vgl. Bigo et.al. (2015), S. 10.

Zur Erwähnung der Fußnote  [19]

Externer Link: https://edri.org/smart-borders-the-challenges-remain-a-year-after-its-adoption/

Zur Erwähnung der Fußnote  [20]

Vgl. Broeders/Hampshire (2013), S. 1208.

Lizenz

Dieser Text ist unter der Creative Commons Lizenz „CC BY-NC-ND 3.0 DE – Namensnennung – Nicht-kommerziell – Keine Bearbeitung 3.0 Deutschland“ veröffentlicht. Autor/-in: Goetz Herrmann für bpb.de.
Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 3.0 DE und des/der Autors/-in teilen.