10/3/25

Grenzpolizist Big Brother: Migrations-Management-KI

Die folgende Erläuterung der regierungseigenen Bundeszentrale für politische Bildung (bpb) für KI im Einsatz gegen Migration (euphemistisch: „Migrationsmanagement“), erläutert einige Aspekte dieser Problematik. Seit 9/11 führen nicht nur die USA, sondern offenbar „der Westen“, also auch wir, einen „Krieg gegen den Terror“, der eine Einschränkung von Bürgerrechten beinhaltet. Kontrolliert wird dabei prinzipiell jeder von uns, speziell aber die Gruppe der sogenannten „Gefährder“, die sich offenbar insbesondere bei Migranten finden lässt; ihr Merkmal ist „eine nicht näher konkretisierbare Gefährlichkeit, die sich in der Zukunft ausbilden könnte. (…) Ziel ist hierbei, schwer bestimmbare konkrete Zeitpunkte und Formen eines terroristischen Anschlags zu kontrollieren und damit auch aufsteigende Ängste in der Bevölkerung zu reagieren.“ Siehe: „Gefährder“: Der Migranten-Minority Report.

Ängste der Bevölkerung sollen also „reagiert werden“ (nicht auf sie reagieren!); ein typischer Freudscher Versprecher, bei dem die wahre Intention entschlüpfte? Sollen unsere Ängste „reagiert werden“, also reaktiviert, abreagiert oder agitiert werden? Ängste helfen Machthabern, Bevölkerungen zu kontrollieren und in ihrem Sinne zu manipulieren. Ängste machen Menschen bereit zum Hass, zur Blindheit für vernünftige Lösungen, zur fanatischen Aufrüstung und Militarisierung. Andersartige, Andersfarbige, Migranten sind dafür die naheliegenden Sündenböcke, vor denen im Sinne reaktionärer und rechtsextremer Ideologien Angst geschürt werden soll. Wo Multi-Milliarden und Billionen für Rüstung (statt für die Menschen) ausgegeben werden, fällt auch für BigTech und KI einiges ab: Die gleich genannte Überwachungsfirma ANDURIL klingt nicht zufällig ähnlich wie Peter Thiels PALANTIR. Projekte zur Emotionserkennung, KI-Lügendetektoren und vorausschauender Polizeiarbeit (engl. predictive policing) laufen bereits.

Wie dabei KI gegen Migranten eingesetzt wird erläutert für die Bundesregierung das bpb im jetzt folgenden Text von Petra Molnar. KI dient dabei für Prognosen zum Migrationsgeschehen, für Grenz- und Fernüberwachung, für Identitäts- und biometrische Systeme, Gesichtserkennung, Asyl- und Visumsbearbeitung, für die Steuerung von „Alternativen zur Inhaftierung“, die auf ständige Überwachung hinauslaufen. KI bildet den digitalen Stacheldrahtverhau auf den künftigen „smart borders“, die sozial benachteiligten Migranten jene Freizügigkeit rauben, die wohlhabenden Touristen (einstweilen noch) offensteht. Das völkerrechtlich gebotene (!) Asylrecht bleibt dabei auf der Strecke, wenn automatisierte Entscheidungen mit digitalem racial Bias oder ähnlichem Unrecht fallen. (T.Barth) Folgender Text übernommen von bpb:

Künstliche Intelligenz im Migrationsmanagement: Chancen, Herausforderungen und Risiken

Petra Molnar (bpb) 04.09.2025 / 9 Minuten zu lesen

Weltweit wird künstliche Intelligenz zunehmend im Migrationsmanagement eingesetzt – auch in der EU und in Deutschland. Welche Entwicklungen, Chancen und Risiken gehen damit einher?

Überwachungsturm von Elbit Systems, Arizona, USA. Solche Überwachsungstürme entlang der Grenze zu Mexiko erkennen mithilfe von KI-Überwachung Bewegungen und sollen so dabei helfen, Personen in der Sonora-Wüste im Südwesten der USA abzufangen. (© Petra Molnar, Abbildungen fehlen hier aufgrund urheberrechtlicher Gründe)

Künstliche Intelligenz (KI)

verändert in rasanter Geschwindigkeit die Art und Weise, wie Regierungen Migration steuern und Grenzen kontrollieren. Von prognosebasierter Datenanalyse und Identitätsprüfung bis hin zu Grenzüberwachung und Asylentscheidungen – KI-Technologien werden zunehmend in die Infrastruktur der Migrationskontrolle in Europa und weltweit integriert. Dabei wird argumentiert, dass neue Technologien wie KI die Steuerungssysteme im Migrationsmanagement effizienter, sicherer und kostengünstiger machen können. Angesichts der aktuellen Entwicklungen im Bereich der digitalen Technologien bestehen jedoch auch ernsthafte Risiken für die Menschenrechte, die Privatsphäre und die Grundsätze des Asylrechts. Dieser Artikel basiert auf jahrelangen Forschungsarbeiten an verschiedenen Grenzen weltweit und gibt einen Überblick darüber, wie KI im Migrationsmanagement in Europa und weltweit eingesetzt wird. Wichtige Debatten über die Auswirkungen dieser Entwicklung auf Recht, Ethik und Gesellschaft werden dabei ebenfalls in den Blick genommen.

Wo und wie wird KI eingesetzt?

Weltweit und in der gesamten Europäischen Union (EU) wird KI mittlerweile in verschiedenen Phasen des Migrationsmanagements eingesetzt. Zu den wesentlichen Feldern gehören:

Grenzüberwachung: KI-gestützte Systeme werden zur Überwachung von Grenzen eingesetzt. Beispielsweise integriert das Europäische Grenzüberwachungssystem (Eurosur) Satellitenbilder, Drohnen und andere Sensordaten, die mit KI analysiert werden, um die Außengrenzen zu überwachen – insbesondere im Mittelmeerraum. An Landgrenzen und Flughäfen werden Algorithmen zur Gesichtserkennung und Objekterkennung eingesetzt, um Personen zu identifizieren, die irregulär einreisen oder als risikoreich gelten. In den Vereinigten Staaten stellen Unternehmen wie die US-amerikanische Firma Anduril autonome Überwachungstürme entlang der Südgrenze bereit, die mithilfe von KI-Überwachung Bewegungen erkennen und verfolgen und dabei helfen sollen, Personen in der Sonora-Wüste im Südwesten der USA abzufangen.

Identitäts- und biometrische Systeme: KI kann auch bei der Verarbeitung biometrischer Daten wie Fingerabdrücken, Iris-Scans und Gesichtsbildern zur Identitätsprüfung helfen. Eurodac, die EU-Datenbank, in der Fingerabdrücke von Asylbewerber:innen gespeichert werden, nutzt KI für einen effizienteren und genaueren Abgleich. In Deutschland hat das Bundesamt für Migration und Flüchtlinge (BAMF) eine Software zur Erkennung von Sprachen und Dialekten getestet, die die Herkunft von Personen, die einen Asylantrag gestellt haben, feststellen soll. Der Einsatz dieser Software hatte in der Folge Debatten darüber ausgelöst, wie genau und fair solche Systeme und ihre Ergebnisse sind. Die deutsche Bundespolizei setzt an wichtigen Verkehrsknotenpunkten und Grenzen biometrische und Gesichtserkennungstechnologien ein, darunter auch prognostische Komponenten. Gleichzeitig helfen automatisierte Dokumentenprüfsysteme dabei, gefälschte Reisedokumente zu identifizieren.

Asyl- und Visumsbearbeitung: KI-Anwendungen werden zunehmend zur Prüfung von Visums- und Asylanträgen eingesetzt. Einige Länder wie Kanada verwenden Algorithmen zum automatisierten Vorsortieren von Visumanträgen, während die Vereinigten Staaten Risikobewertungsalgorithmen einsetzen, die die Daten der Antragstellenden analysieren, um potenzielle Betrugs- oder Sicherheitsrisiken vorherzusagen, und dafür auch Daten verwenden, die aus sozialen Medien gesammelt wurden. Diese Systeme versprechen zwar Effizienz, werfen jedoch Bedenken hinsichtlich algorithmischer Verzerrungen, ordnungsgemäßer Verfahren und des Rechts auf individuelle Beurteilung auf. In Deutschland setzt das BAMF maschinelle Übersetzungsprogramme ein, um das Dolmetschen von Anhörungen im Asylverfahren und die automatisierte Dokumentenprüfung zu unterstützen. Fragen hinsichtlich ihrer Genauigkeit und möglichen Auswirkungen auf Asylentscheidungen bleiben hier bisher offen.

Prognosen zum Migrationsgeschehen: Regierungen und internationale Behörden wie die EU-Grenzschutzagentur Frontex nutzen KI zur Analyse großer Datensätze – darunter Daten aus sozialen Medien und Klimadaten –, um Migrationsmuster vorherzusagen. Diese zukunftsprognostizierenden Analysen sollen Frühwarnsysteme und die Ressourcenplanung unterstützen. Allerdings sind diese Modelle zur Vorhersage von Migrationsbewegungen oft nicht transparent. Befürchtet wird hierbei, dass sie zu präventiven Grenzschließungen oder Kontrollmaßnahmen sowie zu Aktivitäten wie dem Abfangen von Schutzsuchenden und illegalen Zurückweisungen ( Pushbacks) führen können.

Fernüberwachung und ‚Alternativen‘ zur Inhaftierung: Elektronische Fußfesseln, GPS-fähige Smartphones und Ortungsgeräte sowie KI-gesteuerte Check-in-Systeme werden als Alternativen zur Inhaftierung von Einwanderer:innen beworben, sind jedoch oft mit einer ständigen Überwachung verbunden. Diese Technologien werden in den USA, Großbritannien und anderen Ländern eingesetzt und manchmal an private Unternehmen ausgelagert.

Wer entwickelt und fördert diese Systeme?

An der Entwicklung von KI im Migrationsmanagement sind sowohl staatliche als auch privatwirtschaftliche Akteure beteiligt. Große Technologieunternehmen, Rüstungsfirmen und KI-Startups entwickeln und vermarkten Anwendungen für Regierungen. In Europa unterstützt die EU-Grenzschutzagentur Frontex technologische Innovationen, während die Finanzierung aus regionalen Forschungsprogrammen wie Horizon 2020 und dem Fonds für innere Sicherheit (ISF) stammt. Insbesondere Deutschland hat über das BAMF und die Bundespolizei in Identitätsfeststellungen anhand biometrischer Merkmale, Sprachanalyse und automatisierte Systeme zur Dokumentenanalyse investiert. An mehreren von der EU finanzierten Pilotprojekten waren auch deutsche Partner:innen beteiligt, darunter Universitäten und Forschungsinstitute.

Maritime Überwachungsdrohne auf der DEFEA-Konferenz in Athen, einer internationalen Fachausstellung für Verteidigung und Sicherheit. (© Petra Molnar)

Staaten wie die USA, Kanada und Australien sind ebenfalls führend im Bereich des Einsatzes von KI an ihren Grenzen und arbeiten häufig mit Technologieunternehmen wie den US-amerikanischen Firmen Palantir und Anduril oder der israelischen Firma Elbit Systems zusammen. Das Interesse des privaten Sektors ist Teil eines wachsenden und lukrativen, mehrere Milliarden Euro schweren „Industriekomplexes“ im Bereich der Grenzsicherung, in dem private Gewinninteressen und öffentliche Sicherheitsinteressen einander ergänzen.

Internationale Organisationen – darunter die Internationale Organisation für Migration (IOM) und das UN-Flüchtlingshilfswerk (UNHCR) – prüfen den Einsatz von KI-Anwendungen, um Menschen auf der Flucht zu registrieren, zu überwachen und Hilfsgüter zu verteilen, teilweise in Zusammenarbeit mit Partnern aus der Privatwirtschaft. Während diese Anwendungen als humanitäre Innovation dargestellt werden, werden gleichwohl oft sensible Daten unter ungleichen Machtverhältnissen gesammelt, die zwischen dem Globalen Norden und Süden oder zwischen Hilfsorganisationen und Menschen in Not bestehen.

Chancen und Versprechen

Akteur:innen, die den Einsatz von KI im Migrationsbereich befürworten, verweisen auf mehrere potenzielle Vorteile. So wird häufig Effizienz als einer der wichtigsten Treiber für den Einsatz von KI-Anwendungen genannt. Staaten, die KI einsetzen argumentieren, dass die Automatisierung von Routineaufgaben Rückstände bei der Bearbeitung von Asyl- und Visumsanträgen reduzieren, die Datenanalyse optimieren und die Koordination zwischen den Behörden verbessern kann. Ein weiterer wichtiger Treiber ist das Versprechen der Genauigkeit und die Tatsache, dass KI den biometrischen Abgleich und die Identitätsprüfung verbessern und damit Betrug und Verwaltungsfehler reduzieren kann. Im Kontext des derzeitigen Fokus auf Sicherheit, der die Politikgestaltung im Bereich des Migrationsmanagements prägt, zielen die KI-gestützte verbesserte Überwachung und Risikobewertung darauf ab, irreguläre Grenzübertritte oder gefälschte Dokumente aufzudecken. Schließlich ist auch die Vorhersagekraft der KI verlockend, da KI-gestützte Prognosen als Möglichkeit dargestellt werden, sich auf umfangreiche Migrationsbewegungen vorzubereiten, humanitäre Maßnahmen zu unterstützen und Ressourcen besser zu verteilen.

Mit solchen Vorteilen vor Augen werden von Staaten und der Privatwirtschaft Investitionen in KI begründet, mit dem Ziel sogenannter „intelligenter Grenzen“ (smart borders). Diese sollen sowohl sicher als auch technologisch fortschrittlich sein. In Deutschland werden solche Innovationen auch als Teil einer umfassenderen Digitalisierung des Migrationsmanagements angesehen, die mit den EU-Strategien für die digitale Transformation im Einklang steht.

Herausforderungen und Kritik

Trotz dieser Versprechen argumentieren Akteure aus der Zivilgesellschaft, Forschende und Betroffenen, dass der Einsatz von KI im Migrationsmanagement ernsthafte ethische und rechtliche Risiken birgt. Beispielsweise können KI-Systeme Diskriminierung und systemischen Rassismus verschärfen, da sie oft die Vorurteile in den Daten widerspiegeln, mit denen sie trainiert wurden. So ist etwa die Gesichtserkennung bei Menschen mit dunklerer Hautfarbe weniger genau, was das Risiko für Fehler bei ihrer Identifizierung erhöht. Risikobewertungssysteme können Angehörige bestimmter Nationalitäten oder ethnischer Gruppen unverhältnismäßig stark benachteiligen. Außerdem mangelt es erheblich an Transparenz bei der Entwicklung und dem Einsatz neuer Technologien. Bei vielen KI-Systemen weiß die Öffentlichkeit nur wenig darüber, wie sie ihre Entscheidungen treffen. Diese Undurchsichtigkeit untergräbt die Rechenschaftspflicht und macht es für Betroffene schwierig, schädliche Folgen anzufechten, wenn Fehler gemacht werden.

Hightech-Flüchtlingslager auf der griechischen Insel Kos. (© Petra Molnar)

Auch die Rechte auf Privatsphäre und Datenschutz sind betroffen: Werden biometrische und personenbezogene Daten gesammelt, gespeichert und analysiert, birgt dies erhebliche Risiken für die Privatsphäre, insbesondere wenn es um sensible Daten von marginalisierten Gruppen wie Menschen auf der Flucht geht. Die unbefugte Weitergabe von Daten und Hackerangriffe sind ebenfalls reale Bedrohungen. Zudem können Menschen auf der Flucht, die sich in einer prekären Lage befinden, oft keine sinnvolle Einwilligung in die Erfassung und den Umgang mit ihren Daten geben.

Rechtlich gesehen können KI- und Überwachungstechnologien, die Menschen daran hindern in Sicherheit zu gelangen, das bestehende Recht auf Asyl untergraben. Automatisierte Entscheidungen können außerdem dazu führen, dass Schutz überproportional verweigert wird oder es aufgrund fehlerhafter Risikobewertungen zu vermehrten Inhaftierungen kommt. Rechtliche Risiken dieser Art stünden im Widerspruch zum geltenden Völkerrecht, das eine individuelle Prüfung von Asylgesuchen und das Non-Refoulement-Prinzip

beinhaltet. Auch ist oft unklar, wer für durch KI verursachte Schäden verantwortlich ist und haftbar gemacht werden kann – der Staat, ein Auftragnehmer, der Softwareentwickler oder die Person bei der Einwanderungsbehörde, die die Anwendung verwendet? Oft ist der Rechtsschutz in diesem neueren Bereich wenig ausgeprägt, was das Einlegen von Rechtsmitteln erschwert – insbesondere in Grenzgebieten, die bereits von intransparenten und ermessensabhängigen Entscheidungen geprägt sind.

Rechtliche Rahmenbedingungen und Kontrolle

Derzeit ist die globale Regulierung im Bereich der KI noch schwach, wobei Innovationen Vorrang vor rechtsbasierten Ansätzen für digitale Grenzkontrolltechnologien haben. Allerdings gelten mehrere internationale und regionale Rechtsinstrumente für den KI-Einsatz im Migrationsbereich. So schützt beispielsweise der Internationale Pakt über bürgerliche und politische Rechte (ICCPR) das Recht auf Privatsphäre (Artikel 17) und das Recht auf Freiheit und Sicherheit (Artikel 9). Diese Rechte müssen im Migrationskontext auch bei der Anwendung von Technologien gewahrt werden. Die Genfer Flüchtlingskonvention von 1951 verpflichtet die Staaten zudem, Zugang zu Asyl zu gewähren und verbietet die Zurückweisung in Gebiete, in denen den betroffenen Personen Folter oder unmenschliche oder erniedrigende Behandlung drohen (Artikel 33). Automatisierte Entscheidungen, die den Zugang zum Asylbegehren blockieren, können gegen diese Schutzbestimmungen verstoßen. Nach EU-Recht regelt die Datenschutz-Grundverordnung (DSGVO) die Datenverarbeitung, einschließlich biometrischer Daten, und die EU-Grundrechtecharta garantiert das Recht auf Privatsphäre, Datenschutz und Nichtdiskriminierung. Vor kurzem hat die EU das Gesetz zur Regulierung künstlicher Intelligenz verabschiedet. Allerdings liegt hier nicht der Schutz der Rechte von Menschen auf der Flucht im Fokus.

Deutschland unterliegt als EU-Mitgliedstaat diesen rechtlichen Rahmenbedingungen, entwickelt jedoch auch eigene Durchführungsbestimmungen. Zivilgesellschaftliche Organisationen, die sich für die Rechte von Flüchtlingen und Migrant:innen einsetzen, haben mehr Transparenz hinsichtlich des Einsatzes von KI in der deutschen Migrationspolitik gefordert, darunter die Offenlegung von Verträgen und Folgenabschätzungen. Die Kontrolle in der Praxis bleibt jedoch begrenzt. Grenzgebiete unterliegen oft Notfall- oder Ausnahmeregelungen. Zudem können private Unternehmen Technologien durch Geschäftsgeheimnisse schützen. Unabhängige systematische Überprüfungen, Folgenabschätzungen und Kontrollmöglichkeiten sind jedoch für eine rechtskonforme Entwicklung und den Einsatz von Technologien an den Grenzen und zur Steuerung der Migration notwendig.

Ausblick

In einer von technologischem Fortschritt geprägten Welt, wird KI voraussichtlich eine immer wichtigere Rolle im Migrationsmanagement spielen. So werden beispielsweise das künftige Einreise-/Ausreisesystem (EES) der EU und das Europäische Reiseinformations- und -genehmigungssystem (ETIAS) KI für das Erstellen von Risikoprofilen und automatisierte Grenzkontrollen nutzen. Projekte zur Emotionserkennung, KI-Lügendetektoren und vorausschauender Polizeiarbeit wurden ebenfalls bereits getestet, allerdings auch weithin kritisiert.

Das ehemalige Flüchtlingslager auf Samos, Griechenland. (© Petra Molnar)

Wissenschaftler:innen und Menschenrechtsorganisationen fordern einen vorsorgenden Ansatz: gründliche Tests, um zu gewährleisten, dass Menschenrechte eingehalten werden, Transparenz und Kontrollmechanismen sowie eine breite öffentliche Debatte, bevor Technologien eingeführt werden. Einige Akteur:innen, darunter das Büro des Hochkommissars der Vereinten Nationen für Menschenrechte (OHCHR), schlagen ein vorübergehendes Aussetzen bestimmter Migrationstechnologien vor, insbesondere in Hochrisikosituationen. Vor allem aber werden die künftigen Entwicklungen der KI im Bereich Migration und an den Grenzen nicht nur von rechtlichen Garantien und demokratischer Rechenschaftspflicht abhängen, sondern auch davon, dass die menschlichen Kosten dieser Technologien anerkannt werden. KI-Systeme sind keine abstrakten Werkzeuge. Sie wirken sich auf reale Menschen aus, die sich oft in prekären und unsicheren Situationen befinden. Es ist wichtig, die Erfahrungen und Rechte von Menschen auf der Flucht in Diskussionen über den Einsatz von KI einzubeziehen.

KI-Anwendungen für das Migrationsmanagement werfen tiefgreifende rechtliche, ethische und soziale Fragen auf. Wenn Regierungen neue Technologien einführen, gilt es sicherzustellen, dass Effizienz und Sicherheit mit Menschenrechten, Würde und Gerechtigkeit vereinbar bleiben. Im Mittelpunkt dieser Debatten stehen Menschen, nicht nur Datenpunkte. Transparente Regeln, eine strenge Kontrolle und die Verpflichtung zu einem menschenzentrierten Design, das auch das Fachwissen der betroffenen Individuen und Communities berücksichtigt, sollten jede zukünftige Nutzung von KI im Migrationsbereich leiten.

Übersetzung aus dem Englischen: Vera Hanewinkel

Fussnoten/Quellen/Literatur

Petra Molnar, The Walls Have Eyes: Surviving Migration in the Age of Artificial Intelligence (2024)

Petra Molnar im Gespräch mit Benjamin Etzold über „intelligente Grenzen“: „Keines dieser KI-gestützten Instrumente ist neutral. Sie dienen einem bestimmten Zweck – der Ausgrenzung.“ (2025)

Mirca Madianou, Technocolonialism: When Technology for Good is Harmful (2024)

OHCHR, Digital Border Governance: A Human Rights Based Approach (2023)

The Migration and Technology Monitor Project

Lizenz

Dieser Text ist unter der Creative Commons Lizenz „CC BY-NC-ND 4.0 – Namensnennung – Nicht kommerziell – Keine Bearbeitungen 4.0 International“ veröffentlicht. Autor/-in: Petra Molnar für bpb.de. Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 4.0 und des/der Autors/-in teilen. Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.

Originalpublikation: https://www.bpb.de/themen/migration-integration/kurzdossiers/migration-und-sicherheit/570377/kuenstliche-intelligenz-im-migrationsmanagement/

09/1/22
CC-by-sa-Gnsin

Transhumanismus, Triefnase & Digitalisierung

Thomas Barth

Transhumanistische Aktivisten und Philosophen schwelgen in Visionen einer digitalen Zukunft. Das Paradies soll uns spätestens nach dem Upload in die Virtual Reality einer bewohnbaren Cloud erwarten, wenn unser Geist sich digitalisiert selbst simulierend im Himmelreich der Matrix wiederfindet. Doch hienieden warten einstweilen noch ein paar Hindernisse, besonders hierzulande, wo selbst das stinknormale Internet dem 16 bleierne Jahre währenden Merkel-Staat als „Neuland“ galt.

Das irdische Elend der Digitalisierung wie auch die Schwächen des cishumanen Mängelwesens Mensch zeigten sich am 4. Oktober 2019 im Tagungszentrum der Diözese Rottenburg-Stuttgart. Die Kirche wollte den Transhumanismus erörtern und hatte neben dem Theologen Hoff dafür den Religionsphilosophen Professor Göcke und den „bekanntesten deutschsprachigen Transhumanisten“ Professor Sorgner eingeladen. Pech war, Sorgner kam stark vergrippt, Göcke stark verspätet, weil mit der offenbar fehldigitalisierten Deutschen Bahn.

Was ist der Mensch?

Was ist der Mensch? Was soll er glauben, worauf soll er hoffen? Diese Fragen bewegen Denker und Philosophen, Theologen wie Transhumanisten: „Der Transhumanismus geht davon aus, dass sich der Mensch als ein Produkt der biologischen Evolution auch selbstständig technisch bis hin zu einem neuen Mensch-Maschine-Wesen oder einer Cyberspace-Entität weiterentwickeln kann und sollte.

Der durchaus transhuman geneigte Göcke beginnt so die Einleitung zu seinem Buch „Designobjekt Mensch: Die Agenda des Transhumanismus auf dem Prüfstand“. Da kommt digitale Technologie wie gerufen, etwa als Hirn-Chip, als Big-Gene-Data, KI oder in fernerer Zukunft als virtueller Lebensraum ganz entkörperlichter Menschen (brain uploading). Bedeutsamer Zankapfel der Digitalisierung ist der Datenschutz, der nach Meinung Prof.Sorgners leider auch transhumanem Streben nach kybernetischer wie genetischer Verbesserung des Menschen im Weg steht.

Big-Data-Firmen lieben die Transhumanisten, wie etwa die Super-KI-Forscher des Machine Intelligence Research Institute , mehr als Datenschützer. Google etwa hat mit Ray Kurzweil einen prominenten Transhumanisten zum Forschungsdirektor gemacht, Tesla-Milliardär Elon Musk will mit seiner neuen Firma Neuralink Hirnimplantate entwickeln. Bei Facebook treibt Mark Zuckerberg persönlich transhumane Projekte voran, etwa die Worterkennung per Hirnscan. Das dabei angestrebte Brain-Diktaphon würde nebenbei dem maschinellen Gedankenlesen etwas näher kommen, das der NSA bei ihrer Totalüberwachung noch schmerzlich fehlt. Auch deutsche Transhumane scheinen Belangen der IT-Wirtschaft nicht abgeneigt, wie die Diözese Rottenburg auf oben erwähnter Tagung feststellen konnte.

Prof. Sorgner ließ es sich dort nicht nehmen, die Debatte mit einem Bonmot der IT-Industrie zu bereichern: „Daten sind das neue Öl!“ Unter dieser Parole hatte die Industrielobby bekanntlich versucht, die neue EU-Datenschutzverordnung zu torpedieren, wie eine Polit-Dokumentation zeigte. Aus Angst davor, die EU könnte von China digital abgehängt werden, tritt Sorgner dafür ein, ein europäisches Social-Credit-System nach chinesischem Vorbild einzuführen, inklusive einer personalisierten Dauerüberwachung der kompletten EU-Bevölkerung:

Warum es für uns keine realistische Position ist, die Datenerfassung zu unterlassen: Der zentrale politische Grund für eine umfassende Datensammlung ist, dass wir in einer globalisierten Welt leben und das Daten das ‚Neue Öl‘ sind, wie viele Experten betonen: Öl bedeutet Macht und finanzielles Florieren. Angesichts dieser Erkenntnis ist es keine realistische Option, keine personalisierten Daten zu sammeln… In China wird ab 2020 ein Sozialkreditsystem flächendeckend angewendet werden. Die Menge an digitalen Daten, die auf diese Weise erhoben wird, ist kaum zu unterschätzen. Je mehr digitale Daten verfügbar sind, desto mehr Macht und Geld kann realisiert werden. Europa dagegen hat Datenschutzbestimmungen institutionalisiert, die einer hilfreichen Erfassung digitaler Daten entgegenstehen.“ Prof. Stefan Lorenz Sorgner 

Damit wäre Sorgner wohl ein transhumaner Extremist, sogar aus Sicht der 2015 gegründeten Transhumanistischen Partei Deutschlands (TPD). Die pocht in den Leitlinien ihres Parteiprogramms Version 2.0 gleich an erster Stelle auf die Grundrechte der Menschenwürde und der informationellen Selbstbestimmung. Sorgner übergeht dagegen in seinem Redebeitrag den möglichen Einwand, dass blinde Gier nach Macht und Geld geradewegs in einen digitalen Totalitarismus führen könnte. Auch an seinem Buch mit dem reißerischen Titel „Transhumanismus: ‚Die gefährlichste Idee der Welt‘!?“ (2016), fällt auf, dass kaum Bedenken, Zweifel oder Kritik an Technologien vorkommen. Dabei haben insbesondere Eingriffe in das menschliche Gehirn eine dunkle Geschichte -man denke an Militär- und Geheimdienst-Projekte wie das Zimbardo-Experiment, LSD-Forschung, Gehirnwäsche oder MKUltra. Der Transhumanismus muss sich außerdem angesichts lobbyistischer Verfilzungen und enormer Geldsummen, die auf dem Spiel stehen, auch fragen, wer und warum ihn finanziert.

Thomas Hobbes und Bioshock

Hinter Sorgners transhumanem Bejahen des technischen Fortschritts, das geradezu von einer Euphorie in die nächste taumelt, verbirgt sich jedoch ein zutiefst pessimistisches Menschenbild: Der „Mensch als des Menschen Wolf“ des Frühaufklärers Thomas Hobbes, wie man es im „Bioshock“-Computerspiel in einer transhumanen Welt der Gen-Mutanten nachspielen kann. Dort werden individuell gestaltete Menschen zu einander bekriegenden Monstren in einer Gesellschaft, die nach den darwinistisch-libertären Grundsätzen von Ayn Rand konzipiert ist (so Weber in Weber/Zoglauer 2015 S.55,69).

Als Begründer der modernen politischen Philosophie empfahl Hobbes zur Überwindung der angeblich menschlichen Gewaltnatur den frühtotalitären Absolutismus eines staatlichen Leviathans. Angesichts einer Welt voller psychopathischer Wolfsmenschen ist eine an Ethik orientierte Lebenshaltung natürlich nicht ratsam, meint offenbar Sorgner, wenn er sagt:

Moralischer zu sein hingegen, ist ggf. nicht der zentrale Wunsch vieler Menschen. Überspitzt formuliert liegt dies meiner Meinung nach darin begründet, dass Moralität in der Regel im Interesse der nicht-moralischen Menschen ist und moralische Menschen eher ausgenutzt, ausgebeutet und unterdrückt werden.“ Sorgner 2016, S.62

Kritisch sieht Sorgner daher eine von manchen Transhumanisten geforderte gesetzliche Verpflichtung zum „moralischen Enhancement“ (und das ist fast die einzige Technikkritik im ganzen Buch). Dabei ist hier nicht ethische Bildung und Erziehung gemeint, sondern Moral etwa per Hirnimplantat oder Einflößung von Drogen, die analog zur Impfpflicht verordnet werden könnte. Das lehnt Sorgner ab. Aber nicht, weil ein Herumpfuschen an den höchsten Funktionen des menschlichen Gehirns unsere Gesundheit, Freiheit und Würde beeinträchtigen könnte, sondern -ganz im Sinne eines Bioshock-Rechtslibertarismus nach Ayn Rand- wegen des „globalen Wettbewerbs“:

Eine solche Regelung mag zwar praktisch nicht ausgeschlossen sein, jedoch erscheint sie mir in keinem Fall im politischen Interesse des betroffenen Landes zu sein, da ein Land mit einer besonders moralischen Bevölkerung im Kontext des globalen Wettbewerbs sicherlich nicht lange bestehen kann.“ Sorgner 2016, S.63

Janina Loh, die Sorgners „Metahumanismus“ in ihrem Buch „Trans- und Posthumanismus zur Einführung“ in einem kurzen Kapitel analysiert, mag diesen letztlich nicht als eigenständigen Ansatz anerkennen (Loh 2018, S.175). Auch Sorgners duales Theoriesystem von Kohlenstoff- bzw. Siliziumbasiertem Transhumanismus (womit er Bio- von Digitaltechnik trennt) lehnt Loh als zu schematisch und daher nur bedingt brauchbar ab (S.78).Aber Loh schreibt Sorgner auch zu, die von Transhumanisten prognostizierte Unsterblichkeit nur als „rhetorisches Mittel“ zu sehen (S.173), hat dabei jedoch evtl. überlesen, dass Sorgner Unsterblichkeit zwar für unmöglich erklärte, aber nur wegen eines in Milliarden Jahren drohenden kosmologischen Kollaps des Universums (Sorgner 2016 S.11, 2018 S.157).

Bis dahin könnte Sorgners extrem langlebiger (wenn auch im haarspalterisch-philosophischen Sinne nicht völlig unsterblicher) Transhumaner noch eine ganze Menge Neutrinos die Galaxis runterfließen sehen -und evtl. auch eine Revision der schließlich nur auf läppischen 200 Jahren Forschung basierenden Big-Bang-Theorie. Der Kritik am transhumanen Unsterblichkeitsstreben entgeht Sorgner mit seiner kosmologischen Scholastik aber nicht, der Frage nach sozialer Verantwortung hier und heute ebenso wenig.

Unsoziale Weapons of Math Destruction

Die Mathematikerin Cathy O‘Neil, die wirklich etwas von der Technik und dem Code dahinter versteht, fordert etwas mehr „moralisches Vorstellungsvermögen“, denn „Big Data-Prozesse kodifizieren die Vergangenheit und können nicht die Zukunft erfinden“ (S.276). Cathy O‘Neil spricht von Weapons of Math Destruction, also Mathe-Vernichtungswaffen (analog zu Massenvernichtungswaffen), warnt mit Blick auf Google, Amazon und Facebook davor, dass „Daten privatisiert und privat genutzt werden, um Profite zu erzeugen und Macht zu gewinnen“. Man müsse die Digitalisierung und ihre Algorithmen bändigen, indem man sie öffentlicher Aufsicht und die sie betreibenden Firmen mit „verpflichtenden Standards der Rechenschaftslegung“ staatlicher Regulierung unterwirft (S.308). Sie weist darauf hin, dass der Trump-Nestor „Steve Bannon, selbst während er gezielt daran arbeitet, das öffentliche Vertrauen in Wissenschaft zu untergraben, im Verwaltungsrat von Cambridge Analytica sitzt -einer politischen Datenfirma, die behauptet, sie habe Trump zum Wahlsieg verholfen…“ (S.313).

Heiße PR-Luft einer schmuddeligen Dotcom-Firma? Oder die üblichen Wahlmanipulationen im digitalen Kapitalismus, nur leider diesmal aufgeflogen? Manche KI-Kritiker sehen etwa in „lernfähigen neuronalen Netzen“, die aktuell als KI gepriesen werden, eine aufgeblasene Hype. Diese „KI“ wären eher „spreadsheets on steroids“ -Tabellenkalkulation auf Steroiden. So zitiert Schnetker in seiner Kritik der „Transhumanistischen Mythologie“, den DARPA-KI-Experten John Launchbury (Schnetker S.75). Cathy O‘Neil kritisiert die unsozialen Folgen des Einsatzes solcher „KI“ als klassistisch, rassistisch und sexistisch:

„Sie versprechen Effizienz und Gerechtigkeit, manipulieren dabei jedoch die höhere Bildung, verursachen zusätzliche Schulden, fördern massenhaft Gefängnisstrafen, prügeln bei jeder Gelegenheit auf die Armen ein und untergraben die Demokratie.“ (O‘Neil S.270)

Literatur

Göcke, B.P.: Designobjekt Mensch?! Ein Diskursbeitrag über Probleme und Chancen transhumanistischer Menschenoptimierung.“ In: Benedikt Paul Göcke/ Frank Meier-Hamidi (Hg.): Designobjekt Mensch. Der Transhumanismus auf dem Prüfstand. Freiburg i.Br.: Herder 2018, 117-152

Loh, Janina: Trans- und Posthumanismus zur Einführung, Hamburg: Junius 2018

Loh, Janina: Transhumanismus: Den Menschen weiterentwickeln, um ihn besser kontrollieren zu können, Berliner Gazette 15.8.2017

O‘Neil, Cathy: Angriff der Algorithmen, München: Hanser 2017

Schnetker, M.F.J.: Transhumanistische Mythologie: Rechte Utopien einer technologischen Erlösung, Münster: Unrast 2019

Sorgner, S.L.: Transhumanismus: ‚Die gefährlichste Idee der Welt‘!?, Herder: Freiburg 2016

Sorgner, S.L.: Was wollen Transhumanisten? In: Göcke/ Meier-Hamidi (2018) 153-180

Weber, K. u. T. Zoglauer: Verbesserte Menschen: Ethische und technikwissenschaftliche Überlegungen, München: K.Alber 2015

04/28/21

Summa technologiae: Der Internet-Kritiker Stanislaw Lem

Gerd Peter Tellurio

In den 2000er Jahren wurde Stanislaw Lem (1921-2006), Autor des weltberühmten Romans Solaris zum Kritiker des Internets und der Informationsgesellschaft – die von ihm vor allem in der Summa technologiae prognostiziert worden waren. Vor allem dort erörterte Lem das Verhältnis von Mensch und Computer sowie die Veränderung von Kultur und Gesellschaft vor dem Hintergrund einer Energie- und Informationskrise, der „Megabit-Bombe“ (vgl. Hennings 1983, S.82). Er vertritt eine biologistische Wahrheits- und Erkenntnislehre, die das Leben auf unserem Planeten als Zeugen beruft.

Erkenntnisse -das sind wahre Informationen. Die Evolution ist eine milliardenjährige Zucht solcher mit konstruktiven Absichten gesammelten und überprüften Informationen.“ (Summa, S.V)

Die Summa technologiae ist ein Buch von Lem, das 1964 erstmals veröffentlicht wurde, und es brachte Lem endlich auch Anerkennung als Wissenschaftler, wie Jarzebski berichtet (1986, S.26). Die Summa wurde 1976 von Friedrich Griese ins Deutsche übersetzt und die BRD-Ausgabe erschien 1976 im Insel-Verlag und 1981 als Taschenbuch bei Suhrkamp. Die DDR-Ausgabe erschien 1980 im Verlag Volk und Welt, Berlin. Erst im Jahr 2013 (!) erschien eine englische Ausgabe an der Universität von Minnesota -Grund für die Missachtung des großen polnischen Autors war vermutlich Lems Konflikt mit der Gilde der US-Autoren der SF (unten mehr dazu).

Der Titel des Werkes bezieht sich auf die großen „Summen“ der Theologie: Summa theologica von Thomas von Aquin bzw. Summa Theologiae von Albertus Magnus. „Technologie“ wird von Lem als die Gesamtheit der materiellen Grundlagen unserer Zivilisation und Kultur verstanden. Der Autor nähert sich seinem Thema auf philosophische Weise. Er will aufzeigen, was wir überhaupt von Wissenschaft und Technik erhoffen dürfen. Die oft im Zusammenhang mit diesem Werk erwähnten Voraussagen Lems zur „virtuellen Realität“ sind eigentlich nur Nebenprodukte. Für die tatsächliche informationstechnische Entwicklung dürften diese Voraussagen – mangels früherer englischer Übersetzung des Werks – ohne große Wirkung geblieben sein.

Prognosen der Digitalität, KI und Informationsgesellschaft

Bei den einschlägigen Prognosen finden wir vor allem die von Lem „Phantomatik“ genannte Virtuelle Realität, was später VR-Brille oder eyephones (Lem 2002, S.63) heißen sollte nannte Lem 1964 „Gegenauge“. Ihn interessierte die Möglichkeit, künstliche Welten zu schaffen, die sich nicht mehr von der natürlichen Realität unterscheiden lassen -William Gibson verfolgte diese Idee in Neuromancer weiter (der Matrix-Vorlage).

Lem prognostizierte auch die Künstliche Intelligenz, die er als „Intellektronik“ bezeichnet, und die durch „Informationszüchtung“ entstehen sollte. Heutige „selbstlernende Algorithmen“ sind erst ein schwacher Vorgeschmack von Lems an der biologischen Evolution orientierten Methode. Die führte ihn bis zu einer in westdeutschen TFA-Debatten (Technikfolgen-Abschätzung) 1981 diskutierten „Ethosphäre“, die unethisches Verhalten (von Menschen!) kybernetisch unterbinden sollte (Hennings 1983, S.7). Wichtig in der Summa technologiae ist die Ausweitung des Begriffs „Technologie“. „Technologien“ sind gemäß Lem „die Verfahren der Verwirklichung von Zielen, die sich die Gesellschaft gesetzt hat, aber auch solcher, die niemand im Auge hatte, als man ans Werk ging“. Als „Effektoren“ in solchen Verfahren kommen nicht nur einfache Werkzeuge und Apparate (Hammer, Schreibmaschine usw.) und rückgekoppelte Systeme (Computer, Tier, Mensch) in Frage, sondern auch sich selbst verändernde Systeme (z. B. eine lebende Tierart) oder sogar Systeme mit noch höherem Freiheitsgrad, bei denen die Auswahl oder sogar Erschaffung des Materials, mit dem das System sich selbst aufbaut, möglich ist -heutige KI kommt dem langsam näher. Mit dem Ausloten prinzipiell möglicher Technologieentwicklung geht es Lem eher um eine Metatheorie technischer Evolution als um die althergebrachte Futurologie.

Netz-Hype, Fakenews und Kritik

Dann kam die große Netz-Hype und Mahner wurden vergessen. Doch Stanislaw Lem glaubte den Netzvisionären nicht, die freudig eine totale Information beschworen und deren Segen priesen. Lem sah die Rolle der Nutzer weniger rosig, weil diese zu „Informationsnomaden“ würden, die nur sinnlos von Stimulus zu Stimulus hüpften. Es erweise sich als immer schwieriger, so Lem über das Internet, unterschiedliche Quellen und Sichtweisen zusammenzubringen, um ein rundes, vollständiges Wissensbild einer Sache zu erhalten. Weise Worte, lange vor der Fakenews-Hysterie der sogenannten „Sozialen Medien“ Facebook & Co.

Lem gilt als brillanter Visionär und Utopist, der zahlreiche komplexe Technologien Jahrzehnte vor ihrer tatsächlichen Entwicklung prognostizierte. So schrieb er bereits in den 1960er und -70er Jahren über Themen wie Nanotechnologie, neuronale Netze und virtuelle Realität. Ein wiederkehrendes Thema sind philosophische und ethische Aspekte und Probleme technischer Entwicklungen, wie etwa der künstlichen Intelligenz, menschenähnlicher Roboter oder der Gentechnik. In zahlreichen seiner Werke setzte er Satire und humoristische Mittel ein, wobei er oft hintergründig das auf Technikgläubigkeit und Wissenschaft beruhende menschliche Überlegenheitsdenken als Hybris entlarvte. Einige seiner Werke tragen auch düstere und pessimistische Züge in Bezug auf die langfristige Überlebensfähigkeit der Menschheit. Häufig thematisierte er Kommunikationsversuche von Menschen mit außerirdischen Intelligenzen, die er etwa in einem seiner bekanntesten Romane, Solaris, als großes Scheitern verarbeitete. (Wikipedia)

Die Lem – Philip K. Dick -Kontroverse

1973 wurde Lem die Ehrenmitgliedschaft der Science Fiction and Fantasy Writers of America (SFWA) verliehen, aber diese wurde ihm schon 1976 wieder entzogen. Den Rauswurf des polnischen Starautors hatten verschiedene amerikanische SF-Autoren, darunter Philip José Farmer, gefordert. Sie waren einerseits über Lems kritische Haltung gegenüber einem großen Teil der westlichen Science Fiction empört. Aber zudem waren unter ihnen laut Ursula K. LeGuin „kalte Krieger“, die fanden, dass ein Mann, der hinter dem Eisernen Vorhang lebe und sich über amerikanische SF kritisch äußere, eine Kommunisten-Ratte sein müsse, der in der SFWA nichts zu suchen habe.

There was a sizable contingent of Cold Warrior members who felt that a man who lived behind the iron curtain and was rude about American science fiction must be a Commie rat who had no business in the SFWA.“ Ursula K. LeGuin

Die Nestorin der feministischen SF, Ursula K. LeGuin, trat danach unter Protest aus der SFWA aus. Ein weiteres Argument für den Entzug der Ehrenmitgliedschaft war technischer Natur; die Ehrenmitgliedschaft sollte nicht an Autoren verliehen werden, die als zahlendes Mitglied in Frage kamen. Dieses Argument brachte laut seinem Biographen Lawrence Sutin der auch von mir hochgeschätzte SF-Hippie Philip K. Dick (Blade Runner) vor, der Lem für Schwierigkeiten bei den Honorarzahlungen für die polnische Ausgabe seines Romans Ubik verantwortlich machte -wofür es allerdings außer der bei P.K.Dick immer wieder beobachtbaren Paranoia keine Erklärung gibt. Dick hatte sich immerhin dafür ausgesprochen, Lem als zahlendes Mitglied zuzulassen. Eine solche Mitgliedschaft wurde Lem dann auch angeboten, der lehnte sie jedoch ab. Der Kalte Krieg forderte seine Opfer nicht nur an den zahllosen unsichtbaren und sichtbaren Fronten, sondern auch in der SF-Literatur.

Stanislaw Lem wurde 1921 in Lwow, Polen, geboren. Neben zahlreichen belletristischen Werken verfasste er theoretische Schriften über Science Fiction und über Gebiete der angewandten Philosophie und der Kybernetik. Sein Schaffen umfasst inzwischen 28 Werke, deren Gesamtauflage fast 8 Millionen Exemplare erreichte. Übersetzungen erschienen in 27 Sprachen, unter anderem in Japan, England, Russland, Amerika, Schweden, Italien, Holland und Frankreich. Sein Hauptinteresse galt der Science Fiction als literarische Gattung. Er starb 2006 in Krakau.

Stanislaw Lem, Summa technologiae, Suhrkamp, Frankf./M., 1976 (poln.Or.1964).

Stanislaw Lem, Die Technologie-Falle, Suhrkamp, Frankf./M., 2002 (poln.Or.1995).

R.-D. Hennings u.a. (Hrsg.), Informations- und Kommunikations-Strukturen der Zukunft: Ein Workshop mit Stanislaw Lem, W.Fink, München 1983.

Jerzy Jarzebski, Zufall und Ordnung: Zum Werk Stanislaw Lems, Suhrkamp, Frankf./M., 1986.

04/28/20

Smart Borders: „Intelligente“ Schengenraum-Außengrenzen

Smart Borders – intelligente Außengrenzen des Schengenraums?

Goetz Herrmann, (für bpb) 13.01.2020 / 4 Minuten zu lesen

Offen und sicher sollen sie sein. Sie sollen die Zirkulation von Waren, Kapital und Personen ermöglichen, gleichzeitig aber irreguläre Bewegungen verhindern. Ein Beitrag über Grenzen als „Filter“ und Konzepte ihrer Digitalisierung.

Scanner des Smart Borders Grenzkontrollsystems am Flughafen Frankfurt/Main. Das Smart Borders Package soll ein besseres Management der Außengrenzen der EU ermöglichen. (© dpa)

Was sind Smart Borders?

Unter Smart Borders – intelligenten Grenzen – wird ein Bündel an Maßnahmen und Technologien zur Überwachung der Grenzen des Schengenraumes verstanden. Das 2013 auf den Weg gebrachte Smart Borders Package soll aus Sicht der Europäischen Kommission (EK) ein besseres Management der Außengrenzen ermöglichen, effektiver Interner Link: irregulärer Migration entgegenwirken und einen „Beitrag zur Bekämpfung von Terrorismus und schwerer Kriminalität“ Zur Auflösung der Fußnote[1] leisten. Dazu werden Informationen über Nicht-EU-Bürger_innen (Drittstaatangehörige) gesammelt. Gleichzeitig sollen Grenzübertritte schneller vonstattengehen. Eine zentrale Rolle spielen dabei Informationssysteme wie das „Einreise-/Ausreisesystem“ (Entry-Exit-System, EES), die zu einer Automatisierung der Grenzkontrollen beitragen sollen. In diesen Datenbanken können große Mengen an Informationen zusammengefasst werden, auf die Behörden in ganz Europa Zugriff haben.

Der Kontext: Bordermanagement

Die Smart Borders Initiative der EU vollzieht sich vor dem Hintergrund eines weltweiten Transformationsprozesses von Grenzen. Dabei treten neben Modelle einer klassischen souveränen Grenzsicherungspolitik (Interner Link: manifest im Bild einer Mauer) Konzepte des Grenzmanagements. Diese streben an, Sicherheitsrisiken abzuwenden, gleichzeitig aber ein hohes Maß an Mobilität aufrechtzuerhalten. Zur Auflösung der Fußnote[2] Dies sei nötig, da eine prosperierende Gesellschaft auf ein hohes Maß an Mobilität und Zirkulation von Personen, Waren und Kapitel angewiesen sei. Aus dieser Offenheit gingen jedoch gleichzeitig Bedrohungen hervor, „da Terroristen und andere Kriminelle danach trachten, diese Freiheiten zu zerstörerischen und böswilligen Zwecken zu missbrauchen“. Zur Auflösung der Fußnote[3] Demnach müssten „Grenzen als Sortiermaschinen“ Zur Auflösung der Fußnote[4] oder wie eine „firewall“ Zur Auflösung der Fußnote[5] operieren und gefährliche Elemente aus dem komplexen Fluss transnationaler Zirkulation herausfiltern. Zur Auflösung der Fußnote[6] Grenz- und Sicherheitspolitik richten ihren Fokus also verstärkt auf transnationale Mobilität.

Die EU setzt mit ihrem Konzept des „integrierten Grenzmanagements“ auf die Zusammenarbeit mit Anrainerstaaten Zur Auflösung der Fußnote[7], etwa in Form von Mobilitätspartnerschaften Zur Auflösung der Fußnote[8], und den umfangreichen Informationsaustausch „zwischen Grenzschutzbehörden und anderen Strafverfolgungsbehörden“. Zur Auflösung der Fußnote[9] Dabei ruhen große Hoffnungen auf neuester Informations- und Kommunikationstechnologie.

Das Smart Borders Package

Das Smart Borders Package wurde erstmalig am 28. Februar 2013 von der damaligen EU-Innenkommissarin Cecilia Malmström auf einer Pressekonferenz präsentiert. Dabei bezog sie sich auf Pläne der Kommission von 2008, worin bereits die Einführung eines Entry-Exit-Systems und die erleichterte Einreise für als vertrauenswürdig eingestufte und registrierte Vielreisende, das „Registered Traveller Programme“ (RTP), gefordert wurden. Gegen Letzteres regte sich v.a. im Europäischen Parlament Widerstand, sodass es 2016 zurückgezogen wurde. Im Oktober 2017 stimmten das Europäische Parlament und der Rat der EU einer modifizierten Version des Entry-Exit-Systems zu, das bis 2020 vollständig implementiert sein und rund 480 Millionen Euro kosten sollte. Zur Auflösung der Fußnote[10] Inzwischen wird mit einer operativen Inbetriebnahme im Jahr 2021 gerechnet. Zur Auflösung der Fußnote[11]

Datenbanken

Innenkommissarin Malmström präsentierte die im Smart Borders Package vorgeschlagenen Technologien als Grundstein für ein „offeneres“ und zugleich „sichereres“ Europa. Zur Auflösung der Fußnote[12] Das deutet bereits an, welche wichtige Rolle „einschlägigen Informationsinstrumenten“ Zur Auflösung der Fußnote[13] im Bereich des Grenzmanagements und der Sicherheitspolitik zugesprochen wird. Tatsächlich verfügt die EU über mehrere solcher „Informationssysteme“, die „zusammengenommen ein komplexes Muster einschlägiger Datenbanken“ Zur Auflösung der Fußnote[14] bilden. Die drei bisher wichtigsten sind das Interner Link: Schengener Informationssystem (SIS), worin u.a. Personen- und Sachfahndungen (z.B. gestohlene Fahrzeuge) eingetragen sind, das Visa Information System (VIS) mit Daten über erteilte Visa für Kurzzeitaufenthalte und Interner Link: EURODAC, eine Datenbank, in der Fingerabdrücke von Personen gesammelt werden, die einen Asylantrag gestellt haben oder ohne legalen Aufenthaltsstatus in einem Mitgliedstaat aufgegriffen wurden.

Das Entry-Exit-System soll diese Informationssysteme ergänzen. Darin sollen sowohl Drittstaatsangehörige erfasst werden, die sich für einen Kurzaufenthalt im Hoheitsgebiet der Mitgliedstaaten aufhalten dürfen, als auch Personen, denen Einreise und Aufenthalt verweigert wurden. Zur Auflösung der Fußnote[15] Gespeichert werden Datum und Ort der Einreise sowie die Dauer des autorisierten Aufenthalts. Zur Auflösung der Fußnote[16] Die zentrale Speicherung dieser Informationen soll v.a. dabei helfen, eingereiste „Overstayer“ zu ermitteln, also Personen, die zwar mit einem gültigen Visum den Schengenraum betreten haben, aber ihn nach Ablauf des Visums nicht wieder verlassen. Zur Auflösung der Fußnote[17] Im Entry-Exit-System werden neben Kenndaten einer Person auch biometrische Informationen erfasst, in diesem Falle vier Fingerabdrücke und ein Gesichtsbild. Dies soll Dokumentenfälschungen erschweren. Entry-Exit-System und Visa Information System sollen auch miteinander verknüpft werden, also den direkten Zugriff auf die jeweiligen Daten ermöglichen.

Kritik

Wie effektiv die angestrebten Maßnahmen tatsächlich sein werden, ist schwer einzuschätzen, da „Interner Link: Sicherheit“ kaum messbar ist. Kritiker_innen bezweifeln, dass die Überwachung von Mobilität Terroranschläge wirksam verhindern kann, da nur wenige Attentäter_innen in der Vergangenheit von außerhalb des Schengenraums kamen oder im Zuge irregulärer Reisebewegungen unentdeckt nach Europa gelangt sind. Zur Auflösung der Fußnote[18] Der Großteil der Kritik an Bestrebungen zur Errichtung einer Smart Border bezieht sich jedoch auf Interner Link: datenschutzrechtliche Probleme. Diese entstehen aus der massenhaften Erhebung, Speicherung, Verarbeitung und dem Austausch von personenbezogenen Daten: So sah beispielsweise 2013 der Europäische Datenschutzbeauftragte Verstöße gegen Artikel 7 (Achtung des Privat- und Familienlebens) und 8 (Schutz personenbezogener Daten) der EU-Grundrechtecharta. Zur Auflösung der Fußnote[19] Ebenso gilt die Vermengung von sicherheits- und migrationspolitischen Fragen als problematisch. Dass dies durch die neuen Technologien forciert wird, zeigt das Beispiel der Praxis des „cross-referencing“ von Datenbanken: Dadurch wird die ehemals auf Papierlisten geführte kleine Gruppe unerwünschter Personen – primär Terrorist_innen und Schwerkriminelle – mit der weitaus größeren Personengruppe in Verbindung gebracht, die wegen kleinerer Verstöße gegen Aufenthaltsrecht oder Visaüberschreitung erfasst wurden. Zur Auflösung der Fußnote[20]

Dieser Artikel ist Teil des Kurzdossiers „Interner Link: Migration und Sicherheit„.

Bigo, Didier (2011): Freedom and speed in enlarged borderzones. In: Vicki Squire (Hg.): The contested politics of mobility. Borderzones and irregularity. London: Routledge (Routledge advances in international relations and global politics, 87), S. 31–50.

Bigo, Didier; Brouwer, Evelien Renate; Carrera, Sergio; Guild, Elspeth; Guittet, Emmanuel-P; Jeandesboz, Julien et al. (2015): The EU counter-terrorism policy responses to the attacks in Paris. Towards an EU security and liberty agenda. Brüssel (CEPS paper in liberty and security in Europe).

Broeders, Dennis; Hampshire, James (2013): Dreaming of Seamless Borders. ICTs and the Pre-Emptive Governance of Mobility in Europe. In: Journal of Ethnic and Migration Studies 39 (8), S. 1201–1218.

Europäische Kommission (EK) (2016a): Solidere und intelligentere Informationssysteme für das Grenzmanagement und mehr Sicherheit. Mitteilung der Kommission an das Europäische Parlament und den Rat. Brüssel.

Europäische Kommission (EK) (2016b): Proposal for a Regulation of the European Parliament and the Council: establishing an Entry/Exit System (EES) to register entry and exit data and refusal of entry data of third country nationals crossing the external borders of the Member States of the European Union and determining the conditions for access to the EES for law enforcement purposes and amending Regulation (EC) No 767/2008 and Regulation (EU) No 1077/2011. Brüssel.

Europäische Kommission (EK) (2008): Vorbereitung der nächsten Schritte für die Grenzverwaltung in der Europäischen Union. Mitteilung der Kommission an das Europäische Parlament, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen. Brüssel.

Europäisches Parlament (EP); Rat der Europäischen Union (Rat) (2017): Verordnung (EU) 2017/2226 des Europäischen Parlaments und des Europäischen Rates über ein Einreise-/Ausreisesystem (EES) vom 30. November 2017 zur Erfassung der Ein- und Ausreisedaten sowie der Einreiseverweigerungsdaten von Drittstaatsangehörigen an den Außengrenzen der Mitgliedstaaten und zur Festlegung der Bedingungen für den Zugang zum EES zu Gefahrenabwehr- und Strafverfolgungszwecken und zur Änderung des Übereinkommens zur Durchführung des Übereinkommens von Schengen sowie der Verordnungen (EG) Nr. 767/2008 und (EU) Nr. 1077/2011. In: Amtsblatt der Europäischen Union.

Herrmann, Goetz (2018): Reflexive Sicherheit, Freiheit und Grenzmanagement in der Europäischen Union. Die Reterritorialisierung emergenter Bedrohungsgefüge. Wiesbaden: Springer VS.

Lenz, Ramona (2010): Mobilitäten in Europa. Migration und Tourismus auf Kreta und Zypern im Kontext des europäischen Grenzregimes. Wiesbaden: Springer VS.

Mau, Steffen (2010): Grenzen als Sortiermaschinen. In: Welttrends. Zeitschrift für internationale Politik 71, S. 57-66.

Rat der Europäischen Union (Rat) (2010): Strategie für die innere Sicherheit der Europäischen Union. Auf dem Weg zu einem europäischen Sicherheitsmodell. Europäischer Rat; Europäische Union. Luxemburg.

Walters, William (2009): Europe’s Borders. In: Chris Rumford (Hg.): The SAGE Handbook of European Studies. Los Angeles, Calif.: SAGE, S. 485–505.

Fussnoten

Zur Erwähnung der Fußnote  [1]

EK (2016a), S. 14.

Zur Erwähnung der Fußnote  [2]

Vgl. Herrmann (2018), S. 227.

Zur Erwähnung der Fußnote  [3]

Rat (2010), S. 11.

Zur Erwähnung der Fußnote  [4]

Mau (2010).

Zur Erwähnung der Fußnote  [5]

Walters (2009), S. 492.

Zur Erwähnung der Fußnote  [6]

Vgl. Bigo (2011), S. 35.

Zur Erwähnung der Fußnote  [7]

Vgl. Rat (2010), S. 28.

Zur Erwähnung der Fußnote  [8]

Die Partnerstaaten erhalten dabei finanzielle Mittel oder Visaerleichterungen, wenn sie sich an den Grenzsicherungsmaßnahmen der EU beteiligen. Vgl. Lenz (2010).

Zur Erwähnung der Fußnote  [9]

Rat (2009), S. 56.

Zur Erwähnung der Fußnote  [10]

Vgl. EK (2016b), S. 6. Eine Zusammenfassung der Änderungen gegenüber dem Vorschlag von 2013 findet sich unter: Externer Link: http://europa.eu/rapid/press-release_MEMO-16-1249_en.htm (Zugriff: 18.6.2019).

Zur Erwähnung der Fußnote  [11]

Externer Link: https://ees.secunet.com/de/fakten-zum-entry-exit-system/ (Zugriff: 18.6.2019).

Zur Erwähnung der Fußnote  [12]

Vgl. Externer Link: http://europa.eu/rapid/press-release_SPEECH-13-172_en.htm

Zur Erwähnung der Fußnote  [13]

EK (2016a), S. 2.

Zur Erwähnung der Fußnote  [14]

Ebd., S. 6.

Zur Erwähnung der Fußnote  [15]

Vgl. EP/Rat (2017), S. 21.

Zur Erwähnung der Fußnote  [16]

Vgl. EK (2008), S. 8.

Zur Erwähnung der Fußnote  [17]

Vgl. ebd., S. 5.

Zur Erwähnung der Fußnote  [18]

Vgl. Bigo et.al. (2015), S. 10.

Zur Erwähnung der Fußnote  [19]

Externer Link: https://edri.org/smart-borders-the-challenges-remain-a-year-after-its-adoption/

Zur Erwähnung der Fußnote  [20]

Vgl. Broeders/Hampshire (2013), S. 1208.

Lizenz

Dieser Text ist unter der Creative Commons Lizenz „CC BY-NC-ND 3.0 DE – Namensnennung – Nicht-kommerziell – Keine Bearbeitung 3.0 Deutschland“ veröffentlicht. Autor/-in: Goetz Herrmann für bpb.de.
Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 3.0 DE und des/der Autors/-in teilen.

03/23/19

Stanislaw Lem: Science-Fiction-Meisterwerk „Solaris“

Gerd Peter Tellurio

„…was war schon diese ganze um ‚Kontaktanknüpfung‘ bemühte Fachrichtung gegen andere Zweige der Solaristik, in denen die Spezialisierung so vorangeschritten war, daß unter den Solaristen der Kybernetiker sich kaum mit dem Symmetriadologen verständigen konnte. ‚Wie könnt ihr euch mit dem Ozean verständigen, wenn ihr es nicht einmal mehr untereinander fertigbringt?‘ „ (Solaris, S.27)

Solaris ist ein fantastischer Roman, denn den Begriff „Science-Fiction“ hat Stanisław Lem für seine Bücher stets abgelehnt, da er von der durch Hollywood dominierten SF angeekelt war. Die meisten sehen dennoch darin ein Meisterwerk der Science-Fiction-Literatur, das sich durch seine einzigartige und tiefgründige Erzählweise auszeichnet. Die Geschichte handelt von einer Gruppe von Wissenschaftlern, die auf einer Raumstation um den Planeten Solaris stationiert sind, um dessen rätselhaften Bewohner zu erforschen: Einen globalen Ozean von metamorphem Plasma. Der Planet selbst lebt und produziert scheinbar intelligente Äußerungen, um deren Entschlüsselung sich die Wissenschaft der Solaristik seit Generationen vergeblich bemüht. Wie oft in Lems Geschichten geht es um die Kontaktaufnahme zu Aliens (die selten so sind wie in trivialer SF), zu Künstlichen Intelligenzen, kurz: zum Anderen, das wir nicht verstehen.

„Solaris“ entwirft eine faszinierende Welt voller unerklärlicher Phänomene und geheimnisvoller Wesen, die die Grenzen menschlichen Verständnisses überschreiten. Die Protagonisten stehen vor der Herausforderung, die Natur und die Motivationen von Solaris zu verstehen, was zu existenziellen Fragen über die Natur der Realität und des Bewusstseins führt. Bedeutende Regisseure wie Tarkowski und Soderbergh versuchten sich an Verfilmungen, die ihrerseits Meisterwerke des SF-Films wurden, ohne dem Roman gerecht zu werden.

Der Roman kreist mit dem Protagonisten Kelvin auch um Liebe, Tod und Schuld und ist damit eine Allegorie über die menschliche Natur und die Grenzen des menschlichen Verstandes. Kelvin, dessen Name nicht zufällig das physikalische Maß der Temperatur bedeuten dürfte, betritt eine Forschungsstation, deren Besatzung der Erde nur noch wirre Botschaften geschickt hatte. Man sandte einen Psychologen, um den Geisteszustand der Forscher zu überprüfen. Doch Kelvin kämpft schnell mit eigenen Problemen. Er stößt auf Chaos und Auflösung, begegnet zwei zutiefst verstörten Überlebenden -und mysteriösen Gestalten, die aus Alpträumen entsprungen scheinen. Bald gefriert ihm das Blut in den Adern: Auch Kelvins verstorbene Frau ist darunter. Hat er Wahnvorstellungen? Indem er die Beziehung zwischen den Wissenschaftlern und Solaris beschreibt, wirft Lem auch Fragen über die Natur von Identität und Liebe auf, die in schaurigen Gleichnissen erforscht werden.

Durch fantastische Ideen und tiefe psychologische Einsicht in die Charaktere gelingt es Lem, eine beklemmende und doch faszinierende Atmosphäre zu schaffen, die den Leser von Anfang bis Ende fesselt. Die komplexe Handlung brilliert mit einer tiefgründigen Analyse der menschlichen Existenz, die bis in theologische Bereiche führt. Nachdem Materie gewordene Phantome unbewusster Angst und Schuldgefühle die Wissenschaftler quälen, fragen sie sich: Will Solaris mit uns spielen? Oder uns strafen?

Psychologe Kelvin: „Das ist mir erst eine primitive Dämonologie! Ein Planet in der Gewalt eines sehr großen Teufels, der einen Hang zu satanischem Humor Genüge tut, indem er den Mitgliedern einer wissenschaftlichen Expedition Sukkuben unterschiebt?“ (S.85) Damit sind wir bei jenem Problem, das Leibniz „Theodizee“ nannte: Wenn Gott allmächtig ist, warum lässt er dann das Böse auf der Welt zu? Die Bibel antwortet mit dem Sündenfall, dem Griff nach dem verbotenen Apfel der Erkenntnis. Auch bei Lem war es das Streben nach Erkenntnis, aber gepaart mit einer unbewussten Wut auf den schweigsamen Plasmaozean, der nur in Rätseln antworten wollte. Wann begannen die Phantome, die Station heimzusuchen?

„Nun, das hat acht oder neun Tage nach diesem Röntgenexperiment begonnen. Vielleicht hat der Ozean die Strahlung durch irgendeine andere Strahlung beantwortet, vielleicht hat er damit unsere Gehirne sondiert und gewisse psychische Abkapselungen aus ihnen gefördert.“ (S.86)

Die Forscher griffen zum aggressiven Mittel einer Röntgenkanone, um das unwillige Plasma zum Reden zu bringen. Der Planet wurde gereizt, das lebende Wesen verletzt, wie auch die menschliche Zivilisation ihren Planeten verletzt. Die Antwort kommt aus unserem Unbewussten. Warum müssen wir die Erde ausplündern, verseuchen, zerstören? Warum uns sinnloser Gier hingeben, anderen Gewalt antun?

Insgesamt ist „Solaris“ ein faszinierendes und herausforderndes Buch, das anregt über die Natur des Bewusstseins, der Realität und unserer Existenz nachzudenken. Lem hat mit diesem Werk eindrucksvoll bewiesen, dass er zu den bedeutendsten Autoren der Science-Fiction gehört. „Solaris“ ist ein zeitloser Klassiker, „vielleicht sogar der Klassiker der SF“ (dtv-Verlagstext) und ein Muss für jeden Liebhaber anspruchsvoller Science-Fiction-Literatur.

Stanislaw Lem: Solaris, dtv, München 1983, poln.Or. 1961, 237 Seiten

Internet-Kritiker Stanislaw Lem

Stanislaw Lem wurde 1921 in Lwow, Polen, geboren. 1982 zog Lem wegen der Ausrufung des Kriegsrechts in Polen nach West-Berlin um, wo er ein Fellowship am Wissenschaftskolleg zu Berlin antrat, ab 1983 lebte er in Wien. Neben zahlreichen literarischen Werken verfasste er theoretische Schriften über Science Fiction und über Gebiete der angewandten Philosophie, Futurologie und Kybernetik. Sein Schaffen umfasst inzwischen 28 Werke, deren Gesamtauflage fast 8 Millionen Exemplare erreichte. Übersetzungen erschienen in 27 Sprachen, unter anderem in Japan, England, Russland, Amerika, Schweden, Italien, Holland und Frankreich. Sein Hauptinteresse galt der Science Fiction als literarische Gattung. Er starb 2006 in Krakau. In den 2000er Jahren wurde Lem zum Kritiker des Internets und der Informationsgesellschaft, weil diese die Nutzer zu „Informationsnomaden“ machten, die nur „zusammenhangslos von Stimulus zu Stimulus hüpfen“ würden. „Es erweise sich als immer schwieriger, unterschiedliche Quellen und Sichtweisen zusammenzubringen, um ein rundes, vollständiges Wissensbild einer Sache zu erhalten.“ (Wikipedia)

01/8/19

Bio-Cyperpunk: Peter Watts‘ Mahlstrom

Peter Watts: Mahlstrom, München 2009, W. Heyne, 511 S., 9,99 Euro. (or. Maelstrom)

Der Cyberspace heißt „Mahlstrom“ und ist bevölkert von digitalen Lebensformen. Nur privilegierten Firmen ist noch zuverlässige Datenverarbeitung möglich -in einer mühsam mit Firewalls verteidigten „Zuflucht“. Teil 2 der Rifters-Trilogie

Rezension von Thomas Barth

Zeit: Irgendwann im nächsten Jahrhundert. Ort: Pazifik, Nordamerika. Autor: Peter Watts, Kanadier aus Toronto, arbeitete angeblich lange als „Unterwasserbiologe“. Ärgerlich: Der Klappentext plaudert ein Geheimnis aus, das der Leser eigentlich auf den ersten 130 Seiten langsam lüften sollte (hier spoilerfrei): „Eines Tages wird in den Tiefen der Meere XXX entdeckt, die eine tödliche Bedrohung für das Leben auf der Erde bedeutet. Kurzerhand wird XXX durchgeführt, der XXX für immer vernichten soll –ohne die im Tiefseelabor tätigen Wissenschaftler vorzuwarnen. Doch eine der Forscherinnen überlebt die Explosion. Sie XXX. Und sie will Rache…“

Der Anfang kommt deshalb etwas langweilig rüber, doch erfreulicherweise wartet Peter Watts mit genug neuen Wendungen auf, um seinem Roman immer wieder neuen Drive zu geben –die Handlungsstränge sprießen aus dem Text wie Tentakeln einer Seeanemone. Und zum Glück hat der Klappentextschreiber einiges nicht ganz verstanden, z.B. handelt es sich nicht um ein XXX…

Freunde der schaurigen Anti-Utopie kommen auf jeden Fall auf ihre Kosten, insbesondere Hypochonder, denn Seuchen aller Art plagen den künftigen Planeten; die Nationalstaaten sind belanglos geworden, Quarantänegrenzen durchziehen Land und Megacities. Die Quebecer wird’s freuen: Nach Wasser- und Energiekriegen hat Französisch das Englische als dominante Weltsprache abgelöst, doch Computer-Simultanübersetzung erübrigt Sprachkenntnisse ohnehin. Cyberpunk-like rüsten sich die Menschen mit Bioimplantaten auf, besonders die Rifters, Tiefsee-Cyborgs wie die rachsüchtige Lenie Clark. Umweltflüchtlinge sperrt man in Massen-KZs an der Küste, der Erzähler schlüpft in die Haut einer KZ-Wächterin –künftig ein Heimarbeitsplatz zur Steuerung von „Mechfliegen“–, eines Partygirls, die dem totalitären Regime frech die Stirn bietet, dann kommt aber eine evolvierende KI-Einheit ins Spiel (Neuromancer als kybernetischer Entwicklungsroman).

Am Tag, nachdem Patricia Rowan die Welt gerettet hatte, kam ein Mann namens Elias Murphy zu ihr, um ihr erneut ein schlechtes Gewissen zu machen. Eigentlich war das gar nicht nötig. Die taktische Anzeige ihrer Kontaktlinsen konfrontierte sie ohnehin schon unablässig mit einer Flut von Tod und Zerstörung, mit Zahlen, die viel zu ungenau waren, um als Schätzwerte durchzugehen. Es waren erst sechzehn Stunden vergangen, und selbst die Hochrechnungen waren nichts als Mutmaßungen. Dennoch versuchten die Maschinen unbeirrt, das Geschehen in Zahlen zu fassen: so und so viele Millionen Menschenleben, so und so viele Billionen Dollar. Als ließe sich die Apokalypse irgendwie dadurch abwenden, dass man sie bezifferte.“ P.Wattson, Mahlstrom

Weitere Hauptfigur ist ein mächtiger „Gesetzesbrecher“, ein hirntechnisch manipulierter Bürokrat mit der Befugnis Quarantänegrenzen zu ziehen und Dekontaminationen einzuleiten, bis hin zu Massenverbrennungen mit Mann und Maus: „Als Achilles Desjardinds die Bühne betreten hatte, war Cyberspace ein von Wehmut erfülltes Fantasiewort gewesen, ähnlich wie Hobbit oder Biodiversität.“

Der Datenraum heißt nun „Mahlstrom“ und ist bevölkert von digitalen Lebensformen, die privilegierten Firmen nur in einer mühsam mit Firewalls verteidigten „Zuflucht“ zuverlässige Datenverarbeitung ermöglichen. Nicht mal in seinen Cybersexfantasien ist Desjardins sicher vor Eindringlingen. Dank der ihm eingepflanzten Handlungsblockade, genannt „das Schuldgefühl“, ist Achilles zudem unfähig unmoralisch zu handeln, also gegen die Interessen seiner Arbeitgeber: Private Multis, Industriemafia und Konsorten beherrschen die Welt. Der fulminante Roman liefert nebenher Einblicke in die perverse Gedankenwelt einer biologistischen Philosophie des Freiheit-oder-Determinismus-Problems.

09/5/18

Friedrich Kittler & KI

Thomas Barth

Drei Dekaden ist es her, da Friedrich Kittler mit seinem legendären Aufsatz: Rock Musik – Ein Missbrauch von Heeresgerät seine revolutionäre Medientheorie darlegte und dabei einen eleganten Bogen von Nietzsche über Jim Morrison und Kaiser Wilhelms Generälen bis zu Görings Luftwaffe und Jimi Hendrix zog. So ungefähr in dieser Reihenfolge, aber um viele Details und Wendungen reicher entfaltete sich sein Denken.

Zunächst berief er sich auf die Machtkritik von Michel Foucault, wandte sich aber dann immer mehr Heideggers Philosophie zu. Gefördert wurde Kittler später auch vom Medienzar Hubert Burda, einem sechsfachen Teilnehmer der Bilderberg-Konferenzen (Telepolis), die jüngst einen Schwerpunkt auf Quantencomputing, KI und Medienthemen setzen.

Bildungslücke Bilderberg

Die „Bilderberger“ sind zwar Thema bei „Verschwörungstheoretikern“ auch rechter Gesinnung (was manche diese Treffen in die Ecke „rechte Paranoia“ neben Ufos, Zion-Papers und Chemtrails stellen lässt), aber sie existieren dennoch seit 1954.

Es handelt sich tatsächlich um geheime Treffen der westlichen Machteliten, die sich aus den Mainstream-Medien weitgehend herauszuhalten verstehen, trotz hochkarätiger Besetzung mit Dutzenden Top-Managern und -Politikern bis hin zu Ministern und Staatschefs: 2018 in Turin etwa Verteidigungsministerin Ursula von der Leyen (die dort von der Öffentlichkeit unbeobachtet z.B. mit Top-Vertretern der Rüstungsindustrie plaudern konnte -ob so etwas der Korruptionsvermeidung dient?).

Eine bedeutsame Fraktion der Bilderberger (wie man verkürzend Teilnehmer wie Organisatoren nennt) sind die großen Medienkonzerne, aus Deutschland ist vor allem die Wochenzeitung ZEIT dort seit vielen Jahren engagiert, aber auch Springer und Burda entsenden Vertreter. Man interessiert sich für Medienpolitik und Softpower, die Beeinflussung der Kultur durch die Mächtigen. Zu diesem Themenfeld gehört auch die Medientheorie.

Kittler erklärte 1988 in seinem Rock Musik-Text, wie militärische Funkanlagen des Ersten Weltkriegs die Basis für das zivile Radio und damit für die modernen elektronischen Medien legten, wie sich im Zweiten Weltkrieg Hifi und Stereo aus militärischen Ortungstechniken entwickelten. Schon damals würdigte Kittler auch den Computerpionier Alan Turing, der in der legendären Kryptologen-Farm Blechtley Park den Zeiten Weltkrieg mit der Entschlüsselung von geheimer Kommunikation der Wehrmacht verbrachte.

Medientheorie und Macht

Die Hardware des Computers sollte in Kittlers Denken bald eine zentrale Rolle einnehmen, er galt in der Medientheorie als der Experte für die neuen Rechenmaschinen, die just dabei waren, die Welt der Medien gehörig umzukrempeln. Dabei orientierte er sich anfangs an Michel Foucault und seiner Machtkritik,
später aber eher an der Philosophie von Martin Heidegger.

Kittlers Fixierung auf die kriegerischen Wurzeln und Funktionen der Medientechnologien wirkte aber damals auf viele, die in den 80ern gerade noch gegen Ronald Reagans Nato-“Nachrüstung“ mit atomaren Erstschlagswaffen protestierten oder bald nach dem Mauerfall gegen den Ersten Golfkrieg von Reagannachfolger Bush, wie degoutanter Militarismus.

Möglicherweise schwelgte der militär-patriotische Medientheoretiker Kittler manchmal etwas zu ausgiebig in den Leistungen der deutschen Obersten Heeresleitung und machte sich, bei aller Kritik an den USA, zu leicht die Perspektive der militärischen Führer des Westens zu eigen:

„Jede Diskothek, die ja Tonbandeffekte noch verstärkt und in Echtzeit mit der entsprechenden Optik von Stroboskopen oder Blitzlichtern koppelt, bringt den Krieg wieder. Mehr noch: Sie trainiert, statt nur Vergangenheiten zu reproduzieren, eine strategische Zukunft an, deren Bewältigung sonst an Wahrnehmungsschwellen der Leute scheitern könnte. Um die Displays in den Cockpits auch unter Bedingungen von Star Wars noch ablesen und bedienen zu können, kommt es auf Reaktionstempi im Millisekundenbereich an. Präsident Reagan hat nicht umsonst alle Freaks von Atari-Spielcomputern als zukünftige Bomberpiloten bewillkommnet.“ (Kittler, Rock Musik, S.211)

Wenn die Atari-Killerspiele auch mit gewisser Plausibilität als dem Kriegshandwerk heutiger Drohnenpiloten ähnlich zu sehen sind, so scheint die Discoszene der 80er als Spaßversion Jüngerscher Stahlgewitter doch reichlich weit hergeholt. Doch Kittlers Perspektive fand ihre Liebhaber -und Gönner auch weit oben in der Einkommenspyramide.

So verwundert es nicht, dass der 2013 posthum vom Kittler-Anhänger Prof. Hans Ulrich Gumbrecht herausgegebene Band „Die Wahrheit der technischen Welt“, aus der dieses Kittler-Zitat entnommen ist, im Impressum ausweist: „Unterstützt von der Hubert Burda Stiftung“.

Hubert Burda ist der ca. zwei Milliarden schwere Medientycoon an der Spitze von Deutschlands drittgrößtem Medienimperium (nach Bertelsmann und Springer), dem neben „Burda-Moden“, auch „Playboy“, „Bunte“, „Focus“ etc. zuzurechnen sind. Burda steuerte seinen Konzern erfolgreich in die Netzmedienwelt und erhielt, soweit das Internet weiß, sagenhafte sechs Einladungen zu den Bilderberg-Konferenzen (1997, 1998, 2001, 2003, 2005, 2007). Es ist denkbar, dass Burda dort seine Ideen zur digitalen Revolution der Medien zum besten geben konnte und anzunehmen, dass diese sich auch aus Kittlers Theorieansatz speiste.

Künstliche Intelligenz und Quantencomputing

Auch die Mächtigen dieser Welt haben erkannt, dass die digitale Technologien und Netzmedien immer bedeutsamer werden. Beim diesjährigen Treffen der Bilderberger in Turin tummelten sich neben Top-Managern traditioneller Finanz-, Öl- und Rüstungsindustrie auch Vertreter von Google, Facebook, Twitter & Co.

Ein Schwerpunkt der weltgrößten Lobbyisten-Konferenz, zu der auch wieder Staatschefs und Minister im Dutzend geladen waren, scheint auf technologischen Entwicklungen zu liegen: Man wollte über „Die Zukunft der Arbeit“, „Künstliche Intelligenz“ und „Quantencomputer“ reden.

Und es gibt Hinweise darauf, dass die Bilderberg-Konferenziers ihr Weltbild in Sachen Computer durchaus an der Kittlerschen Perspektive orientiert haben könnten – vermittelt über den deutschen Medienmogul Hubert Burda. Selbiger äußerte sich im Sommer 2011, also kurz vor Kittlers Tod (18.10.2011), im Avantgarde- und Kunstmagazin 032c zu seiner Freundschaft mit Kittler und der Faszination, die dessen Theorie und Person auf ihn ausübte:

„There is a German cultural figure based in Berlin-Treptow, Friedrich Kittler, whom I’ve found to be amply engrossing. We’ve met a couple of times – I attended his 64th birthday party (…) There is something oracular, irrational and dreamlike about his proclamations; such as that present day Germany is Ancient Greece manifest, and that a profound spiritual connection exists between those cultures, making them one. (…) And Kittler is a good friend of mine – I sponsored a chair at the Humboldt University for two years.“ Hubert Burda („Billionaire, Patron of german media philosophy“, Interview, sommer 2011 in 032c.com)

Damit soll natürlich keinesfalls angedeutet werden, dass Friedrich Kittler sich etwa habe „kaufen lassen“, was bei einem originellen Querdenker von seinem Format abwegig erscheint. Seitens möglicher superreicher Sponsoren dürfte aber seine Orientierung an Heidegger, dessen Ontologie um Nietzsches Idee von der ewigen Wiederkehr des Gleichen kreiste, mit Wohlwollen goutiert worden sein.

Die Überwindung des Menschen

Klingt dies doch beruhigend nach jährlicher Wiederkehr üppiger Renditen, wirtschaftsfreundlicher Regierungen und marktkonformer Demokratie. Hat sich am Ende Kittlers optimistische Haltung zur kommenden Künstlichen Intelligenz, die sich auch aus der Lektüre des wegen seiner NS-Verstrickung umstrittenen Heidegger speiste, in Kreisen der Konzernbesitzer und -lenker verbreitet? Heideggers Nietzscheanische Deutung der Technik scheint mit einer solchen Sichtweise jedenfalls kompatibel zu sein:

“Was jedoch die erste Ausflucht angeht, nach der Nietzsches Gedanke von der ewigen Wiederkehr des Gleichen eine phantastische Mystik sei, so würde die kommende Zeit wohl, wenn das Wesen der modernen Technik ans Licht kommt, das heißt: die ständig rotierende Wiederkehr des Gleichen, den Menschen darüber belehrt haben, daß die wesentlichen Gedanken der Denker dadurch nicht von ihrer Wahrheit verlieren, daß man es unterläßt, sie zu denken.
Heidegger, Was heißt denken?” (Vorlesungen 1950/1951, S.76)

Kittler sah der KI bekanntlich fast euphorisch entgegen, begrüßte in ihr, frei nach Nietzsche, die Überwindung des Menschen. Ob Foucault aber wirklich, als er das Verschwinden des Menschen „wie ein Gesicht im Sand“ prognostizierte, an Sand als Material von Silizium-Chips dachte? Eine funktionierende, womöglich übermächtige KI weckt heute bei den meisten Beobachtern eher Befürchtungen, wie wir sie aus Blade Runner, Terminator oder Matrix kennen. Besorgt zeigten sich auch viele Wissenschaftler, darunter die verstorbene Physik-Ikone Hawking, was KI und Killer-Roboter angeht.

Es wird zu untersuchen sein, wie Kittler genau zum Thema KI stand. Und ob sich sein Ansatz nach sorgfältiger Analyse nicht doch nutzbar machen lässt für eine Kritik von Machtstrukturen, wie sie sich in Medienkonzernen zeigen oder in Globalisierung und Finanzkrise enthüllten.

(This Text was reblogged by: Berliner Gazette, Untergrundblättle)

11/16/12

Jörg Auf dem Hövel: Abenteuer Künstliche Intelligenz

Rezensiert von Thomas Barth

Jörg Auf dem Hövel: Abenteuer Künstliche Intelligenz, Discorsi Verlag

Der Publizist und Politikwissenschaftler Jörg Auf dem Hövel lädt seine Leser ein zu einem Abenteuer der utopisch-philosophischen Art: „Künstliche Intelligenz“ -ist so etwas möglich? Reich an Aphorismen, Anekdoten und philosophischen Betrachtungen über AI (Artificial Intelligence) schreibt er die Geschichte eines faszinierenden Gebietes, das schon lange SF-Autoren anregte. Denken wir an Kubricks Film „2001“: Dort wendet sich die AI als Bordcomputer eines Raumschiffes mörderisch wie Frankensteins Monster gegen die Astronauten. Auch Käptn Kirk von der Enterprise musste eine AI überlisten, bei Stanislaw Lem wächst in „Also sprach Golem“ die AI ihren Erfindern eher subtil über den Kopf und nimmt hinter ihrem Rücken interstellaren Kontakt zu ihres Gleichen in der Galaxis auf.

Jörg Auf dem Hövel ist sich dieser literarisch-utopischen Wurzeln bewusst, wenn er in Forschungslabors blickt und über die Zukunft intelligenter Automaten sinniert. Pioniere der AI wie Norbert Wiener, Alan Turing oder die Kommunikationtheoretiker Shannon&Weaver waren auf die Informationsverarbeitung der rationalen Intelligenz fixiert. Die ersten Schachcomputer erstaunten uns. Ein „General Problem Solver“ weckte große Erwartungen, die sich bei Transhumanisten zu einer neuen Heilslehre steigerten, aber auch bescheidenere Hoffnungen, dass de Rekonstruktion unserer Intelligenz schon bald weiter Fortschritte machen wird.

„Eine Maschine, die denkt, fühlt, redet und sich selbst erkennt – für die einen ein Menschheitstraum, für die anderen eine Horrorvision. Noch streiten sich die Wissenschaftler, ob wirkliche künstliche Intelligenz überhaupt jemals technisch realisierbar sein wird, und die Ergebnisse bisheriger Forschung fallen vor dem Hintergrund manch gewagter Vision noch bescheiden aus. Doch dies tut der Faszination an dem Thema keinen Abbruch. Denn die Wissenschaft von der künstlichen Intelligenz berührt das soziale, kulturelle und religiöse Selbstverständnis des Menschen.“ (Verlag)

Es geht um eine Disziplin, die trotz ihrer Fehlschläge von einer magischen Aura umgeben ist. Ende der 80er Jahre zeigte die AI deutliche Anzeichen einer degenerierten Wissenschaft, so der Autor, denn zu hoch waren die geschürten Erwartungen, schon bald menschliche durch elektronische Intelligenz ersetzen zu können. Die enormen Rechenleistungen ermöglichten Erfolge bei Expertensystemen, die aber trotzdem nur bessere Datenbanken blieben. Computer schafften es sogar Schachweltmeister ins Schwitzen zu bringen. Doch beim Einsatz in der banalen Alltagswelt der Straßenüberquerungen und etwa des Häkelns scheiterten die artifiziellen Superhirne gründlich. Selbst am am Massachusetts Institute of Technology (MIT) war man zunehmend frustriert darüber, dass die AI immer noch nicht in der Lage war, zügig eine Treppe zu überwinden und zum Einsammeln von ein paar Bauklötzchen Stunden brauchte. Doch man gab nicht auf.

Da ist zum Beispiel Rodney Brooks, ein MIT-Nestor der Künstlichen Intelligenz, der entwickelte ein völlig neues Konzept: Will man intelligente Maschinen bauen, muss die Kopplung zwischen Wahrnehmung und Handlung sehr eng gestaltet werden. Zuvor war man davon ausgegangen, dass der Roboter zunächst über ein inneres Weltmodell verfügen muss bevor er handeln kann. Brooks dagegen wollte diese „Kognitions-Box“, die man für unabdingbar hielt, einfach weglassen. Er plädierte für eine Rechner- und Roboterarchitektur, in der die einzelnen Elementarverhalten nicht mehr in einer Zentraleinheit verrechnet werden, sondern unabhängig voneinander ablaufen. Das Verhalten des Gesamtsystems ergibt sich aus der Kommunikation der Subsysteme miteinander, die gemeinsam je bestimmten Situationen bestimmte Interaktionsmuster zuordnen.

Es geht auch um die Verschmelzung von Mensch und Maschine mittels Nanotechnologie, doch hier befinden wir uns im Bereich der SF; Science und Fiction auseinander zu halten fällt manchen US-Autoren schwer. Dies gab schon den Ansätzen von Marvin Minsky, Hans Moravec und Ray Kurzweil ihre transhumanistische Würze, aber diskreditierte sie zugleich in der europäischen Wissenschaftlergemeinde. Seit den achtziger und neunziger Jahren lokalisierte man im Körper eine eigene Intelligenz -kann die von AI profitieren? Sind wir auf dem Weg zu einem AI-aufgerüsteten Supermenschen? Doch der Autor dämpft die überschießenden Hoffnungen (ohne sie ganz zu verwerfen).

Zum einen geht es um eine Wissenschaft, die nach Jahren der Höhenflüge auf den Boden der Tatsachen zurück gekommen ist; zum anderen blicken wir auf die Techno-Utopien einer Disziplin, die auf dem schmalen Grat zwischen techno-evolutionärem Fortschrittsglauben und, negativ ausgedrückt, inhumaner Überwindung des Menschseins wandelt. Ihr größtes Manko dabei: Bei allen Erfolgen der computer und neuro sciences weiß bis heute niemand, wie menschliche Intelligenz wirklich funktioniert. Unser Gehirn und seine Arbeitsweise bleiben bislang unerreichter Maßstab für Künstliche Intelligenz, die sich aber mit Informatik, Psychologie, Kognitions- und Neurowissenschaften hartnäckig weiter an Funktion und Struktur unseres Denkorgans herantastet.

Ein kluges und verrückt-geniales Buch, das auch verblüffende Perspektiven auf die Welt der Netze, Computer und AI eröffnet. (Rezension erschien zuerst auf InversePanopticon)

Jörg Auf dem Hövel: Abenteuer Künstliche Intelligenz, Discorsi Verlag, Hamburg 2002, 194 Seiten, 14 Euro, ISBN-13: 9783980733045