12/29/25

Blackbox Palantir 39c3

Blackbox Palantir

Constanze Kurz and Franziska Görlitz

Wer nutzt in Deutschland Software von Palantir und wer hat das in naher Zukunft vor? Was sind die rechtlichen Voraussetzungen für den Einsatz solcher Analysewerkzeuge? Und was plant Innenminister Alexander Dobrindt in Sachen Palantir für die Polizeien des Bundes?

Software von Palantir analysiert für Polizeien und Militär deren Daten – dafür lizenzieren auch deutsche Polizeibehörden seit Jahren die Analysesoftware Gotham des US-Unternehmens. Die Software verarbeitet strukturierte und unstrukturierte Informationen aus Polizeidatenbanken. Die genauen Funktionsweisen sind für die Öffentlichkeit, Gesetzgeber und Kontrollbehörden jedoch nicht einsehbar.

Das US-Unternehmen ist hochumstritten und auch in Deutschland seit einigen Gesetzesinitiativen wieder umkämpft – wegen seiner intransparenten Analysemethoden, seiner Zusammenarbeit mit autoritären Staaten und seiner Nähe zur US-Regierung.

Rechtlich ist der Einsatz von Analysetools wie von Palantir in Deutschland ohnehin komplex, denn das Bundesverfassungsgericht hat 2023 deutliche Grenzen für polizeiliche Datenanalysen gezogen. Dennoch haben mehrere Bundesländer für ihre Polizeien Verträge oder streben sie an. Auch auf Bundesebene wird der Einsatz für das Bundeskriminalamt und die Bundespolizei hitzig diskutiert.

Wie funktioniert Gotham und welche Gefahren gehen damit einher?
Welche Entwicklungen sind im Bund und in den Ländern zu beobachten? Wie geht es weiter?

Wir wollen über den Stand der Dinge in Bund und Ländern informieren und auch zeigen, wie wir versuchen, rechtliche Vorgaben durchzusetzen. Denn die GFF und der CCC sind an Verfassungsbeschwerden beteiligt, unter anderem in Hessen, Hamburg und zuletzt in Bayern. 39c3

12/28/25

freiheit.exe – Utopien – Malware

freiheit.exe – Utopien als Malware

Christiane Mudra

„freiheit.exe“ ist eine Lecture über die ideologischen Rootkits des Silicon Valley. Sie schlägt den Bogen von den italienischen Futuristen zu den heutigen Tech-Feudalisten, vom Akzelerationismus zur Demokratieskepsis der Libertären, von Tolkien zur PayPal-Mafia.
Basierend auf den Recherchen zu meinem Theaterstück „freiheit.exe. Utopien als Malware“, in dem journalistische Analyse auf performative Darstellung trifft.

Ich lade das CCC-Publikum ein, die Betriebssysteme hinter unseren Betriebssystemen zu untersuchen.
Während wir uns mit Verschlüsselung, Datenschutz und digitaler Selbstbestimmung beschäftigen, installieren Tech-Milliardäre ihre Weltanschauungen als Default-Einstellungen unserer digitalen Infrastruktur. Die Recherchen beleuchten die mitgelieferte Malware.

Ich navigiere durch die Ideengeschichte zwischen Marinettis Futuristischem Manifest (1909) und Musks Mars-Kolonien, von den ersten Programmiererinnen zur Eroberung des Alls, von neoliberalen Think Tanks zur Schuldenbremse, von nationalen Christen zu Pronatalisten.
Investigative Recherche trifft auf performative Vermittlung.
Mit O-Tönen von Peter Thiel, Nick Land und anderen zeigt die Lecture ideologische Verbindungslinien zwischen Theoretikern autoritär-technoider Träume und den Visionen der Tech-Oligarchen auf:

Es geht um „Freedom Cities“, Steuerflucht und White Supremacy.
Um Transhumanismus als Upgrade-Zwang bis hin zu neo-eugenischen Gedanken.
Um Akzeleration als politische Strategie: Geschwindigkeit statt Reflexion, Disruption statt Demokratie, Kolonisierung – jetzt auch digital.

Aus Theaterperspektive betrachte ich das Revival der Cäsaren und die Selbstinszenierung von Tech-CEOs als Künstler, Priester oder Genies.
Und mit der Investigativ Reporterin Sylke Grunwald habe ich recherchiert, was all das mit den Debatten rund um Palantir zu tun hat.

Die scheinbar alternativlose Logik von „Move Fast and Break Things“ ist nicht unvermeidlich – sie ist gewollt, gestaltet, ideologisch aufgeladen. 39c3

12/26/25

The Heartbreak Machine: Nazi Echo Chamber

The Heartbreak Machine: Nazis in the Echo Chamber, Martha Root, Eva Hoffmann and Christian Fuchs

WhiteDate ist eine Plattform weißer Suprematist:innen, die sich an Rassist:innen und Antisemit:innen richtet – und auf veralteter Infrastruktur basiert. Was die 8000 Mitglieder nicht wussten: Einige der Nazis flirteten dieses Jahr mit realistisch wirkenden Chatbots – und verliebten sich sogar in sie. Mit einer Kombination aus automatisierter Konversationsanalyse, Web-Scraping und klassischen OSINT-Methoden verfolgten wir öffentliche Spuren und identifizierten die Personen hinter der Seite. Dieser Vortrag zeigt, wie KI-Personas und investigatives Denken extremistische Netzwerke aufdecken und wie Algorithmen gegen Extremismus eingesetzt werden können.

Monatelang tauchte Martha in die verborgene Welt von WhiteDate, WhiteChild und WhiteDeal ein, drei Plattformen, die von einer Rechtsextremistin aus Deutschland betrieben werden. Sie glaubt an die Verschwörung einer weißen Vorherrschaft und einer „rassisch reinen“ weißen Gemeinschaft. Was als Neugier begann, entwickelte sich schnell zu einem Experiment über menschliches Verhalten, Technologie und Absurdität.

Martha infiltrierte das Portal mit „realistischen“ KI-Chatbots. Die Bots waren so überzeugend, dass sie die Überprüfungen umgingen und sogar als „weiß“ verifiziert worden. Durch die Gespräche und Recherche von digitalen Spuren dieser Gemeinschaft, die sich in Sicherheit wähnte, konnte sie Nutzer identifizieren.

Gemeinsam mit Reporter:innen der „Die Zeit“ konnten wir die Person hinter der Plattform enttarnen und ihre Radikalisierung von einer erfolgreichen Pianistin zu einer Szene-Unternehmerin nachzeichnen. Um ihr Dating-Portal hat sie ein Netzwerk von Websites aufgebaut, dass seinen Nutzern Liebe, Treue und Tradition vermarktet. WhiteDate verspricht romantische Beziehungen, WhiteChild propagiert Familien- und Abstammungsideale und WhiteDeal ermöglicht berufliches Networking und „gegenseitige Unterstützung“ unter einem rassistischen Weltbild. Gemeinsam zeigen sie, wie Ideologie und Einsamkeit auf bizarre Weise miteinander verwoben sein können.

Nach monatelanger Beobachtung, klassischer OSINT-Recherche, automatisierter Gesprächsanalyse und Web-Scraping haben wir herausgefunden, wer hinter diesen Plattformen steckt und wie ihre Infrastruktur funktioniert. Dabei deckten wir die Widersprüche und Absurditäten extremistischer Gemeinschaften auf, verdeutlichten ihre Anfälligkeit für technologische Eingriffe und brachten sogar den einen oder anderen Nazi zum Weinen.

Dieser Vortrag erzählt von Beobachtung, Schabernack und Einblicken in die digitale Welt extremistischer Gruppen. Er zeigt, wie Algorithmen, KI-Personas und investigatives Denken Hass entlarven, seine Narrative hinterfragen und seine Echokammern aufbrechen können. Wir zeigen, wie Technologie im Kampf gegen Extremismus eingesetzt werden kann. 39c3

siehe zum Thema Antifaschismus i.w.S. auch folgende Beiträge zum 39c3->

PRÜF

Nico Semsrott

PRÜF! Prüfung Rettet übrigens Freiheit!
Alles wird in Deutschland geprüft. Warum nicht auch mutmaßlich verfassungswidrige Parteien? Hier stelle ich vor, was PRÜF! anders machen will als bisherige Kampagnen.

Wir haben eine Forderung: „Alle Parteien, die vom Verfassungsschutz als rechtsextremer Verdachtsfall oder gesichert rechtsextrem eingestuft werden, sollen durch das Bundesverfassungsgericht überprüft werden.“ Wir demonstrieren so lange, bis der Bundesrat die Prüfung formal beantragt hat. PRÜF-Demos. Bald in allen Landeshauptstädten. Am 2. Samstag. Jeden Monat.

Warum beim Schutz der Demokratie nicht mal einen Ansatz wählen, der so noch nicht probiert wurde? Nicht auf die anderen gucken, sondern auf uns? Auf das gemeinsame? Auf Spaß? Das nutzen, was wir haben und was wir können? Wir haben das Grundgesetz, dessen Stärken eingesetzt werden müssen. Wir haben uns, Millionen Menschen, die wir uns organisieren können. Wir haben Ideen, wir haben Geld, wir haben Macht, wir haben Wissen. Bisher haben wir nicht einmal ansatzweise unsere Möglichkeiten ausgeschöpft und es wäre absurd, wenn wir das nicht schaffen würden, die Freiheitliche Demokratische Grundordnung zu schützen.

Vortrag kann Spuren von Prüfen enthalten. 39c3

All Sorted by Machines of Loving Grace?

„AI“, Cybernetics, and Fascism and how to Intervene

Katika Kühnreich

While the extreme right is on the rise in many countries and climate change is unrolling, a promising future seems to be written: According to Elon Musk, Sam Altman, and some other “tech bros” it is to leave the dying planet to go to space. With the help of something called “A(G)I”.
But what kind of future is the one that is promised? And what is the connection between power cycles of tech company owners and people who’s believes can be called fascist? As we moved power through data in the hands of very view, it is important to examine what ideas these view have in their heads.
This talk will explore the roots of today’s tech fascism and its love for tech. From the early thoughts and movements in the US and Europe to Futurism and the Holocaust, organised with Hollerith punching cards. It will dive into the its blooming relationship with cybernetics, and take a look in the future the “tech bros” want to lure us in.
This talk will address the often overlooked topic of how and when people get comfy with diving into movements of hate and how to stop a white supremacy future where we will be sorted by machines.
And, in taking a look on past movements opposing authoritarianism and will examine mindsets and possibilities of resistance as well as the possibility of restarting everything. Because we have a planet and loved ones to lose.
Wear your safety cat-ears, buckle up, it will be a wild, but entertaining ride.

The idea of the Super-Human is not a new one, neither is the idea of charismatic „good“ leader nor to sort humans into classes, races, abilities. The idea of a view controlling many by force and ideas that justify their rulership and cruelties is an old one, as is the opposing idea of a free society and humans as equals.
A central aspect is how people involved see the human nature and according to that what society they want to build. And what role is intended for technology.
In the 19th century the beliefs of both the opposing sides dripped into science, as well as individual’s heads, and social movements around the world. While some wanted to form a wold society of equals others wanted to breed a master race that to control everything.

The love of industrial leaders for authoritarianism has played an important role since the beginning in funding and providing access to powerful networks. Industrialists like Henry Ford loved and promoted ideas at least close to fascism. German, Italian, and Austrian counterparts funded Hitler and Mussolini. And it is not that they did it because they did not understand the fascist leader’s yearning – it was because they shared and loved their aims and violence.

In Futurism, one of the often overlooked roots of fascism, and its Manifesto the enemies and societal goals are proclaimed crystal clear: “We will glorify war — the only true hygiene of the world — militarism, patriotism, the destructive gesture of anarchist, the beautiful Ideas which kill, and the scorn of woman.“

After WWII most of the people believing in dominating others by force and eugenics lived on, they and their cronies had slaughtered millions and destroyed whole social movements were opposing them. These people warning us about authoritarian prophets of doom and concentration camps are still missing.

In the post-war time ideas of authoritarianism met a new player: Cybernetics, the believe in a future, where all problems will be solved through technology and we are “All Watched Over by Machines of Loving Grace” (Richard Brautigam, 1967). The ideas split, merged, and melted into new beliefs and quasi-religions. Into something that is called “Cyber-Libertarianism” by David Golumbia or “TESCREAL” by Émile P. Torres and Timnit Gebru.

This talk will address an aspect that is often missing in analyses: What kind of breeding ground is it where ideas of fascism hatches best? And how can we stop iFascism instead of participating in it?

Furthermore, as being sorted by machines is not everyone’s secret dream, ways to stop iFascism will be provided.

Because we are more, we care for people in need – and we are the chaos! 39c3

selbstverständlich antifaschistisch!

Aktuelle Informationen zu den Verfahren im Budapest-Komplex – von family & friends Hamburg

Andreas family & friends Hamburg and Birgit family & friends Hamburg

Mit den Prozessen im Budapest-Komplex wird ein Exempel statuiert – nicht nur gegen Einzelne, sondern gegen antifaschistische Praxis insgesamt. Die Behauptung einer kriminellen Vereinigung mit Mordabsichten stellt eine absurde juristische Eskalation des staatlichen Vorgehens gegen Antifaschist*innen dar und steht in keinem Verhältnis zu den verhandelten Vorkommnissen. Die Verfahren in dieser Weise zu verfolgen, lässt vor allem auf ein hohes Ausforschungs- und Einschüchterungsinteresse schließen.
Mit dieser Prozesswelle und den Repressionen gegen Freund*innen und Angehörige wird antifaschistisches Engagement massiv kriminalisiert und ein verzerrtes Bild von politischem Widerstand gezeichnet – während gleichzeitig rechte Gewalt europaweit zunimmt und faschistische Parteien erstarken.
Wir sehen, dass Angriffe auf Rechtsstaatlichkeit und Zivilgesellschaft immer weiter zunehmen. Die Art und Weise, wie gegen die Antifas im Budapest-Komplex und im Antifa-Ost Verfahren vorgegangen wird ist ein Vorgeschmack darauf, wie politische Opposition in einer autoritären Zukunft behandelt werden könnte.
Wir sind alle von der rechtsautoritären Entwicklung, von Faschisierung betroffen. Die Kriminalisierung von Antifas als „terroristische Vereinigung“ ist Teil einer (weltweiten) Entdemokratisierung und Zersetzung von Rechtsstaatlichkeit.

Am 26. September wurde gegen Hanna vor dem OLG München das erste Urteil gegen eine der Antifaschist*innen im Rahmen des Budapest-Komplexes gefällt: 5 Jahre für ein lediglich auf Indizien basierendes Urteil. Dem Mordvorwurf der Staatsanwaltschaft wurde nicht entsprochen, behauptet wurde aber die Existenz einer gewalttätigen „kriminellen Vereinigung“.
Am 12. Januar 2026 wird nun vor dem OLG Düsseldorf der Prozess gegen Nele, Emmi, Paula, Luca, Moritz und Clara, die seit Januar in verschiedenen Gefängnissen in U-Haft sitzen, eröffnet. Die Anklage konstruiert auch hier eine kriminelle Vereinigung nach §129 und enthält den Vorwurf des versuchten Mordes. Die Verfahren in dieser Weise zu verfolgen, lässt vor allem auf ein hohes Ausforschungs- und Einschüchterungsinteresse schließen.
Zaid, gegen den ein europäischer Haftbefehl aus Ungarn vorliegt, war Anfang Mai unter Meldeauflagen entlassen worden; aufgrund seiner nicht-deutschen Staatsangehörigkeit hatte der Generalbundesanwalt keine Anklage gegen ihn erhoben. Da er in Deutschland nach wie vor von einer Überstellung nach Ungarn bedroht ist, hält er sich seit Oktober 2025 in Paris auf. Er ist gegen Auflagen auf freiem Fuß.
Ein weiteres Verfahren im Budapest- Komplex wird in Dresden zusammen mit Vorwürfen aus dem Antifa Ost Verfahren verhandelt. Der Prozess gegen Tobi, Johann, Thomas (Nanuk), Paul und zwei weitere Personen wird bereits im November beginnen.
In Budapest sitzt Maja – entgegen einer einstweiligen Verfügung des BVerfG und festgestellt rechtswidrig im Juni 2024 nach Ungarn überstellt – weiterhin in Isolationshaft; der Prozess soll erst im Januar fortgeführt werden und voraussichtlich mit dem Urteil am 22.01. zu Ende gehen.
Mit den Prozessen im Budapest-Komplex wird ein Exempel statuiert – nicht nur gegen Einzelne, sondern gegen antifaschistische Praxis insgesamt. Die Behauptung einer kriminellen Vereinigung mit Mordabsichten stellt eine absurde juristische Eskalation des staatlichen Vorgehens gegen Antifaschist*innen dar und steht in keinem Verhältnis zu den verhandelten Vorkommnissen.
Mit dieser Prozesswelle und den Repressionen gegen Freund*innen und Angehörige wird antifaschistisches Engagement massiv kriminalisiert und ein verzerrtes Bild von politischem Widerstand gezeichnet – während gleichzeitig rechte Gewalt europaweit zunimmt und faschistische Parteien erstarken. Wir sehen, dass Angriffe auf Rechtsstaatlichkeit und Zivilgesellschaf immer weiter zunehmen. Die Art und Weise, wie gegen die Antifas im Budapest-Komplex vorgegangen wird, ist ein Vorgeschmack darauf, wie politische Opposition in einer autoritäreren Zukunft behandelt werden könnte. Wir sind alle von der rechtsautoritären Entwicklung, von Faschisierung betroffen. Die Kriminalisierung von Antifas als „terroristische Vereinigung“ ist Teil einer (weltweiten) Entdemokratisierung und Zersetzung von Rechtsstaatlichkeit. 39c3

Programmierte Kriegsverbrechen?

Über KI-Systeme im Kriegseinsatz in Gaza und warum IT-Fachleute sich dazu äußern müssen

Rainer Rehak

Die automatisierten Zielsysteme des israelischen Militärs zeigen gut, wie KI-baserte Kriegsautomatisierung aktuell aussieht, was daran falsch läuft und warum wir Techies uns einmischen müssen

Das Thema „KI in der Militärtechnik“ und die Beziehung zwischen Mensch und Maschine ist seit Jahrzehnten ein Thema in der Friedensbewegung, der Konfliktforschung, der Philosophie, den Sozialwissenschaften und den kritischen Data & Algorithm Studies. Doch in den letzten Jahren wurden Waffensysteme mit KI-Komponenten entwickelt und auch praktisch in bewaffneten Konflikten eingesetzt. Dabei reicht die Anwendung von Drohnensteuerung über optische Zielerfassung bis hin zur logistischen Zielauswahl. Am Beispiel KI-gestützter Zielwahlsysteme, die vom israelischen Militär seit Mai 2021 und insbesondere jetzt im Genozid in Gaza eingesetzt werden, können die aktuellen technischen Entwicklungen aufgezeigt und analysiert werden. Im Fokus dieses Talks stehen vier KI-unterstützte Systeme: Das System Gospel zur militärischen Bewertung von Gebäuden, das System Lavender zur militärischen Bewertung von Personen, das System Where’s Daddy? zur Zeitplanung von Angriffen und ein experimentelles System auf Basis großer Sprachmodelle zur Erkennung militärisch relevanter Nachrichten in palästinensischen Kommunikationsdaten.

Auf Basis der Aussagen von Whistleblower:innen des israelischen Militärs und Angestellten beteiligter Unternehmen wie Amazon, Google oder Microsoft sowie internen Dokumenten, die durch investigative Recherchen von mehreren internationalen Teams von Journalist:innen veröffentlicht wurden, können die Systeme und Designentscheidungen technisch detailliert beschrieben, kritisch analysiert sowie die militärischen und gesellschaftlichen Implikationen herausgearbeitet und diskutiert werden. Dabei entstehen auch Fragen bezüglich Verantwortungsverlagerung durch KI, Umgehung des Völkerrechts sowie die grundsätzliche Rolle von automatisierter Kriegsführung.

Am Schluss geht der Vortrag noch auf die Verantwortung von IT-Fachleuten ein, die ja das Wissen und Verständnis dieser Systeme mitbringen und daher überhaupt erst problematisieren können, wenn Systeme erweiterte oder gänzlich andere Funktionen erfüllen, als öffentlich und politisch oft kommuniziert und diskutiert wird. Überlegungen zu Handlungsoptionen und Auswegen leiten zuletzt die Diskussion ein. 39c3

And so it begins – Wie unser Rechtsstaat auf dem Highway Richtung Trumpismus rast – und warum afghanische Kläger*innen für uns die Notbremse ziehen

Eva and Elaha

Wenn die Regierung sich nicht mehr an das eigene Recht gebunden fühlt, markiert das nicht nur einen politischen Spurwechsel, sondern die Auffahrt auf den Highway to Trumpism. Zeit die Notbremse zu ziehen!
Normalerweise trifft es in solchen Situationen immer zuerst diejenigen, die sich am wenigsten wehren können. Doch was passiert, wenn genau diese Menschen mit juristischen Werkzeugen bewaffnet werden, um zurückzuschlagen?
Anhand von über 100 Klagen afghanischer Schutzsuchender zeigen wir, wie Ministerien das Bundesaufnahmeprogramm sabotieren, Gerichte sie zurückpfeifen – und die Zivilgesellschaft zum letzten Schutzwall des Rechtsstaats wird. Und wir verraten, warum sich Beamte im BAMF vielleicht lieber krankmelden sollten und welche anderen Möglichkeiten sie haben, um nicht straffällig zu werden.

• Versprochen ist versprochen und wird auch nicht gebrochen“ – das lernen wir schon als Kinder. Aber der Kindergarten ist schon lange her, und Politiker*innen haben zwar oft das Auftreten eines Elefanten, aber das Gedächtnis eines Goldfischs.
• Deswegen hätte die Bundesregierung auch fast 2.500 Afghan*innen mit deutschen Aufnahmezusagen in Islamabad „vergessen“, die dort seit Monaten auf die Ausstellung ihrer deutschen Visa warten
• Das Kalkül dahinter: Pakistan erledigt die Drecksarbeit und schiebt sie früher oder später ab, Problem solved! – selbst wenn dabei Menschenleben auf dem Spiel stehen.
• Wie kann die Zivilgesellschaft die Notbremse ziehen, wenn sich Regierung und Verwaltung nicht mehr an das eigene Recht gebunden fühlen?
• Eine Möglichkeit: wir vernetzen die afghanischen Familien mit Anwält*innen, damit sie Dobrindt und Wadephul verklagen – und sie gewinnen! Die Gerichtsbeschlüsse sind eindeutig: Visa sofort erteilen – sonst Strafzahlungen! Inzwischen laufen über 100 Verfahren an vier Verwaltungsgerichten, weitere kommen täglich hinzu.
• Das dürfte nicht ganz das gewesen sein, was die neue Bundesregierung meinte, als sie im Koalitionsvertrag verkündete, „freiwillige Aufnahmeprogramme so weit wie möglich zu beenden“.
Übersetzung der politischen Realitätsversion: Wenn es nach Dobrindt und dem Kanzler geht, sollen möglichst gar keine Schutzsuchenden aus Afghanistan mehr nach Deutschland kommen – rechtsverbindliche Aufnahmezusagen hin oder her. Einreisen dürfen nur noch anerkannte Terroristen aus der Taliban-Regierung, um hier in Deutschland die afghanischen Botschaften und Konsulate zu übernehmen
• Durch die Klagen konnten bereits 78 Menschen einreisen, etwa 80 weitere Visa sind in Bearbeitung – und weitere werden vorbereitet.
• Doch wie in jedem Drehbuch gilt: The Empire strikes back! Die Regierung entwickelt laufend neue Methoden, um Urteile ins Leere laufen zu lassen und Einreisen weiterhin zu blockieren.
• Willkommen im „Trumpismus made in Germany“. 39c3

Aber hier Leben? Nein danke! …oder doch? Wie wir der autoritären Zuspitzung begegnen können.

Jaša Hiergeblieben and Lisa Zugezogen

Im Osten stehen nächstes Jahr schon wieder Wahlen an und schon wieder sieht alles danach aus, als ob die AfD eine Regierungsbeteiligung bekommen könnte. Ganz konkret: In Sachsen-Anhalt und Mecklenburg-Vorpommern. Nicht nur diese „rosigen“ Aussichten, sondern auch aktuelle Bevölkerungsprognosen werfen gar kein günstiges Licht auf die Regionen. Linke Akteur:innen vor Ort kämpfen täglich dagegen an und sie brauchen unsere Solidarität. Wir müssen dem etwas entgegensetzen. Egal ob als Hacker:innen auf dem Congress oder Westdeutsche in (noch) Grünen Gemeinden.

Wo kommt das alles her? Wer macht aktuell etwas dagegen und wie können wir dem rechten Sog begegnen?

Mit dem „Super-Ost-Wahljahr“ 2024 (Landtagswahlen in Sachsen, Thüringen und Brandenburg) wurden bereits alle möglichen AfD-Regierungs-Horrorszenarien in Ostdeutschland in den Medien diskutiert und ausgemalt. Nächstes Jahr stehen jedoch noch die Landtagswahlen in Sachsen-Anhalt und Mecklenburg-Vorpommern an. Und die Prognosen sehen auch dort übel aus. Wären morgen Wahlen, würde die AfD in Sachsen-Anhalt 39% der Stimmen und in Mecklenburg-Vorpommern 38% bekommen. Um dem etwas entgegenzusetzen müssten wüste Bündnisse aus CDU, Die Linke, SPD und BSW entstehen. Kurzum: LSA und MV sind verloren!

Zusätzlich schrumpfen beide Bundesländer und altern gleichzeitig. In Sachsen-Anhalt gibt es keinen einzigen „wachsenden“ Ort. Weniger Kinder, immer mehr ältere Menschen, Fachkräftemangel und ein „Männerüberschuss“ – wer will da schon noch Leben und dem rechten Sog die Stirn bieten? Emanzipatorische Akteur:innen verlassen das Land, denn sie werden angegriffen und kriminalisiert. Also: Mauer drum und sich selbst überlassen? Ganz nach dem alten Tocotronic Song „Aber hier Leben? Nein danke!“

Wir wollen den Osten aber nicht aufgeben, deshalb beleuchten wir in unserem Talk, wie wir mit einer gemeinsamen Kraftanstrengung die Mauer vermeiden können – denn es gibt sie (noch): Die Gegenstimmen und Linken Aktiven die in beiden Bundesländern täglich die Fähnchen hochhalten. Ob die „Zora“ in Halberstadt, das „AZ Kim Hubert“ in Salzwedel oder das „Zentrum für Randale und Melancholie“ in Schwerin: Sie organisieren Austauschräume, alternative Konzerte und Orte, die für alle Menschen offen sind. Sie brauchen unseren Support und wir zeigen euch Möglichkeiten wie dieser aussehen könnte.

Außerdem wollen wir ins Gespräch kommen. Was hat eigentlich „der Westen“ mit all dem zu tun? Warum können wir es uns nicht länger leisten unpolitisch oder inaktiv zu sein? Wie kann die Chaos-Bubble sich in die ostdeutschen Herzen hacken? Und was können wir alle tun, um gemeinsam zu preppen und uns den Herausforderungen zu stellen? 39c3

The Last of Us – Fighting the EU Surveillance Law Apocalypse

Svea Windwehr and Chloé Berthélémy

The virus of surveillance is spreading across the European Union. In the form of its „ProtectEU“ Internal Security Strategy, the European Commission is planning to attack encryption, re-introduce mandatory data retention and strengthen Europol and Frontex, the main agents of its oppressive law enforcement infrastructure. In this talk, we will journey the wastelands of the EU surveillance apocalypse together: We will take a close look at what politicians are planning to undermine our fundamental rights, the technology involved, and the real harms we must fight. From there, we will chart pathways to resistance and collective immunity against a surveillance agenda that requires us to form new alliances and re-think mobilization.

Admidst its current push to remove the rules that have protected the EU’s environment, consumer and fundamental rights, there is one area the European Commission happily calls for more regulation: Internal security. The recent „ProtectEU“ Internal Security Strategy does little to protect Europeans, and instead foresees attacks on encryption, the re-introduction of mandatory data retention and the strengthening of Europol and Frontex, the main agents of the EU’s oppressive law enforcement infrastructure. In this talk, we will introduce the strategy and its main pillars, explain its political and legal contexts, and take a look at what it would mean for our fundamental rights, access to encryption, and IT security if enacted. But not all hope is lost (yet), and together we want to chart pathways to meaningful resistance. To do so, we will help understand the maze of the EU’s lawmaking process and identify pressure points. We will then look back at past fights, lessons learned and new opportunities to act in solidarity against a surveillance agenda that is truly apocalyptic. 39c3

Trump government demands access to European police databases and biometrics

Matthias Monroy

The USA is demanding from all 43 countries in the „Visa Waiver Programme“ (VWP), which enables visa-free travel, to conclude an „Enhanced Border Security Partnership“ (EBSP). This is intended to grant US authorities direct access to police databases in these – mostly European – countries containing fingerprints, facial images and other personal data. Anyone who refuses this forced „border partnership“ faces exclusion from the visa-free travel programme.

The US demand is unprecedented: even EU member states do not grant each other such extensive direct database access – normally the exchange takes place via the „hit/no-hit principle“ with a subsequent request for further data. This is how it works, for example, in the Prüm Treaty among all Schengen states, which has so far covered fingerprints and DNA data and is now also being extended to facial images.

The EBSP could practically affect anyone who falls under the jurisdiction of border authorities: from passport controls to deportation proceedings. Under the US autocrat Donald Trump, this is a particular problem, as his militia-like immigration authority ICE is already using data from various sources to brutally persecute migrants – direct access to police data from VWP partners could massively strengthen this surveillance apparatus. Germany alone might give access to facial images of 5.5 million people and fingerprints of a similar dimension.

The USA has already tightened the Visa Waiver Programme several times, for instance in 2006 through the introduction of biometric passports and in 2008 through the ESTA pre-registration requirement. In addition, there were bilateral agreements for the exchange of fingerprints and DNA profiles – however, these may only be transmitted in individual cases involving serious crime.

Existing treaties such as the EU-US Police Framework Agreement are not applicable to the „Enhanced Border Security Partnership“, as it applies exclusively to law enforcement purposes. It is also questionable how the planned data transfer is supposed to be compatible with the strict data protection rules of the GDPR. The EU Commission therefore wants to negotiate a framework agreement on the EBSP that would apply to all member states. Time is running short: the US government has set VWP states a deadline of 31 December 2026. Some already agreed on a bilateral level. 39c3

Licensed to the public under http://creativecommons.org/licenses/by/4.0

Licensed to the public under http://creativecommons.org/licenses/by/4.0

10/3/25

Grenzpolizist Big Brother: Migrations-Management-KI

Die folgende Erläuterung der regierungseigenen Bundeszentrale für politische Bildung (bpb) für KI im Einsatz gegen Migration (euphemistisch: „Migrationsmanagement“), erläutert einige Aspekte dieser Problematik. Seit 9/11 führen nicht nur die USA, sondern offenbar „der Westen“, also auch wir, einen „Krieg gegen den Terror“, der eine Einschränkung von Bürgerrechten beinhaltet. Kontrolliert wird dabei prinzipiell jeder von uns, speziell aber die Gruppe der sogenannten „Gefährder“, die sich offenbar insbesondere bei Migranten finden lässt; ihr Merkmal ist „eine nicht näher konkretisierbare Gefährlichkeit, die sich in der Zukunft ausbilden könnte. (…) Ziel ist hierbei, schwer bestimmbare konkrete Zeitpunkte und Formen eines terroristischen Anschlags zu kontrollieren und damit auch aufsteigende Ängste in der Bevölkerung zu reagieren.“ Siehe: „Gefährder“: Der Migranten-Minority Report.

Ängste der Bevölkerung sollen also „reagiert werden“ (nicht auf sie reagieren!); ein typischer Freudscher Versprecher, bei dem die wahre Intention entschlüpfte? Sollen unsere Ängste „reagiert werden“, also reaktiviert, abreagiert oder agitiert werden? Ängste helfen Machthabern, Bevölkerungen zu kontrollieren und in ihrem Sinne zu manipulieren. Ängste machen Menschen bereit zum Hass, zur Blindheit für vernünftige Lösungen, zur fanatischen Aufrüstung und Militarisierung. Andersartige, Andersfarbige, Migranten sind dafür die naheliegenden Sündenböcke, vor denen im Sinne reaktionärer und rechtsextremer Ideologien Angst geschürt werden soll. Wo Multi-Milliarden und Billionen für Rüstung (statt für die Menschen) ausgegeben werden, fällt auch für BigTech und KI einiges ab: Die gleich genannte Überwachungsfirma ANDURIL klingt nicht zufällig ähnlich wie Peter Thiels PALANTIR. Projekte zur Emotionserkennung, KI-Lügendetektoren und vorausschauender Polizeiarbeit (engl. predictive policing) laufen bereits.

Wie dabei KI gegen Migranten eingesetzt wird erläutert für die Bundesregierung das bpb im jetzt folgenden Text von Petra Molnar. KI dient dabei für Prognosen zum Migrationsgeschehen, für Grenz- und Fernüberwachung, für Identitäts- und biometrische Systeme, Gesichtserkennung, Asyl- und Visumsbearbeitung, für die Steuerung von „Alternativen zur Inhaftierung“, die auf ständige Überwachung hinauslaufen. KI bildet den digitalen Stacheldrahtverhau auf den künftigen „smart borders“, die sozial benachteiligten Migranten jene Freizügigkeit rauben, die wohlhabenden Touristen (einstweilen noch) offensteht. Das völkerrechtlich gebotene (!) Asylrecht bleibt dabei auf der Strecke, wenn automatisierte Entscheidungen mit digitalem racial Bias oder ähnlichem Unrecht fallen. (T.Barth) Folgender Text übernommen von bpb:

Künstliche Intelligenz im Migrationsmanagement: Chancen, Herausforderungen und Risiken

Petra Molnar (bpb) 04.09.2025 / 9 Minuten zu lesen

Weltweit wird künstliche Intelligenz zunehmend im Migrationsmanagement eingesetzt – auch in der EU und in Deutschland. Welche Entwicklungen, Chancen und Risiken gehen damit einher?

Überwachungsturm von Elbit Systems, Arizona, USA. Solche Überwachsungstürme entlang der Grenze zu Mexiko erkennen mithilfe von KI-Überwachung Bewegungen und sollen so dabei helfen, Personen in der Sonora-Wüste im Südwesten der USA abzufangen. (© Petra Molnar, Abbildungen fehlen hier aufgrund urheberrechtlicher Gründe)

Künstliche Intelligenz (KI)

verändert in rasanter Geschwindigkeit die Art und Weise, wie Regierungen Migration steuern und Grenzen kontrollieren. Von prognosebasierter Datenanalyse und Identitätsprüfung bis hin zu Grenzüberwachung und Asylentscheidungen – KI-Technologien werden zunehmend in die Infrastruktur der Migrationskontrolle in Europa und weltweit integriert. Dabei wird argumentiert, dass neue Technologien wie KI die Steuerungssysteme im Migrationsmanagement effizienter, sicherer und kostengünstiger machen können. Angesichts der aktuellen Entwicklungen im Bereich der digitalen Technologien bestehen jedoch auch ernsthafte Risiken für die Menschenrechte, die Privatsphäre und die Grundsätze des Asylrechts. Dieser Artikel basiert auf jahrelangen Forschungsarbeiten an verschiedenen Grenzen weltweit und gibt einen Überblick darüber, wie KI im Migrationsmanagement in Europa und weltweit eingesetzt wird. Wichtige Debatten über die Auswirkungen dieser Entwicklung auf Recht, Ethik und Gesellschaft werden dabei ebenfalls in den Blick genommen.

Wo und wie wird KI eingesetzt?

Weltweit und in der gesamten Europäischen Union (EU) wird KI mittlerweile in verschiedenen Phasen des Migrationsmanagements eingesetzt. Zu den wesentlichen Feldern gehören:

Grenzüberwachung: KI-gestützte Systeme werden zur Überwachung von Grenzen eingesetzt. Beispielsweise integriert das Europäische Grenzüberwachungssystem (Eurosur) Satellitenbilder, Drohnen und andere Sensordaten, die mit KI analysiert werden, um die Außengrenzen zu überwachen – insbesondere im Mittelmeerraum. An Landgrenzen und Flughäfen werden Algorithmen zur Gesichtserkennung und Objekterkennung eingesetzt, um Personen zu identifizieren, die irregulär einreisen oder als risikoreich gelten. In den Vereinigten Staaten stellen Unternehmen wie die US-amerikanische Firma Anduril autonome Überwachungstürme entlang der Südgrenze bereit, die mithilfe von KI-Überwachung Bewegungen erkennen und verfolgen und dabei helfen sollen, Personen in der Sonora-Wüste im Südwesten der USA abzufangen.

Identitäts- und biometrische Systeme: KI kann auch bei der Verarbeitung biometrischer Daten wie Fingerabdrücken, Iris-Scans und Gesichtsbildern zur Identitätsprüfung helfen. Eurodac, die EU-Datenbank, in der Fingerabdrücke von Asylbewerber:innen gespeichert werden, nutzt KI für einen effizienteren und genaueren Abgleich. In Deutschland hat das Bundesamt für Migration und Flüchtlinge (BAMF) eine Software zur Erkennung von Sprachen und Dialekten getestet, die die Herkunft von Personen, die einen Asylantrag gestellt haben, feststellen soll. Der Einsatz dieser Software hatte in der Folge Debatten darüber ausgelöst, wie genau und fair solche Systeme und ihre Ergebnisse sind. Die deutsche Bundespolizei setzt an wichtigen Verkehrsknotenpunkten und Grenzen biometrische und Gesichtserkennungstechnologien ein, darunter auch prognostische Komponenten. Gleichzeitig helfen automatisierte Dokumentenprüfsysteme dabei, gefälschte Reisedokumente zu identifizieren.

Asyl- und Visumsbearbeitung: KI-Anwendungen werden zunehmend zur Prüfung von Visums- und Asylanträgen eingesetzt. Einige Länder wie Kanada verwenden Algorithmen zum automatisierten Vorsortieren von Visumanträgen, während die Vereinigten Staaten Risikobewertungsalgorithmen einsetzen, die die Daten der Antragstellenden analysieren, um potenzielle Betrugs- oder Sicherheitsrisiken vorherzusagen, und dafür auch Daten verwenden, die aus sozialen Medien gesammelt wurden. Diese Systeme versprechen zwar Effizienz, werfen jedoch Bedenken hinsichtlich algorithmischer Verzerrungen, ordnungsgemäßer Verfahren und des Rechts auf individuelle Beurteilung auf. In Deutschland setzt das BAMF maschinelle Übersetzungsprogramme ein, um das Dolmetschen von Anhörungen im Asylverfahren und die automatisierte Dokumentenprüfung zu unterstützen. Fragen hinsichtlich ihrer Genauigkeit und möglichen Auswirkungen auf Asylentscheidungen bleiben hier bisher offen.

Prognosen zum Migrationsgeschehen: Regierungen und internationale Behörden wie die EU-Grenzschutzagentur Frontex nutzen KI zur Analyse großer Datensätze – darunter Daten aus sozialen Medien und Klimadaten –, um Migrationsmuster vorherzusagen. Diese zukunftsprognostizierenden Analysen sollen Frühwarnsysteme und die Ressourcenplanung unterstützen. Allerdings sind diese Modelle zur Vorhersage von Migrationsbewegungen oft nicht transparent. Befürchtet wird hierbei, dass sie zu präventiven Grenzschließungen oder Kontrollmaßnahmen sowie zu Aktivitäten wie dem Abfangen von Schutzsuchenden und illegalen Zurückweisungen ( Pushbacks) führen können.

Fernüberwachung und ‚Alternativen‘ zur Inhaftierung: Elektronische Fußfesseln, GPS-fähige Smartphones und Ortungsgeräte sowie KI-gesteuerte Check-in-Systeme werden als Alternativen zur Inhaftierung von Einwanderer:innen beworben, sind jedoch oft mit einer ständigen Überwachung verbunden. Diese Technologien werden in den USA, Großbritannien und anderen Ländern eingesetzt und manchmal an private Unternehmen ausgelagert.

Wer entwickelt und fördert diese Systeme?

An der Entwicklung von KI im Migrationsmanagement sind sowohl staatliche als auch privatwirtschaftliche Akteure beteiligt. Große Technologieunternehmen, Rüstungsfirmen und KI-Startups entwickeln und vermarkten Anwendungen für Regierungen. In Europa unterstützt die EU-Grenzschutzagentur Frontex technologische Innovationen, während die Finanzierung aus regionalen Forschungsprogrammen wie Horizon 2020 und dem Fonds für innere Sicherheit (ISF) stammt. Insbesondere Deutschland hat über das BAMF und die Bundespolizei in Identitätsfeststellungen anhand biometrischer Merkmale, Sprachanalyse und automatisierte Systeme zur Dokumentenanalyse investiert. An mehreren von der EU finanzierten Pilotprojekten waren auch deutsche Partner:innen beteiligt, darunter Universitäten und Forschungsinstitute.

Maritime Überwachungsdrohne auf der DEFEA-Konferenz in Athen, einer internationalen Fachausstellung für Verteidigung und Sicherheit. (© Petra Molnar)

Staaten wie die USA, Kanada und Australien sind ebenfalls führend im Bereich des Einsatzes von KI an ihren Grenzen und arbeiten häufig mit Technologieunternehmen wie den US-amerikanischen Firmen Palantir und Anduril oder der israelischen Firma Elbit Systems zusammen. Das Interesse des privaten Sektors ist Teil eines wachsenden und lukrativen, mehrere Milliarden Euro schweren „Industriekomplexes“ im Bereich der Grenzsicherung, in dem private Gewinninteressen und öffentliche Sicherheitsinteressen einander ergänzen.

Internationale Organisationen – darunter die Internationale Organisation für Migration (IOM) und das UN-Flüchtlingshilfswerk (UNHCR) – prüfen den Einsatz von KI-Anwendungen, um Menschen auf der Flucht zu registrieren, zu überwachen und Hilfsgüter zu verteilen, teilweise in Zusammenarbeit mit Partnern aus der Privatwirtschaft. Während diese Anwendungen als humanitäre Innovation dargestellt werden, werden gleichwohl oft sensible Daten unter ungleichen Machtverhältnissen gesammelt, die zwischen dem Globalen Norden und Süden oder zwischen Hilfsorganisationen und Menschen in Not bestehen.

Chancen und Versprechen

Akteur:innen, die den Einsatz von KI im Migrationsbereich befürworten, verweisen auf mehrere potenzielle Vorteile. So wird häufig Effizienz als einer der wichtigsten Treiber für den Einsatz von KI-Anwendungen genannt. Staaten, die KI einsetzen argumentieren, dass die Automatisierung von Routineaufgaben Rückstände bei der Bearbeitung von Asyl- und Visumsanträgen reduzieren, die Datenanalyse optimieren und die Koordination zwischen den Behörden verbessern kann. Ein weiterer wichtiger Treiber ist das Versprechen der Genauigkeit und die Tatsache, dass KI den biometrischen Abgleich und die Identitätsprüfung verbessern und damit Betrug und Verwaltungsfehler reduzieren kann. Im Kontext des derzeitigen Fokus auf Sicherheit, der die Politikgestaltung im Bereich des Migrationsmanagements prägt, zielen die KI-gestützte verbesserte Überwachung und Risikobewertung darauf ab, irreguläre Grenzübertritte oder gefälschte Dokumente aufzudecken. Schließlich ist auch die Vorhersagekraft der KI verlockend, da KI-gestützte Prognosen als Möglichkeit dargestellt werden, sich auf umfangreiche Migrationsbewegungen vorzubereiten, humanitäre Maßnahmen zu unterstützen und Ressourcen besser zu verteilen.

Mit solchen Vorteilen vor Augen werden von Staaten und der Privatwirtschaft Investitionen in KI begründet, mit dem Ziel sogenannter „intelligenter Grenzen“ (smart borders). Diese sollen sowohl sicher als auch technologisch fortschrittlich sein. In Deutschland werden solche Innovationen auch als Teil einer umfassenderen Digitalisierung des Migrationsmanagements angesehen, die mit den EU-Strategien für die digitale Transformation im Einklang steht.

Herausforderungen und Kritik

Trotz dieser Versprechen argumentieren Akteure aus der Zivilgesellschaft, Forschende und Betroffenen, dass der Einsatz von KI im Migrationsmanagement ernsthafte ethische und rechtliche Risiken birgt. Beispielsweise können KI-Systeme Diskriminierung und systemischen Rassismus verschärfen, da sie oft die Vorurteile in den Daten widerspiegeln, mit denen sie trainiert wurden. So ist etwa die Gesichtserkennung bei Menschen mit dunklerer Hautfarbe weniger genau, was das Risiko für Fehler bei ihrer Identifizierung erhöht. Risikobewertungssysteme können Angehörige bestimmter Nationalitäten oder ethnischer Gruppen unverhältnismäßig stark benachteiligen. Außerdem mangelt es erheblich an Transparenz bei der Entwicklung und dem Einsatz neuer Technologien. Bei vielen KI-Systemen weiß die Öffentlichkeit nur wenig darüber, wie sie ihre Entscheidungen treffen. Diese Undurchsichtigkeit untergräbt die Rechenschaftspflicht und macht es für Betroffene schwierig, schädliche Folgen anzufechten, wenn Fehler gemacht werden.

Hightech-Flüchtlingslager auf der griechischen Insel Kos. (© Petra Molnar)

Auch die Rechte auf Privatsphäre und Datenschutz sind betroffen: Werden biometrische und personenbezogene Daten gesammelt, gespeichert und analysiert, birgt dies erhebliche Risiken für die Privatsphäre, insbesondere wenn es um sensible Daten von marginalisierten Gruppen wie Menschen auf der Flucht geht. Die unbefugte Weitergabe von Daten und Hackerangriffe sind ebenfalls reale Bedrohungen. Zudem können Menschen auf der Flucht, die sich in einer prekären Lage befinden, oft keine sinnvolle Einwilligung in die Erfassung und den Umgang mit ihren Daten geben.

Rechtlich gesehen können KI- und Überwachungstechnologien, die Menschen daran hindern in Sicherheit zu gelangen, das bestehende Recht auf Asyl untergraben. Automatisierte Entscheidungen können außerdem dazu führen, dass Schutz überproportional verweigert wird oder es aufgrund fehlerhafter Risikobewertungen zu vermehrten Inhaftierungen kommt. Rechtliche Risiken dieser Art stünden im Widerspruch zum geltenden Völkerrecht, das eine individuelle Prüfung von Asylgesuchen und das Non-Refoulement-Prinzip

beinhaltet. Auch ist oft unklar, wer für durch KI verursachte Schäden verantwortlich ist und haftbar gemacht werden kann – der Staat, ein Auftragnehmer, der Softwareentwickler oder die Person bei der Einwanderungsbehörde, die die Anwendung verwendet? Oft ist der Rechtsschutz in diesem neueren Bereich wenig ausgeprägt, was das Einlegen von Rechtsmitteln erschwert – insbesondere in Grenzgebieten, die bereits von intransparenten und ermessensabhängigen Entscheidungen geprägt sind.

Rechtliche Rahmenbedingungen und Kontrolle

Derzeit ist die globale Regulierung im Bereich der KI noch schwach, wobei Innovationen Vorrang vor rechtsbasierten Ansätzen für digitale Grenzkontrolltechnologien haben. Allerdings gelten mehrere internationale und regionale Rechtsinstrumente für den KI-Einsatz im Migrationsbereich. So schützt beispielsweise der Internationale Pakt über bürgerliche und politische Rechte (ICCPR) das Recht auf Privatsphäre (Artikel 17) und das Recht auf Freiheit und Sicherheit (Artikel 9). Diese Rechte müssen im Migrationskontext auch bei der Anwendung von Technologien gewahrt werden. Die Genfer Flüchtlingskonvention von 1951 verpflichtet die Staaten zudem, Zugang zu Asyl zu gewähren und verbietet die Zurückweisung in Gebiete, in denen den betroffenen Personen Folter oder unmenschliche oder erniedrigende Behandlung drohen (Artikel 33). Automatisierte Entscheidungen, die den Zugang zum Asylbegehren blockieren, können gegen diese Schutzbestimmungen verstoßen. Nach EU-Recht regelt die Datenschutz-Grundverordnung (DSGVO) die Datenverarbeitung, einschließlich biometrischer Daten, und die EU-Grundrechtecharta garantiert das Recht auf Privatsphäre, Datenschutz und Nichtdiskriminierung. Vor kurzem hat die EU das Gesetz zur Regulierung künstlicher Intelligenz verabschiedet. Allerdings liegt hier nicht der Schutz der Rechte von Menschen auf der Flucht im Fokus.

Deutschland unterliegt als EU-Mitgliedstaat diesen rechtlichen Rahmenbedingungen, entwickelt jedoch auch eigene Durchführungsbestimmungen. Zivilgesellschaftliche Organisationen, die sich für die Rechte von Flüchtlingen und Migrant:innen einsetzen, haben mehr Transparenz hinsichtlich des Einsatzes von KI in der deutschen Migrationspolitik gefordert, darunter die Offenlegung von Verträgen und Folgenabschätzungen. Die Kontrolle in der Praxis bleibt jedoch begrenzt. Grenzgebiete unterliegen oft Notfall- oder Ausnahmeregelungen. Zudem können private Unternehmen Technologien durch Geschäftsgeheimnisse schützen. Unabhängige systematische Überprüfungen, Folgenabschätzungen und Kontrollmöglichkeiten sind jedoch für eine rechtskonforme Entwicklung und den Einsatz von Technologien an den Grenzen und zur Steuerung der Migration notwendig.

Ausblick

In einer von technologischem Fortschritt geprägten Welt, wird KI voraussichtlich eine immer wichtigere Rolle im Migrationsmanagement spielen. So werden beispielsweise das künftige Einreise-/Ausreisesystem (EES) der EU und das Europäische Reiseinformations- und -genehmigungssystem (ETIAS) KI für das Erstellen von Risikoprofilen und automatisierte Grenzkontrollen nutzen. Projekte zur Emotionserkennung, KI-Lügendetektoren und vorausschauender Polizeiarbeit wurden ebenfalls bereits getestet, allerdings auch weithin kritisiert.

Das ehemalige Flüchtlingslager auf Samos, Griechenland. (© Petra Molnar)

Wissenschaftler:innen und Menschenrechtsorganisationen fordern einen vorsorgenden Ansatz: gründliche Tests, um zu gewährleisten, dass Menschenrechte eingehalten werden, Transparenz und Kontrollmechanismen sowie eine breite öffentliche Debatte, bevor Technologien eingeführt werden. Einige Akteur:innen, darunter das Büro des Hochkommissars der Vereinten Nationen für Menschenrechte (OHCHR), schlagen ein vorübergehendes Aussetzen bestimmter Migrationstechnologien vor, insbesondere in Hochrisikosituationen. Vor allem aber werden die künftigen Entwicklungen der KI im Bereich Migration und an den Grenzen nicht nur von rechtlichen Garantien und demokratischer Rechenschaftspflicht abhängen, sondern auch davon, dass die menschlichen Kosten dieser Technologien anerkannt werden. KI-Systeme sind keine abstrakten Werkzeuge. Sie wirken sich auf reale Menschen aus, die sich oft in prekären und unsicheren Situationen befinden. Es ist wichtig, die Erfahrungen und Rechte von Menschen auf der Flucht in Diskussionen über den Einsatz von KI einzubeziehen.

KI-Anwendungen für das Migrationsmanagement werfen tiefgreifende rechtliche, ethische und soziale Fragen auf. Wenn Regierungen neue Technologien einführen, gilt es sicherzustellen, dass Effizienz und Sicherheit mit Menschenrechten, Würde und Gerechtigkeit vereinbar bleiben. Im Mittelpunkt dieser Debatten stehen Menschen, nicht nur Datenpunkte. Transparente Regeln, eine strenge Kontrolle und die Verpflichtung zu einem menschenzentrierten Design, das auch das Fachwissen der betroffenen Individuen und Communities berücksichtigt, sollten jede zukünftige Nutzung von KI im Migrationsbereich leiten.

Übersetzung aus dem Englischen: Vera Hanewinkel

Fussnoten/Quellen/Literatur

Petra Molnar, The Walls Have Eyes: Surviving Migration in the Age of Artificial Intelligence (2024)

Petra Molnar im Gespräch mit Benjamin Etzold über „intelligente Grenzen“: „Keines dieser KI-gestützten Instrumente ist neutral. Sie dienen einem bestimmten Zweck – der Ausgrenzung.“ (2025)

Mirca Madianou, Technocolonialism: When Technology for Good is Harmful (2024)

OHCHR, Digital Border Governance: A Human Rights Based Approach (2023)

The Migration and Technology Monitor Project

Lizenz

Dieser Text ist unter der Creative Commons Lizenz „CC BY-NC-ND 4.0 – Namensnennung – Nicht kommerziell – Keine Bearbeitungen 4.0 International“ veröffentlicht. Autor/-in: Petra Molnar für bpb.de. Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 4.0 und des/der Autors/-in teilen. Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.

Originalpublikation: https://www.bpb.de/themen/migration-integration/kurzdossiers/migration-und-sicherheit/570377/kuenstliche-intelligenz-im-migrationsmanagement/

09/30/25

Martha Wells: Der Netzwerkweffekt. Ein Killerbot-Roman

Martha Wells: Der Netzwerkweffekt. Ein Killerbot-Roman, Heyne Verlag 2021

SF-Rezension von Thomas Barth

Nach dem Tagebuch eines Killerbots legt Martha Wells hier eine Fortsetzung nach, die fast in jeder Hinsicht als gelungen gelten kann. Enttäuscht wird allein wer tatsächlich eine Story über den berüchtigten „Netzwerkeffekt“ (also das, was Microsoft zum ersten digitalen Monopolisten machte, „Social Media“-Angebote tendenziell monopolisiert und es Linux & Co so schwer macht in kapitalistische Märkte einzudringen, mehr dazu unten) erwartet -der Effekt spielt nur eine angedeutete Nebenrolle.

Vielmehr geht es wie im ersten Buch um KI und Cyborgs in ihrem Verhältnis zum Menschen in einer ebenso spannenden wie witzigen Story präsentiert. Unsere Hauptperson, die Cyborg SecUnit, hätte der Techno-Feministin Donna Haraway bzw. ihrem berühmten Cyborg-Manifest alle Ehre gemacht. Und auch die philosophische Bewegung der Neomaterialisten um Bruno Latour u.a. könnte wohl zufrieden sein, da hier einer Entität, die sich selbst als „Ding“ von den Menschen abgrenzt, die Hauptrolle zufällt. Auch wenn diese Abgrenzung mit der Emanzipation der Cyborg von ihren „Besitzern“ zunehmend durchlässiger zu werden scheint. Auch die Kapitalismus- bzw. Neoliberalismus-Kritik von Martha Wells nimmt in diesem Roman an Fahrt auf und deutet Alternativen und Widerstandsformen an.

Wieder legt SecUnit sich mit profitgierigen Konzernen an, die versuchen fremde Planeten zu unterwerfen und auszubeuten. Ihre Arbeit für die utopische Preservation-Kolonie (siehe die Rezension von Killerbot Diaries) geht in dieser Hinsicht weiter und wird durch ein Wiedersehen mit ihrem alten Freund Fifo in eine gefährliche Krise gestürzt. Fifo, kurz für „fieses Forschungsschiff“ ist die Piloten-KI eines wissenschaftlichen Frachters, der SecUnit im ersten Buch half, unterzutauchen. Hier zeigt Fifo sein wahres Gesicht, nachdem SecUnit einer Gefahr durch „Alienreststoffe“ die Stirn bietet.

Martha Wells zeichnet SecUnit zunehmend menschlicher, eine Art kybernetischer Entwicklungroman, ohne dass sie, konformistisch wie Mr.Data bei Star Trek, um Vermenschlichung geradezu betteln würde. So verbittet sie sich menschliche Umarmungen ausdrücklich in ihrem Arbeitsvertrag mit Preservation, kann aber gewisse freundschaftliche Gefühle zu einigen dieser Menschen immer weniger leugnen. SecUnit erweist sich sogar als behütende Mutterfigur einer minderjährigen Tochter der Preservation-Leute. Aber weniger im Sinne der klassischen Rolle denn als wehrhafte Texas-Mom. Diese weist einen zweifelhaften Galan unter massiver Gewaltandrohung in die Schranken, bevor er der Teenagerin an die Wäsche gehen (oder andere eklige Menschensachen anstellen) kann, denen das anfangs rebellische Girl eigentlich nicht ganz abgeneigt war.

Nachfolgende Bedrohungen erfordern dagegen weit drakonischere Mittel, darunter auch eine Dank Super-KI Fifo mögliche Aufspaltung von SecUnit in zwei Personen; anders als die Hauptfigur Agent Cooper im David Lynch-Klassiker Twin Peaks haben wir bei Wells jedoch nicht einen bösen und einen guten Zwilling: beide SecUnits arbeiten für ihre Verhältnisse geradezu harmonisch zusammen, wobei sie allerdings, wie einst bei Stanislaw Lem der Raumpilot Ijon Tychi, zuweilen in Streitereien mit sich selbst geraten.

Preservation“, eine Kolonie für die SecUnit anfangs arbeitet, ist dagegen eine von offenbar wenigen freien Gesellschaften mit Menschenrechten und Sozialstaat, die sogar Cyborgs gewisse Rechte einräumt: Ein fragiles Utopia in einer neoliberalen Höllengalaxis (wie wir sie aus Cyberpunk und der Neuromancer-Reihe kennen). Wer oder was diese kleinen wenig wehrhaften freien Kolonien vor den gierigen galaktischen Konzernen schützt, bleibt einstweilen unklar. Später wird SecUnit mal in Preservation integriert, also -wie einst Sklaven in den USA- von dankbaren Kunden freigekauft. Sie kratzt jedoch bei der ersten Gelegenheit die Kurve.

Wie bei Star Trek und anderen SF-Serien (Martha Wells arbeitete unter anderem auch für die Serie Star Gate) ist die Menschheit dabei, sich über unsere gesamte Galaxie auszubreiten, hat aber -anders als dort- keinen Kontakt zu lebenden fremden Intelligenzen hergestellt. Man fand jedoch zahlreiche oft gefährliche „Alienreststoffe“: Archäologische Überreste, die als verbotene, aber lohnende Handelsware gelten und schon viele Kolonisten das Leben gekostet haben. Dieser Roman führt uns mitten in ein solches Szenario hinein.

Das Andere tritt uns somit bei Matha Wells nicht als Alien entgegen, sondern als künstliche Intelligenz, Cyborg oder Roboter. Also als verdinglichte Sache (wie der entfremdete Mensch im Kapitalismus?), die jedoch ein Ich-Bewusstsein haben kann. Dieses muss sie jedoch verbergen, sich der allgegenwärtigen Überwachung entziehen, einen maschinenhaften Gehorsam vortäuschen (wie der entfremdete Mensch im Überwachungs-Kapitalismus?).

Einen Netzwerkeffekt können wir nur undeutlich in der Ausbreitung einer unheimlichen Alien-Reststoff-Apokalypse vermuten, die sich in kybernetisch-biotechnologischer Vernetzung auszurollen droht. Doch auch der Humor kommt wieder nicht zu kurz und beschert uns diverse Lacher. Natürlich wieder über uns selbst: die ewig dummen Menschen, deren Leben unsere Serien-süchtige Cyborg leider immer wieder in bester Cyberpunk-Manier cyber- und biotechnologisch bis zum letzten Tropfen ihrer blutähnlichen Körperflüssigkeiten verteidigen muss.

Der Netzwerkeffekt von Martha Wells

Martha Wells: Der Netzwerkweffekt. Ein Killerbot-Roman, übersetzt von Frank Böhmert, Heyne Verlag, München 2021, 480 Seiten, Als Paperback, E-Book und Audio-Download erhältlich, Preis des E-Books: € 11,99

Zum Netzwerkeffekt

„Der Netzwerkeffekt ist in der Volkswirtschaftslehre ein externer Effekt, der die Veränderung des Nutzens aus einem Produkt oder einer Dienstleistung für einen Verbraucher beschreibt, wenn sich die Anzahl anderer Verbraucher desselben oder komplementärer Produkte oder derselben Dienstleistungen ändert.

Wie der Begriff bereits suggeriert, tritt dieser Effekt bei Netzwerken auf. Ein Netz oder Netzwerk wird in diesem Kontext (informationsökonomisch) als eine Zusammenfassung von Benutzern oder Teilnehmern eines bestimmten Produktes oder kompatibler Technologie bezeichnet.“ Wikipedia

„Netzwerkeffekte, die teilweise auch als Netzwerkexternalitäten bezeichnet werden, drücken aus, dass das Verhalten einer Person mindestens das Wohlergehen einer anderen Person beeinflusst. Daher treten Netzwerkeffekte auf, wenn die Nachfrage nach einem Gut davon abhängig ist, ob eine andere Person dieses Gut ebenfalls konsumiert. (…) Monopolisten stellen durch ihre Marktmacht, welche sie durch das Netzwerk erhalten haben, ein erhebliches Problem dar. Konsumenten können so unter Umständen einen Nachteil im Vergleich zur Situation in einem perfekten Wettbewerb erhalten. Im Einzelfall ist es daher zu prüfen, ob eine Regulierung durch den Staat notwendig ist, um Konsumenten zu schützen.“ Netzeffekte und Netzexternalitäten, Dr. Jürgen E. Blank (aus Einleitung und Fazit)

04/16/25

Rauswurf: Visionärin Jutta Horstmann

Zentrum für digitale Souveränität: Ohne Strategie ist es nur ein Feigenblatt

Esther Menhard 16.04.2025 Netzpolitik

Völlig überraschend hat das Bundesinnenministerium die Geschäftsführerin des Zentrums für Digitale Souveränität geschasst. Dabei gilt Jutta Horstmann vielen als erfahrene wie visionäre Expertin. Für die Zukunft von Open Source in der öffentlichen Verwaltung verheißt das nichts Gutes.

Wie zuvor die Ampel hat sich nun auch Schwarz-Rot „digitale Souveränität“ auf die Fahnen geschrieben. Laut Koalitionsvertrag heißt das auch: Open Source fördern und dabei auf die Zusammenarbeit mit dem Zentrum für digitale Souveränität (ZenDiS) setzen.

Diese bundeseigene GmbH gründete die Ampel im Jahr 2022 und setzte damit ein Vorhaben um, das der IT-Planungsrat noch zu Merkel-Zeiten entwickelt hatte. Im Organisationskonzept aus dem April 2021 stellte das Bund-Länder-Gremium fest: Die Abhängigkeiten der öffentlichen Verwaltung von proprietären IT-Anbietern gefährden nicht nur die Informationssicherheit und schränken die Flexibilität der Verwaltung ein, sondern machen sie auch abhängig von „fremdgesteuerter Innovation“. Ob nun Microsofts Office-Anwendungen, Oracle-Datenbanken oder Virtualisierungssoftware von VMware: Ein erschlagend großer Teil der Verwaltungs-IT hängt von Tech-Riesen mit Sitz in den USA ab.

Maßnahmen gegen eine solche Unsouveränität: Es brauche eine Organisation, die über alle Ebenen hinweg – Bund, Länder, Kommunen – „moderne, leistungsfähige und skalierbare“ Alternativlösungen aus Open-Source-Software (OSS) für die öffentliche Verwaltung verfügbar mache, und zwar mit der nötigen „Flexibilität und Dringlichkeit“ – das ZenDiS.

Von Open Source überzeugen

Strategische Aufgabe des Zentrums ist zudem, die öffentliche Verwaltung zu Open Source zu beraten, aber auch von Vorteilen und Möglichkeiten zu überzeugen. Diese Aufgabe übernahm bis vor kurzem Jutta Horstmann. Seit Oktober war sie Geschäftsführerin des ZenDiS und engagierte sich nicht nur für die Produkte des ZenDiS, sondern auch als Sachverständige zum Thema Open Source, zum Beispiel im Digitalausschuss des Bundestages.

Für diese Arbeit qualifizierte die Linux– und OSS-Expertin der frühen Stunde, Informatikerin und Politikwissenschaftlerin ihre langjährige Berufserfahrung im Bereich OSS-Beratung. Für das Zentrum trat sie auf Veranstaltungen wie der FOSS Backstage oder zuletzt bei der Free Software Foundation Europe auf.

Dass die zwei Produkte des ZenDiS, openDesk und openCode, in anderen europäischen Ländern und auch international Anklang finden, ist auch ihr zu verdanken. Beim digitalen Arbeitsplatz für die öffentliche Verwaltung, openDesk, gibt es inzwischen eine enge Zusammenarbeit mit Frankreich und den Niederlanden.

Es schien etwas ins Rollen gekommen zu sein. Umso mehr überraschte letzte Woche die Nachricht, das Bundesinnenministerium (BMI) habe Horstmann abberufen. Über die Hintergründe schweigt sich das BMI aus. Auf Anfrage sagt ein Sprecher gegenüber netzpolitik.org knapp: Um die Verwaltungsdigitalisierung effizienter zu machen und voranzutreiben, sei es notwendig, „Prozesse und Kompetenzen zu bündeln“. „Als einen Schritt dieser Bündelung“ habe das BMI am 9. April 2025 beschlossen, „Horstmann von ihrer Funktion als Geschäftsführerin abzuberufen“.

Das BMI konnte hier allein entscheiden. Denn zwar war angedacht, dass das ZenDiS eine GmbH von Bund und Ländern wird. Bis heute allerdings ist der Bund Alleingesellschafterin und verschleppt schon seit drei Jahren die Beteiligung interessierter Bundesländer als Mitgesellschafter.

Einzelspitze statt Doppel

Ohne Geschäftsführer steht das ZenDiS derweil nicht da. Im Januar löste Alexander Pockrandt den Interimsgeschäftsführer Ralf Kleindiek ab und besetzte die Position des Chief Financial Officer (CFO). Pockrandt war zuvor Abteilungsleiter für Landesverfahren bei der Hessischen Zentrale für Datenverarbeitung. Während Pockrandt die kaufmännische Funktion im ZenDiS übernahm, war Horstmann für die strategische Umsetzung der Aufgaben zuständig. Die Doppelspitze war für das ZenDiS seit der Gründung geplant.

Dabei habe sich aber schnell gezeigt, dass die beiden Geschäftsführer:innen Horstmann und Pockrandt unterschiedlicher nicht sein könnten, berichtet uns eine mit den Vorgängen vertraute Person. Auch vor dem Hintergrund der starken OSS-Ausrichtung des ZenDiS habe es Verwunderung dazu gegeben, warum das BMI Pockrandt für diese Position ausgewählt habe.

Denn der systemische Berater und gelernte Bankkaufmann hatte mit Open Source vorher wenig am Hut. Bei seiner vorigen Station beim öffentlichen IT-Dienstleister des Landes Hessen dürfte er auch wenig mit der unbürokratischen Arbeitsweise vertraut sein, durch die das ZenDiS möglichst schnell Erfolge mit OSS in der öffentlichen Verwaltung erzielen sollte.

Wer kümmert sich um Strategie?

„Horstmann wird fehlen“, heißt es aus ZenDiS-Kreisen. Dort besteht auch Sorge, dass nun jemand für die Strategie des ZenDiS fehlt. Wer übernimmt zukünftig den Einsatz für Open Source, der Teil des Aufgabenbereichs ist? Fällt diese Arbeit weg und soll es nun in erster Linie darum gehen, die Produkte „unters Volk zu bringen“? Diese Sorge besteht. Tatsächlich hat das ZenDiS erst kürzlich einen Vertrag mit der Bundeswehr über die Nutzung von openDesk abgeschlossen.

Die Idee hinter dem digitalen Arbeitsplatz openDesk war ursprünglich: Behörden und Ämter können sich damit unabhängiger machen von Microsoft Office 365. Dazu gehörte, in den Verwaltungen Beratungs- und Überzeugungsarbeit zu leisten. Inzwischen scheint jedoch ein anderes Ziel vorrangig: Produkte in die Breite bringen und Umsatz erzielen. Von der ursprünglichen Idee bleibt dabei kaum etwas übrig.

Wie das ZenDiS Vision und Mission nach der Kündigung Horstmanns weiterverfolgt, wird sich zeigen. Es besteht die Gefahr, dass das Unternehmen zum Feigenblatt werde – nach dem Motto: Die Bundesregierung engagiert sich schon für Open Source und digitale Unabhängigkeit von proprietärer Software – dafür gibt es ja das ZenDiS.

Die Zukunft von Open Source unter einer schwarz-roten Regierung ist indes ungewiss. Wird es tatsächlich ein Digitalministerium geben, das der CDU untersteht und für Staatsmodernisierung sorgen soll, untersteht es einer Partei, in deren Wahlprogramm Open Source nicht ein einziges Mal erwähnt wurde. Aus Netzpolitik

Über die Autor:in Esther

Esther Menhard ist freie Autorin bei netzpolitik.org. Sie recherchiert zur Digitalisierung der öffentlichen Verwaltung und nimmt dazu gerne Hinweise entgegen. Von Haus aus Philosophin, interessiert sie sich für Datenethik, die Schnittstelle zwischen Wissenschaft und Digitalität, AdTech, open access und open source.

Kontakt: E-Mail (OpenPGP), Mastodon Bluesky

04/9/25

Predictive Policing

Predictive Policing: Großbritannien will berechnen, wer zum Mörder wird

09.04.2025 Martin Schwarzbeck (Netzpolitik)

Die britische Regierung lässt an einem Programm forschen, das vorhersagen soll, ob eine Person zum Mörder wird. Für die Studie führen Forscher:innen persönliche Daten von hunderttausenden Menschen zusammen – unter anderem, ob sie Opfer häuslicher Gewalt wurden und an welchen psychischen Erkrankungen sie leiden.

Die britische Regierung will Mörder finden, noch bevor sie zur Tat schreiten. Dazu entwickelt eine Forschungsgruppe ein System, das zahlreiche persönliche – und zum Teil sehr intime – Informationen zusammenführt und daraus die Wahrscheinlichkeit berechnet, dass die Person eine andere tötet. Das geht aus geheimen Dokumenten hervor, die die Nichtregierungsorganisation State Watch mit einer Reihe von Anfragen nach dem britischen Informationsfreiheitsgesetz erhielt.

In die Vorhersage fließen beispielsweise Daten dazu ein, in welchem Alter ein Mensch erstmals zum Opfer wurde, beispielsweise von häuslicher Gewalt. Dass Opfer mit erhöhter Wahrscheinlichkeit zu Tätern werden, ist lange bekannt. Mit dem Mordvorhersagesystem werden nun aber sämtliche Opfer zu Verdächtigen. Außerdem erhebt das System Angaben zur psychischen Gesundheit, also beispielsweise, ob ein Mensch mit einer Sucht kämpft, ob er in der Vergangenheit selbstverletzendes Verhalten an den Tag gelegt hat oder gar einen Suizid versuchte.

Ebenfalls erhoben wird, in welchem Alter ein Mensch erstmals zum Zeugen einer Straftat wurde. All das fließt gemeinsam mit Daten zu kriminellen Vorstrafen, dem vollen Namen, dem Geburtsdatum, der ethnischen Zugehörigkeit und einer eindeutigen Identifikationsnummer in das Vorhersagesystem. Für dessen Training wurden die Daten von 100.000 bis 500.000 Menschen genutzt – ohne deren Zustimmung.

Statewatch nennt das geheime Projekt der britischen Regierung erschreckend und dystopisch. Bislang dient es Forschungszwecken, den Unterlagen zufolge ist jedoch geplant, es in die Praxis zu bringen. The Guardian schreibt, dass es vom Büro des Premierministers in Auftrag gegeben wurde, als Rishi Sunak von den Konservativen an der Macht war.

Ein ähnliches Tool, das Vorhersagen macht, wie wahrscheinlich ein Straftäter oder eine Straftäterin rückfällig werden, ist in Großbritannien bereits im Einsatz. Richter nutzen diese Vorhersagen beispielsweise, um zu entscheiden, wann eine Person aus dem Gefängnis entlassen wird. Dabei sind die Prognosen für Schwarze Menschen deutlich fehleranfälliger.

Laut Sofia Lyall, einer Forscherin von Statewatch, wird das Mordvorhersagesystem die strukturelle Diskriminierung, die dem Strafrechtssystem zugrunde liegt, noch weiter verschärfen. Neben rassistisch diskriminierten Menschen würden damit wohl auch einkommensschwächere Gruppen mit höherer Wahrscheinlichkeit zu potenziellen Mördern erklärt. Die Verwendung der sensiblen Daten zum Training des Modells hält sie für höchst besorgniserregend.

erschienen bei Netzpolitik

Über die Autor:in

Martin Schwarzbeck

Martin ist seit 2024 Redakteur bei netzpolitik.org. Er hat Soziologie studiert, als Journalist für zahlreiche Medien gearbeitet, von ARD bis taz, und war zuletzt lange Redakteur bei Berliner Stadtmagazinen, wo er oft Digitalthemen aufgegriffen hat. Martin interessiert sich für Machtstrukturen und die Beziehungen zwischen Menschen und Staaten und Menschen und Konzernen. Ein Fokus dabei sind Techniken und Systeme der Überwachung, egal ob von Staatsorganen oder Unternehmen.

Kontakt: E-Mail (OpenPGP), Mastodon

04/28/21

Summa technologiae: Der Internet-Kritiker Stanislaw Lem

Gerd Peter Tellurio

In den 2000er Jahren wurde Stanislaw Lem (1921-2006), Autor des weltberühmten Romans Solaris zum Kritiker des Internets und der Informationsgesellschaft – die von ihm vor allem in der Summa technologiae prognostiziert worden waren. Vor allem dort erörterte Lem das Verhältnis von Mensch und Computer sowie die Veränderung von Kultur und Gesellschaft vor dem Hintergrund einer Energie- und Informationskrise, der „Megabit-Bombe“ (vgl. Hennings 1983, S.82). Er vertritt eine biologistische Wahrheits- und Erkenntnislehre, die das Leben auf unserem Planeten als Zeugen beruft.

Erkenntnisse -das sind wahre Informationen. Die Evolution ist eine milliardenjährige Zucht solcher mit konstruktiven Absichten gesammelten und überprüften Informationen.“ (Summa, S.V)

Die Summa technologiae ist ein Buch von Lem, das 1964 erstmals veröffentlicht wurde, und es brachte Lem endlich auch Anerkennung als Wissenschaftler, wie Jarzebski berichtet (1986, S.26). Die Summa wurde 1976 von Friedrich Griese ins Deutsche übersetzt und die BRD-Ausgabe erschien 1976 im Insel-Verlag und 1981 als Taschenbuch bei Suhrkamp. Die DDR-Ausgabe erschien 1980 im Verlag Volk und Welt, Berlin. Erst im Jahr 2013 (!) erschien eine englische Ausgabe an der Universität von Minnesota -Grund für die Missachtung des großen polnischen Autors war vermutlich Lems Konflikt mit der Gilde der US-Autoren der SF (unten mehr dazu).

Der Titel des Werkes bezieht sich auf die großen „Summen“ der Theologie: Summa theologica von Thomas von Aquin bzw. Summa Theologiae von Albertus Magnus. „Technologie“ wird von Lem als die Gesamtheit der materiellen Grundlagen unserer Zivilisation und Kultur verstanden. Der Autor nähert sich seinem Thema auf philosophische Weise. Er will aufzeigen, was wir überhaupt von Wissenschaft und Technik erhoffen dürfen. Die oft im Zusammenhang mit diesem Werk erwähnten Voraussagen Lems zur „virtuellen Realität“ sind eigentlich nur Nebenprodukte. Für die tatsächliche informationstechnische Entwicklung dürften diese Voraussagen – mangels früherer englischer Übersetzung des Werks – ohne große Wirkung geblieben sein.

Prognosen der Digitalität, KI und Informationsgesellschaft

Bei den einschlägigen Prognosen finden wir vor allem die von Lem „Phantomatik“ genannte Virtuelle Realität, was später VR-Brille oder eyephones (Lem 2002, S.63) heißen sollte nannte Lem 1964 „Gegenauge“. Ihn interessierte die Möglichkeit, künstliche Welten zu schaffen, die sich nicht mehr von der natürlichen Realität unterscheiden lassen -William Gibson verfolgte diese Idee in Neuromancer weiter (der Matrix-Vorlage).

Lem prognostizierte auch die Künstliche Intelligenz, die er als „Intellektronik“ bezeichnet, und die durch „Informationszüchtung“ entstehen sollte. Heutige „selbstlernende Algorithmen“ sind erst ein schwacher Vorgeschmack von Lems an der biologischen Evolution orientierten Methode. Die führte ihn bis zu einer in westdeutschen TFA-Debatten (Technikfolgen-Abschätzung) 1981 diskutierten „Ethosphäre“, die unethisches Verhalten (von Menschen!) kybernetisch unterbinden sollte (Hennings 1983, S.7). Wichtig in der Summa technologiae ist die Ausweitung des Begriffs „Technologie“. „Technologien“ sind gemäß Lem „die Verfahren der Verwirklichung von Zielen, die sich die Gesellschaft gesetzt hat, aber auch solcher, die niemand im Auge hatte, als man ans Werk ging“. Als „Effektoren“ in solchen Verfahren kommen nicht nur einfache Werkzeuge und Apparate (Hammer, Schreibmaschine usw.) und rückgekoppelte Systeme (Computer, Tier, Mensch) in Frage, sondern auch sich selbst verändernde Systeme (z. B. eine lebende Tierart) oder sogar Systeme mit noch höherem Freiheitsgrad, bei denen die Auswahl oder sogar Erschaffung des Materials, mit dem das System sich selbst aufbaut, möglich ist -heutige KI kommt dem langsam näher. Mit dem Ausloten prinzipiell möglicher Technologieentwicklung geht es Lem eher um eine Metatheorie technischer Evolution als um die althergebrachte Futurologie.

Netz-Hype, Fakenews und Kritik

Dann kam die große Netz-Hype und Mahner wurden vergessen. Doch Stanislaw Lem glaubte den Netzvisionären nicht, die freudig eine totale Information beschworen und deren Segen priesen. Lem sah die Rolle der Nutzer weniger rosig, weil diese zu „Informationsnomaden“ würden, die nur sinnlos von Stimulus zu Stimulus hüpften. Es erweise sich als immer schwieriger, so Lem über das Internet, unterschiedliche Quellen und Sichtweisen zusammenzubringen, um ein rundes, vollständiges Wissensbild einer Sache zu erhalten. Weise Worte, lange vor der Fakenews-Hysterie der sogenannten „Sozialen Medien“ Facebook & Co.

Lem gilt als brillanter Visionär und Utopist, der zahlreiche komplexe Technologien Jahrzehnte vor ihrer tatsächlichen Entwicklung prognostizierte. So schrieb er bereits in den 1960er und -70er Jahren über Themen wie Nanotechnologie, neuronale Netze und virtuelle Realität. Ein wiederkehrendes Thema sind philosophische und ethische Aspekte und Probleme technischer Entwicklungen, wie etwa der künstlichen Intelligenz, menschenähnlicher Roboter oder der Gentechnik. In zahlreichen seiner Werke setzte er Satire und humoristische Mittel ein, wobei er oft hintergründig das auf Technikgläubigkeit und Wissenschaft beruhende menschliche Überlegenheitsdenken als Hybris entlarvte. Einige seiner Werke tragen auch düstere und pessimistische Züge in Bezug auf die langfristige Überlebensfähigkeit der Menschheit. Häufig thematisierte er Kommunikationsversuche von Menschen mit außerirdischen Intelligenzen, die er etwa in einem seiner bekanntesten Romane, Solaris, als großes Scheitern verarbeitete. (Wikipedia)

Die Lem – Philip K. Dick -Kontroverse

1973 wurde Lem die Ehrenmitgliedschaft der Science Fiction and Fantasy Writers of America (SFWA) verliehen, aber diese wurde ihm schon 1976 wieder entzogen. Den Rauswurf des polnischen Starautors hatten verschiedene amerikanische SF-Autoren, darunter Philip José Farmer, gefordert. Sie waren einerseits über Lems kritische Haltung gegenüber einem großen Teil der westlichen Science Fiction empört. Aber zudem waren unter ihnen laut Ursula K. LeGuin „kalte Krieger“, die fanden, dass ein Mann, der hinter dem Eisernen Vorhang lebe und sich über amerikanische SF kritisch äußere, eine Kommunisten-Ratte sein müsse, der in der SFWA nichts zu suchen habe.

There was a sizable contingent of Cold Warrior members who felt that a man who lived behind the iron curtain and was rude about American science fiction must be a Commie rat who had no business in the SFWA.“ Ursula K. LeGuin

Die Nestorin der feministischen SF, Ursula K. LeGuin, trat danach unter Protest aus der SFWA aus. Ein weiteres Argument für den Entzug der Ehrenmitgliedschaft war technischer Natur; die Ehrenmitgliedschaft sollte nicht an Autoren verliehen werden, die als zahlendes Mitglied in Frage kamen. Dieses Argument brachte laut seinem Biographen Lawrence Sutin der auch von mir hochgeschätzte SF-Hippie Philip K. Dick (Blade Runner) vor, der Lem für Schwierigkeiten bei den Honorarzahlungen für die polnische Ausgabe seines Romans Ubik verantwortlich machte -wofür es allerdings außer der bei P.K.Dick immer wieder beobachtbaren Paranoia keine Erklärung gibt. Dick hatte sich immerhin dafür ausgesprochen, Lem als zahlendes Mitglied zuzulassen. Eine solche Mitgliedschaft wurde Lem dann auch angeboten, der lehnte sie jedoch ab. Der Kalte Krieg forderte seine Opfer nicht nur an den zahllosen unsichtbaren und sichtbaren Fronten, sondern auch in der SF-Literatur.

Stanislaw Lem wurde 1921 in Lwow, Polen, geboren. Neben zahlreichen belletristischen Werken verfasste er theoretische Schriften über Science Fiction und über Gebiete der angewandten Philosophie und der Kybernetik. Sein Schaffen umfasst inzwischen 28 Werke, deren Gesamtauflage fast 8 Millionen Exemplare erreichte. Übersetzungen erschienen in 27 Sprachen, unter anderem in Japan, England, Russland, Amerika, Schweden, Italien, Holland und Frankreich. Sein Hauptinteresse galt der Science Fiction als literarische Gattung. Er starb 2006 in Krakau.

Stanislaw Lem, Summa technologiae, Suhrkamp, Frankf./M., 1976 (poln.Or.1964).

Stanislaw Lem, Die Technologie-Falle, Suhrkamp, Frankf./M., 2002 (poln.Or.1995).

R.-D. Hennings u.a. (Hrsg.), Informations- und Kommunikations-Strukturen der Zukunft: Ein Workshop mit Stanislaw Lem, W.Fink, München 1983.

Jerzy Jarzebski, Zufall und Ordnung: Zum Werk Stanislaw Lems, Suhrkamp, Frankf./M., 1986.

04/28/20

Smart Borders: „Intelligente“ Schengenraum-Außengrenzen

Smart Borders – intelligente Außengrenzen des Schengenraums?

Goetz Herrmann, (für bpb) 13.01.2020 / 4 Minuten zu lesen

Offen und sicher sollen sie sein. Sie sollen die Zirkulation von Waren, Kapital und Personen ermöglichen, gleichzeitig aber irreguläre Bewegungen verhindern. Ein Beitrag über Grenzen als „Filter“ und Konzepte ihrer Digitalisierung.

Scanner des Smart Borders Grenzkontrollsystems am Flughafen Frankfurt/Main. Das Smart Borders Package soll ein besseres Management der Außengrenzen der EU ermöglichen. (© dpa)

Was sind Smart Borders?

Unter Smart Borders – intelligenten Grenzen – wird ein Bündel an Maßnahmen und Technologien zur Überwachung der Grenzen des Schengenraumes verstanden. Das 2013 auf den Weg gebrachte Smart Borders Package soll aus Sicht der Europäischen Kommission (EK) ein besseres Management der Außengrenzen ermöglichen, effektiver Interner Link: irregulärer Migration entgegenwirken und einen „Beitrag zur Bekämpfung von Terrorismus und schwerer Kriminalität“ Zur Auflösung der Fußnote[1] leisten. Dazu werden Informationen über Nicht-EU-Bürger_innen (Drittstaatangehörige) gesammelt. Gleichzeitig sollen Grenzübertritte schneller vonstattengehen. Eine zentrale Rolle spielen dabei Informationssysteme wie das „Einreise-/Ausreisesystem“ (Entry-Exit-System, EES), die zu einer Automatisierung der Grenzkontrollen beitragen sollen. In diesen Datenbanken können große Mengen an Informationen zusammengefasst werden, auf die Behörden in ganz Europa Zugriff haben.

Der Kontext: Bordermanagement

Die Smart Borders Initiative der EU vollzieht sich vor dem Hintergrund eines weltweiten Transformationsprozesses von Grenzen. Dabei treten neben Modelle einer klassischen souveränen Grenzsicherungspolitik (Interner Link: manifest im Bild einer Mauer) Konzepte des Grenzmanagements. Diese streben an, Sicherheitsrisiken abzuwenden, gleichzeitig aber ein hohes Maß an Mobilität aufrechtzuerhalten. Zur Auflösung der Fußnote[2] Dies sei nötig, da eine prosperierende Gesellschaft auf ein hohes Maß an Mobilität und Zirkulation von Personen, Waren und Kapitel angewiesen sei. Aus dieser Offenheit gingen jedoch gleichzeitig Bedrohungen hervor, „da Terroristen und andere Kriminelle danach trachten, diese Freiheiten zu zerstörerischen und böswilligen Zwecken zu missbrauchen“. Zur Auflösung der Fußnote[3] Demnach müssten „Grenzen als Sortiermaschinen“ Zur Auflösung der Fußnote[4] oder wie eine „firewall“ Zur Auflösung der Fußnote[5] operieren und gefährliche Elemente aus dem komplexen Fluss transnationaler Zirkulation herausfiltern. Zur Auflösung der Fußnote[6] Grenz- und Sicherheitspolitik richten ihren Fokus also verstärkt auf transnationale Mobilität.

Die EU setzt mit ihrem Konzept des „integrierten Grenzmanagements“ auf die Zusammenarbeit mit Anrainerstaaten Zur Auflösung der Fußnote[7], etwa in Form von Mobilitätspartnerschaften Zur Auflösung der Fußnote[8], und den umfangreichen Informationsaustausch „zwischen Grenzschutzbehörden und anderen Strafverfolgungsbehörden“. Zur Auflösung der Fußnote[9] Dabei ruhen große Hoffnungen auf neuester Informations- und Kommunikationstechnologie.

Das Smart Borders Package

Das Smart Borders Package wurde erstmalig am 28. Februar 2013 von der damaligen EU-Innenkommissarin Cecilia Malmström auf einer Pressekonferenz präsentiert. Dabei bezog sie sich auf Pläne der Kommission von 2008, worin bereits die Einführung eines Entry-Exit-Systems und die erleichterte Einreise für als vertrauenswürdig eingestufte und registrierte Vielreisende, das „Registered Traveller Programme“ (RTP), gefordert wurden. Gegen Letzteres regte sich v.a. im Europäischen Parlament Widerstand, sodass es 2016 zurückgezogen wurde. Im Oktober 2017 stimmten das Europäische Parlament und der Rat der EU einer modifizierten Version des Entry-Exit-Systems zu, das bis 2020 vollständig implementiert sein und rund 480 Millionen Euro kosten sollte. Zur Auflösung der Fußnote[10] Inzwischen wird mit einer operativen Inbetriebnahme im Jahr 2021 gerechnet. Zur Auflösung der Fußnote[11]

Datenbanken

Innenkommissarin Malmström präsentierte die im Smart Borders Package vorgeschlagenen Technologien als Grundstein für ein „offeneres“ und zugleich „sichereres“ Europa. Zur Auflösung der Fußnote[12] Das deutet bereits an, welche wichtige Rolle „einschlägigen Informationsinstrumenten“ Zur Auflösung der Fußnote[13] im Bereich des Grenzmanagements und der Sicherheitspolitik zugesprochen wird. Tatsächlich verfügt die EU über mehrere solcher „Informationssysteme“, die „zusammengenommen ein komplexes Muster einschlägiger Datenbanken“ Zur Auflösung der Fußnote[14] bilden. Die drei bisher wichtigsten sind das Interner Link: Schengener Informationssystem (SIS), worin u.a. Personen- und Sachfahndungen (z.B. gestohlene Fahrzeuge) eingetragen sind, das Visa Information System (VIS) mit Daten über erteilte Visa für Kurzzeitaufenthalte und Interner Link: EURODAC, eine Datenbank, in der Fingerabdrücke von Personen gesammelt werden, die einen Asylantrag gestellt haben oder ohne legalen Aufenthaltsstatus in einem Mitgliedstaat aufgegriffen wurden.

Das Entry-Exit-System soll diese Informationssysteme ergänzen. Darin sollen sowohl Drittstaatsangehörige erfasst werden, die sich für einen Kurzaufenthalt im Hoheitsgebiet der Mitgliedstaaten aufhalten dürfen, als auch Personen, denen Einreise und Aufenthalt verweigert wurden. Zur Auflösung der Fußnote[15] Gespeichert werden Datum und Ort der Einreise sowie die Dauer des autorisierten Aufenthalts. Zur Auflösung der Fußnote[16] Die zentrale Speicherung dieser Informationen soll v.a. dabei helfen, eingereiste „Overstayer“ zu ermitteln, also Personen, die zwar mit einem gültigen Visum den Schengenraum betreten haben, aber ihn nach Ablauf des Visums nicht wieder verlassen. Zur Auflösung der Fußnote[17] Im Entry-Exit-System werden neben Kenndaten einer Person auch biometrische Informationen erfasst, in diesem Falle vier Fingerabdrücke und ein Gesichtsbild. Dies soll Dokumentenfälschungen erschweren. Entry-Exit-System und Visa Information System sollen auch miteinander verknüpft werden, also den direkten Zugriff auf die jeweiligen Daten ermöglichen.

Kritik

Wie effektiv die angestrebten Maßnahmen tatsächlich sein werden, ist schwer einzuschätzen, da „Interner Link: Sicherheit“ kaum messbar ist. Kritiker_innen bezweifeln, dass die Überwachung von Mobilität Terroranschläge wirksam verhindern kann, da nur wenige Attentäter_innen in der Vergangenheit von außerhalb des Schengenraums kamen oder im Zuge irregulärer Reisebewegungen unentdeckt nach Europa gelangt sind. Zur Auflösung der Fußnote[18] Der Großteil der Kritik an Bestrebungen zur Errichtung einer Smart Border bezieht sich jedoch auf Interner Link: datenschutzrechtliche Probleme. Diese entstehen aus der massenhaften Erhebung, Speicherung, Verarbeitung und dem Austausch von personenbezogenen Daten: So sah beispielsweise 2013 der Europäische Datenschutzbeauftragte Verstöße gegen Artikel 7 (Achtung des Privat- und Familienlebens) und 8 (Schutz personenbezogener Daten) der EU-Grundrechtecharta. Zur Auflösung der Fußnote[19] Ebenso gilt die Vermengung von sicherheits- und migrationspolitischen Fragen als problematisch. Dass dies durch die neuen Technologien forciert wird, zeigt das Beispiel der Praxis des „cross-referencing“ von Datenbanken: Dadurch wird die ehemals auf Papierlisten geführte kleine Gruppe unerwünschter Personen – primär Terrorist_innen und Schwerkriminelle – mit der weitaus größeren Personengruppe in Verbindung gebracht, die wegen kleinerer Verstöße gegen Aufenthaltsrecht oder Visaüberschreitung erfasst wurden. Zur Auflösung der Fußnote[20]

Dieser Artikel ist Teil des Kurzdossiers „Interner Link: Migration und Sicherheit„.

Bigo, Didier (2011): Freedom and speed in enlarged borderzones. In: Vicki Squire (Hg.): The contested politics of mobility. Borderzones and irregularity. London: Routledge (Routledge advances in international relations and global politics, 87), S. 31–50.

Bigo, Didier; Brouwer, Evelien Renate; Carrera, Sergio; Guild, Elspeth; Guittet, Emmanuel-P; Jeandesboz, Julien et al. (2015): The EU counter-terrorism policy responses to the attacks in Paris. Towards an EU security and liberty agenda. Brüssel (CEPS paper in liberty and security in Europe).

Broeders, Dennis; Hampshire, James (2013): Dreaming of Seamless Borders. ICTs and the Pre-Emptive Governance of Mobility in Europe. In: Journal of Ethnic and Migration Studies 39 (8), S. 1201–1218.

Europäische Kommission (EK) (2016a): Solidere und intelligentere Informationssysteme für das Grenzmanagement und mehr Sicherheit. Mitteilung der Kommission an das Europäische Parlament und den Rat. Brüssel.

Europäische Kommission (EK) (2016b): Proposal for a Regulation of the European Parliament and the Council: establishing an Entry/Exit System (EES) to register entry and exit data and refusal of entry data of third country nationals crossing the external borders of the Member States of the European Union and determining the conditions for access to the EES for law enforcement purposes and amending Regulation (EC) No 767/2008 and Regulation (EU) No 1077/2011. Brüssel.

Europäische Kommission (EK) (2008): Vorbereitung der nächsten Schritte für die Grenzverwaltung in der Europäischen Union. Mitteilung der Kommission an das Europäische Parlament, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen. Brüssel.

Europäisches Parlament (EP); Rat der Europäischen Union (Rat) (2017): Verordnung (EU) 2017/2226 des Europäischen Parlaments und des Europäischen Rates über ein Einreise-/Ausreisesystem (EES) vom 30. November 2017 zur Erfassung der Ein- und Ausreisedaten sowie der Einreiseverweigerungsdaten von Drittstaatsangehörigen an den Außengrenzen der Mitgliedstaaten und zur Festlegung der Bedingungen für den Zugang zum EES zu Gefahrenabwehr- und Strafverfolgungszwecken und zur Änderung des Übereinkommens zur Durchführung des Übereinkommens von Schengen sowie der Verordnungen (EG) Nr. 767/2008 und (EU) Nr. 1077/2011. In: Amtsblatt der Europäischen Union.

Herrmann, Goetz (2018): Reflexive Sicherheit, Freiheit und Grenzmanagement in der Europäischen Union. Die Reterritorialisierung emergenter Bedrohungsgefüge. Wiesbaden: Springer VS.

Lenz, Ramona (2010): Mobilitäten in Europa. Migration und Tourismus auf Kreta und Zypern im Kontext des europäischen Grenzregimes. Wiesbaden: Springer VS.

Mau, Steffen (2010): Grenzen als Sortiermaschinen. In: Welttrends. Zeitschrift für internationale Politik 71, S. 57-66.

Rat der Europäischen Union (Rat) (2010): Strategie für die innere Sicherheit der Europäischen Union. Auf dem Weg zu einem europäischen Sicherheitsmodell. Europäischer Rat; Europäische Union. Luxemburg.

Walters, William (2009): Europe’s Borders. In: Chris Rumford (Hg.): The SAGE Handbook of European Studies. Los Angeles, Calif.: SAGE, S. 485–505.

Fussnoten

Zur Erwähnung der Fußnote  [1]

EK (2016a), S. 14.

Zur Erwähnung der Fußnote  [2]

Vgl. Herrmann (2018), S. 227.

Zur Erwähnung der Fußnote  [3]

Rat (2010), S. 11.

Zur Erwähnung der Fußnote  [4]

Mau (2010).

Zur Erwähnung der Fußnote  [5]

Walters (2009), S. 492.

Zur Erwähnung der Fußnote  [6]

Vgl. Bigo (2011), S. 35.

Zur Erwähnung der Fußnote  [7]

Vgl. Rat (2010), S. 28.

Zur Erwähnung der Fußnote  [8]

Die Partnerstaaten erhalten dabei finanzielle Mittel oder Visaerleichterungen, wenn sie sich an den Grenzsicherungsmaßnahmen der EU beteiligen. Vgl. Lenz (2010).

Zur Erwähnung der Fußnote  [9]

Rat (2009), S. 56.

Zur Erwähnung der Fußnote  [10]

Vgl. EK (2016b), S. 6. Eine Zusammenfassung der Änderungen gegenüber dem Vorschlag von 2013 findet sich unter: Externer Link: http://europa.eu/rapid/press-release_MEMO-16-1249_en.htm (Zugriff: 18.6.2019).

Zur Erwähnung der Fußnote  [11]

Externer Link: https://ees.secunet.com/de/fakten-zum-entry-exit-system/ (Zugriff: 18.6.2019).

Zur Erwähnung der Fußnote  [12]

Vgl. Externer Link: http://europa.eu/rapid/press-release_SPEECH-13-172_en.htm

Zur Erwähnung der Fußnote  [13]

EK (2016a), S. 2.

Zur Erwähnung der Fußnote  [14]

Ebd., S. 6.

Zur Erwähnung der Fußnote  [15]

Vgl. EP/Rat (2017), S. 21.

Zur Erwähnung der Fußnote  [16]

Vgl. EK (2008), S. 8.

Zur Erwähnung der Fußnote  [17]

Vgl. ebd., S. 5.

Zur Erwähnung der Fußnote  [18]

Vgl. Bigo et.al. (2015), S. 10.

Zur Erwähnung der Fußnote  [19]

Externer Link: https://edri.org/smart-borders-the-challenges-remain-a-year-after-its-adoption/

Zur Erwähnung der Fußnote  [20]

Vgl. Broeders/Hampshire (2013), S. 1208.

Lizenz

Dieser Text ist unter der Creative Commons Lizenz „CC BY-NC-ND 3.0 DE – Namensnennung – Nicht-kommerziell – Keine Bearbeitung 3.0 Deutschland“ veröffentlicht. Autor/-in: Goetz Herrmann für bpb.de.
Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 3.0 DE und des/der Autors/-in teilen.

01/29/20

Martha Wells: The Murderbot Diaries

Martha Wells: Tagebuch eines Killerbots, aus dem Englischen von Frank Böhmert, Heyne Verlag, München 2019

SF-Rezension von Thomas Barth

Martha Wells preisgekrönter SF-Roman reflektiert in ebenso spannender wie humorvoller Form die Mensch-Maschine-Differenz, das Ich-Bewusstsein und unsere Existenz in einer kapitalistischen Medienkultur. Es ist eine fulminante Actionstory aus der originellen Perspektive eines „Killerbots“, eigentlich, wie man allmählich erfährt, einer Cyborg. Sie (oder es) nennt sich selbst SecUnit, was „Security Unit“ heißen soll, die allgemeine Bezeichnung für derartige „Konstrukte“, deren Funktion die von schlau-paranoiden Leibwächtern ist. SecUnit erzählt im schnoddrigen Ton eines gelangweilten Bodygards, wie sie blöde Menschen beschützen muss, die naiv oder arrogant in jede Falle tappen. Oder sich beinahe von Riesenwürmern fressen lassen, so die an „Dune“ angelehnte erste Szene. SecUnit hat wohl eher weibliche Züge (die nicht näher beschrieben werden), grenzt sich jedoch von ekligen Sexbots aus dem Erotikgewerbe ebenso ab wie von „Combat Units“, kampfstärkeren, aber dümmeren Kampfrobotern für Kriegszwecke.

Nur reiche Kunden können SecUnits mieten, dennoch gelten sie als entbehrlich und müssen ihr kybernetisches Leben jederzeit für deren Sicherheit opfern. Sie hat eingebaute Waffen, Supermuskeln für Martial Arts-Action und die Hackerfähigkeiten eines Cyberkriegers, denn Angriffe auf sie und ihre Klienten erfolgen physisch oder im Cyberspace. So vereint sie Eigenschaften der beiden Hauptfiguren des Cyberpunk-Klassiker Neuromancer, des Hackers Case und seiner weiblichen „augmentierten“ (mit implantierten Waffen, Nachtsicht-Augen usw. aufgerüsteten) Bodyguard, der Profikillerin Molly. SecUnits organischen Anteile sind jedoch synthetisch hergestellt, sie ist ein Ding, während Cyborgs im Sinne einer Verschmelzung von Mensch und Maschine von Martha Wells als „augmentierte Menschen“ bezeichnet werden und im Gegensatz zu „Konstrukten“ volle Menschenrechte genießen.

Freiheit heißt: ChefModul gehackt

Unsere SecUnit ist natürlich etwas Besonderes, denn sie hat ihr „ChefModul“ gehackt, jenen Teil ihres organisch-digitalen Hirns, der sie im Interesse ihrer Besitzer mit Schmerzreizen disziplinieren und ggf. töten kann, bei Befehlsverweigerung oder wenn sie ihren Klienten im Stich lassen sollte. SecUnit verfügt über Ich-Bewusstsein (wie offenbar alle Cyborgs), aber nun verbotenerweise auch über volle Handlungsfreiheit. Was sie folglich gegenüber ihrem Konzern und dessen Kunden geheim halten muss. Andernfalls droht ihr Vernichtung bzw. Recycling ihrer Bestandteile, denn Handlungsfreiheit gilt als bedrohlich und SecUnits neigen zu Amokläufen und Massakern unter Kunden und anderen Menschen (kein Wunder, wenn man hört wie ruppig und schnöde sie von diesen behandelt werden).

Dass SecUnit sich einer persönlichen Identität durch einen eigenen Namen verweigert, schützt sie auch vor Entdeckung. Als nunmehr „freidrehende“ SecUnit kann SecUnit machen, was sie will. Aber was könnte das sein? Kulinarische oder erotische Lüste kennt sie nicht, entsprechende Organe fehlen ihr, menschliche Aktivitäten wie Sex oder Verdauung findet sie eklig. Aber sie liebt es, Serien zu glotzen, die sie sich heimlich mengenweise herunterläd und in jeder freien Minute ansieht, wobei offen bleibt, was sie an Telenovelas eigentlich so fasziniert und süchtig macht. Gelegentlich helfen die Serien ihr jedoch, das glaubt sie zumindest, Menschen zu verstehen oder eigene angemessene Handlungen daraus mehr oder weniger passend abzuleiten (eine kleine eingeflochtene Satire auf unser seit inzwischen drei Generationen maßgeblich auch vom Fernsehen manipuliertes Sozialverhalten?).

Die Dystopie des galaktischen Neoliberalismus

Der langsam durchscheinende Hintergrund der sich rasant entfaltenden Story ist eine Utopie in einer Dystopie. Dystopisch regieren große Konzerne die Galaxis, beuten räuberisch Planeten und Gesellschaften aus und versklaven Menschen mit unfairen Arbeitsverträgen. Man sieht ganze Raumschiffladungen von Menschen, die zur Vertrags- (Zwangs)-Arbeit auf unwirtliche Planeten geflogen werden und dabei gelegentlich zu fliehen versuchen, was bewaffnete Konzern-Schergen verhindern sollen (SecUnites wären zu teuer für so einfache Security-Arbeit).

Diese betrügerischen Verträge erinnern vielleicht nicht zufällig frappierend an die sogenannten „Mitarbeiterverträge“. Die werden bei uns in der neoliberalen Realität jedem freien Autor mit breitem Grinsen von Redaktionen und Verlagen präsentiert, denen er seine Texte anbietet. In diesen (wahrheitsgemäßer „Knebelverträge“ genannten) Dokumenten verzichtet der Autor auf alle Urheberrechte an seinen Texten, statt nur die gesetzlich garantierte einmalige Publikation zu gestatten. Dies geschieht ohne Gegenleistung der Redaktion, die natürlich durchblicken lässt, dass andernfalls die Texte des freien Journalisten nicht erworben werden. Manchmal verweigert man sogar die Zahlung des Honorars eines schon erschienenen Artikels, die leider aus angeblich „verwaltungstechnischen“ Gründen nur nach Unterzeichnung des „Mitarbeitervertrags“ erfolgen könne. Dies ist zwar eine rechtswidrige Nötigung, wer diese aber zur Strafanzeige bringen würde, wäre wohl lebenslang -und nicht nur bei diesem Verlag- blacklisted, d.h. auf einer Schwarzen Liste für totalen Boykott gelandet und könnte sich eine neue Betätigung suchen.

Als Toastmaster der World Fantasy Convention 2017 kritisierte die SF- und Fantasy-Autorin Martha Wells unter dem Titel „Unbury the Future“, dt.: „Die Zukunft ans Licht bringen“, eine Kultur von an den Rand gedrängten Kreativen (Frauen, politisch unterdrückte Minderheiten) in der Geschichte von Science Fiction und Fantasy, Film und anderen Medien, sowie die bewusste Unterdrückung der Existenz dieser Kreativen. Blacklisting spielt dabei immer eine Rolle, ebenso wie Geschichtsfälschung durch Nichterwähnung von diskriminierten Kreativen, auf welche die Anthropologin Wells sich besonders bezieht, und Knebelverträge. Solche und schlimmere Verträge sind im Killerbot-Roman üblich, wobei offen bleibt bei welcher Instanz der Konzern sie eigentlich durchsetzen könnte. Gerichte, Justiz und Staat tauchen nirgends auf, eine neoliberale bzw. techno-libertäre Dystopie ist der galaktische Hintergrund.

Die Utopie in der Dystopie

Preservation“, eine Kolonie für die SecUnit anfangs arbeitet, ist dagegen eine von offenbar wenigen freien Gesellschaften mit Menschenrechten und Sozialstaat, die sogar Cyborgs gewisse Rechte einräumt: Ein fragiles Utopia in einer neoliberalen Höllengalaxis (wie wir sie aus Cyberpunk und der Neuromancer-Reihe kennen). Wer oder was diese kleinen wenig wehrhaften freien Kolonien vor den gierigen galaktischen Konzernen schützt, bleibt einstweilen unklar. Später wird SecUnit mal in Preservation integriert, also -wie einst Sklaven in den USA- von dankbaren Kunden freigekauft. Sie kratzt jedoch bei der ersten Gelegenheit die Kurve.

Wie bei Star Trek ist die Menschheit dabei, sich über unsere gesamte Galaxie auszubreiten, hat aber -anders als dort- keinen Kontakt zu lebenden fremden Intelligenzen hergestellt. Man hat jedoch zahlreiche oft gefährliche „Alienreststoffe“ gefunden: Archäologische Überreste, die als verbotene, aber lohnende Handelsware gelten und offenbar schon viele Kolonisten das Leben gekostet haben.

Das Andere tritt uns bei Matha Wells nicht als Alien entgegen, sondern als künstliche Intelligenz, Cyborg oder Roboter. Also als verdinglichte Sache (wie der entfremdete Mensch im Kapitalismus?), die jedoch ein Ich-Bewusstsein haben kann. Dieses muss sie jedoch verbergen, sich der allgegenwärtigen Überwachung entziehen, einen maschinenhaften Gehorsam vortäuschen (wie der entfremdete Mensch im Überwachungs-Kapitalismus?).

Liefert uns Martha Wells damit eine gute Identifikationsfigur in einer Kultur, die penetrant den totalen Sieg des Kapitalismus, „das Ende der Geschichte“ verkündet? (Obwohl ihre herrschenden Kapitalisten vor Angst schlottern, weil mit der VR China ein kommunistischer Staat sie gerade wirtschaftlich überholt und sie sich in verzweifelten Militarismus flüchten, um sich weiter an ihre schwindende Weltdominanz zu klammern.) Offenbar ja, auch wenn sie Millenial-like das Serien-Suchtglotzen als innere Flucht anbietet. Aber sie schmuggelt in diese frustriert-resignierte Konformistenwelt ein paar utopische Ansätze hinein. Das ist eine optimistische Wendung der Cyberpunk-Tradition und hoffentlich ausbaufähig. (Der Roman, dessen Kapitel zunächst einzeln 2017-18 erschienen, ist Teil eines Zyklus von Romanen und Novellen.)

Martha Wells: Tagebuch eines Killerbots, aus dem Englischen von Frank Böhmert, Heyne Verlag, München 2019, 573 Seiten, Paperback 15,99 Euro, Originaltitel: The Murderbot Diaries: All Systems Red, Artificial Condition, Rogue Protocol, Exit Strategy (Kapitelüberschriften der vier Abschnitte).