Das Bürgergeld ist Geschichte. An seine Stelle tritt eine Grundsicherung, die auf kalkulierten Verfassungsbruch setzt. Totalsanktionen, Vermittlungsvorrang, Quadratmeterdeckel, jeder Move bedeutet umfassendere staatliche Überwachung. Die Bezahlkarte soll in Hamburg perspektivisch zunächst auf Sozialhilfe‑ und Jugendhilfebeziehende ausgeweitet werden. Sind Bürgergeldbeziehende als nächstes dran?
Die neue Grundsicherung trumpft Hartz IV in seiner Grausamkeit und ist ein Damoklesschwert über Erwerbslosen und allen, die Lohnarbeit machen. Zugleich nimmt die Zahl der Milliardäre und Mulitmillionäre stetig zu. Finanzbetrug durch Überreiche wird mehr oder weniger tatenlos zugesehen, während das Phantom des Bürgergeld-Totalverweigerers seit Jahren durch die Medien getrieben wird.
Wie der Angriff auf den Sozialstaat sich auf die Betroffenen in der Praxis auswirkt und was wir als Zivilgesellschaft tun können, um nicht nur tatenlos zusehen zu müssen, darum geht es in diesem Talk. 39c3
„freiheit.exe“ ist eine Lecture über die ideologischen Rootkits des Silicon Valley. Sie schlägt den Bogen von den italienischen Futuristen zu den heutigen Tech-Feudalisten, vom Akzelerationismus zur Demokratieskepsis der Libertären, von Tolkien zur PayPal-Mafia. Basierend auf den Recherchen zu meinem Theaterstück „freiheit.exe. Utopien als Malware“, in dem journalistische Analyse auf performative Darstellung trifft.
Ich lade das CCC-Publikum ein, die Betriebssysteme hinter unseren Betriebssystemen zu untersuchen. Während wir uns mit Verschlüsselung, Datenschutz und digitaler Selbstbestimmung beschäftigen, installieren Tech-Milliardäre ihre Weltanschauungen als Default-Einstellungen unserer digitalen Infrastruktur. Die Recherchen beleuchten die mitgelieferte Malware.
Ich navigiere durch die Ideengeschichte zwischen Marinettis Futuristischem Manifest (1909) und Musks Mars-Kolonien, von den ersten Programmiererinnen zur Eroberung des Alls, von neoliberalen Think Tanks zur Schuldenbremse, von nationalen Christen zu Pronatalisten. Investigative Recherche trifft auf performative Vermittlung. Mit O-Tönen von Peter Thiel, Nick Land und anderen zeigt die Lecture ideologische Verbindungslinien zwischen Theoretikern autoritär-technoider Träume und den Visionen der Tech-Oligarchen auf:
Es geht um „Freedom Cities“, Steuerflucht und White Supremacy. Um Transhumanismus als Upgrade-Zwang bis hin zu neo-eugenischen Gedanken. Um Akzeleration als politische Strategie: Geschwindigkeit statt Reflexion, Disruption statt Demokratie, Kolonisierung – jetzt auch digital.
Aus Theaterperspektive betrachte ich das Revival der Cäsaren und die Selbstinszenierung von Tech-CEOs als Künstler, Priester oder Genies. Und mit der Investigativ Reporterin Sylke Grunwald habe ich recherchiert, was all das mit den Debatten rund um Palantir zu tun hat.
Die scheinbar alternativlose Logik von „Move Fast and Break Things“ ist nicht unvermeidlich – sie ist gewollt, gestaltet, ideologisch aufgeladen. 39c3
WhiteDate ist eine Plattform weißer Suprematist:innen, die sich an Rassist:innen und Antisemit:innen richtet – und auf veralteter Infrastruktur basiert. Was die 8000 Mitglieder nicht wussten: Einige der Nazis flirteten dieses Jahr mit realistisch wirkenden Chatbots – und verliebten sich sogar in sie. Mit einer Kombination aus automatisierter Konversationsanalyse, Web-Scraping und klassischen OSINT-Methoden verfolgten wir öffentliche Spuren und identifizierten die Personen hinter der Seite. Dieser Vortrag zeigt, wie KI-Personas und investigatives Denken extremistische Netzwerke aufdecken und wie Algorithmen gegen Extremismus eingesetzt werden können.
Monatelang tauchte Martha in die verborgene Welt von WhiteDate, WhiteChild und WhiteDeal ein, drei Plattformen, die von einer Rechtsextremistin aus Deutschland betrieben werden. Sie glaubt an die Verschwörung einer weißen Vorherrschaft und einer „rassisch reinen“ weißen Gemeinschaft. Was als Neugier begann, entwickelte sich schnell zu einem Experiment über menschliches Verhalten, Technologie und Absurdität.
Martha infiltrierte das Portal mit „realistischen“ KI-Chatbots. Die Bots waren so überzeugend, dass sie die Überprüfungen umgingen und sogar als „weiß“ verifiziert worden. Durch die Gespräche und Recherche von digitalen Spuren dieser Gemeinschaft, die sich in Sicherheit wähnte, konnte sie Nutzer identifizieren.
Gemeinsam mit Reporter:innen der „Die Zeit“ konnten wir die Person hinter der Plattform enttarnen und ihre Radikalisierung von einer erfolgreichen Pianistin zu einer Szene-Unternehmerin nachzeichnen. Um ihr Dating-Portal hat sie ein Netzwerk von Websites aufgebaut, dass seinen Nutzern Liebe, Treue und Tradition vermarktet. WhiteDate verspricht romantische Beziehungen, WhiteChild propagiert Familien- und Abstammungsideale und WhiteDeal ermöglicht berufliches Networking und „gegenseitige Unterstützung“ unter einem rassistischen Weltbild. Gemeinsam zeigen sie, wie Ideologie und Einsamkeit auf bizarre Weise miteinander verwoben sein können.
Nach monatelanger Beobachtung, klassischer OSINT-Recherche, automatisierter Gesprächsanalyse und Web-Scraping haben wir herausgefunden, wer hinter diesen Plattformen steckt und wie ihre Infrastruktur funktioniert. Dabei deckten wir die Widersprüche und Absurditäten extremistischer Gemeinschaften auf, verdeutlichten ihre Anfälligkeit für technologische Eingriffe und brachten sogar den einen oder anderen Nazi zum Weinen.
Dieser Vortrag erzählt von Beobachtung, Schabernack und Einblicken in die digitale Welt extremistischer Gruppen. Er zeigt, wie Algorithmen, KI-Personas und investigatives Denken Hass entlarven, seine Narrative hinterfragen und seine Echokammern aufbrechen können. Wir zeigen, wie Technologie im Kampf gegen Extremismus eingesetzt werden kann. 39c3
siehe zum Thema Antifaschismus i.w.S. auch folgende Beiträge zum 39c3->
PRÜF! Prüfung Rettet übrigens Freiheit! Alles wird in Deutschland geprüft. Warum nicht auch mutmaßlich verfassungswidrige Parteien? Hier stelle ich vor, was PRÜF! anders machen will als bisherige Kampagnen.
Wir haben eine Forderung: „Alle Parteien, die vom Verfassungsschutz als rechtsextremer Verdachtsfall oder gesichert rechtsextrem eingestuft werden, sollen durch das Bundesverfassungsgericht überprüft werden.“ Wir demonstrieren so lange, bis der Bundesrat die Prüfung formal beantragt hat. PRÜF-Demos. Bald in allen Landeshauptstädten. Am 2. Samstag. Jeden Monat.
Warum beim Schutz der Demokratie nicht mal einen Ansatz wählen, der so noch nicht probiert wurde? Nicht auf die anderen gucken, sondern auf uns? Auf das gemeinsame? Auf Spaß? Das nutzen, was wir haben und was wir können? Wir haben das Grundgesetz, dessen Stärken eingesetzt werden müssen. Wir haben uns, Millionen Menschen, die wir uns organisieren können. Wir haben Ideen, wir haben Geld, wir haben Macht, wir haben Wissen. Bisher haben wir nicht einmal ansatzweise unsere Möglichkeiten ausgeschöpft und es wäre absurd, wenn wir das nicht schaffen würden, die Freiheitliche Demokratische Grundordnung zu schützen.
While the extreme right is on the rise in many countries and climate change is unrolling, a promising future seems to be written: According to Elon Musk, Sam Altman, and some other “tech bros” it is to leave the dying planet to go to space. With the help of something called “A(G)I”. But what kind of future is the one that is promised? And what is the connection between power cycles of tech company owners and people who’s believes can be called fascist? As we moved power through data in the hands of very view, it is important to examine what ideas these view have in their heads. This talk will explore the roots of today’s tech fascism and its love for tech. From the early thoughts and movements in the US and Europe to Futurism and the Holocaust, organised with Hollerith punching cards. It will dive into the its blooming relationship with cybernetics, and take a look in the future the “tech bros” want to lure us in. This talk will address the often overlooked topic of how and when people get comfy with diving into movements of hate and how to stop a white supremacy future where we will be sorted by machines. And, in taking a look on past movements opposing authoritarianism and will examine mindsets and possibilities of resistance as well as the possibility of restarting everything. Because we have a planet and loved ones to lose. Wear your safety cat-ears, buckle up, it will be a wild, but entertaining ride.
The idea of the Super-Human is not a new one, neither is the idea of charismatic „good“ leader nor to sort humans into classes, races, abilities. The idea of a view controlling many by force and ideas that justify their rulership and cruelties is an old one, as is the opposing idea of a free society and humans as equals. A central aspect is how people involved see the human nature and according to that what society they want to build. And what role is intended for technology. In the 19th century the beliefs of both the opposing sides dripped into science, as well as individual’s heads, and social movements around the world. While some wanted to form a wold society of equals others wanted to breed a master race that to control everything.
The love of industrial leaders for authoritarianism has played an important role since the beginning in funding and providing access to powerful networks. Industrialists like Henry Ford loved and promoted ideas at least close to fascism. German, Italian, and Austrian counterparts funded Hitler and Mussolini. And it is not that they did it because they did not understand the fascist leader’s yearning – it was because they shared and loved their aims and violence.
In Futurism, one of the often overlooked roots of fascism, and its Manifesto the enemies and societal goals are proclaimed crystal clear: “We will glorify war — the only true hygiene of the world — militarism, patriotism, the destructive gesture of anarchist, the beautiful Ideas which kill, and the scorn of woman.“
After WWII most of the people believing in dominating others by force and eugenics lived on, they and their cronies had slaughtered millions and destroyed whole social movements were opposing them. These people warning us about authoritarian prophets of doom and concentration camps are still missing.
In the post-war time ideas of authoritarianism met a new player: Cybernetics, the believe in a future, where all problems will be solved through technology and we are “All Watched Over by Machines of Loving Grace” (Richard Brautigam, 1967). The ideas split, merged, and melted into new beliefs and quasi-religions. Into something that is called “Cyber-Libertarianism” by David Golumbia or “TESCREAL” by Émile P. Torres and Timnit Gebru.
This talk will address an aspect that is often missing in analyses: What kind of breeding ground is it where ideas of fascism hatches best? And how can we stop iFascism instead of participating in it?
Furthermore, as being sorted by machines is not everyone’s secret dream, ways to stop iFascism will be provided.
Because we are more, we care for people in need – and we are the chaos! 39c3
selbstverständlich antifaschistisch!
Aktuelle Informationen zu den Verfahren im Budapest-Komplex – von family & friends Hamburg
Mit den Prozessen im Budapest-Komplex wird ein Exempel statuiert – nicht nur gegen Einzelne, sondern gegen antifaschistische Praxis insgesamt. Die Behauptung einer kriminellen Vereinigung mit Mordabsichten stellt eine absurde juristische Eskalation des staatlichen Vorgehens gegen Antifaschist*innen dar und steht in keinem Verhältnis zu den verhandelten Vorkommnissen. Die Verfahren in dieser Weise zu verfolgen, lässt vor allem auf ein hohes Ausforschungs- und Einschüchterungsinteresse schließen. Mit dieser Prozesswelle und den Repressionen gegen Freund*innen und Angehörige wird antifaschistisches Engagement massiv kriminalisiert und ein verzerrtes Bild von politischem Widerstand gezeichnet – während gleichzeitig rechte Gewalt europaweit zunimmt und faschistische Parteien erstarken. Wir sehen, dass Angriffe auf Rechtsstaatlichkeit und Zivilgesellschaft immer weiter zunehmen. Die Art und Weise, wie gegen die Antifas im Budapest-Komplex und im Antifa-Ost Verfahren vorgegangen wird ist ein Vorgeschmack darauf, wie politische Opposition in einer autoritären Zukunft behandelt werden könnte. Wir sind alle von der rechtsautoritären Entwicklung, von Faschisierung betroffen. Die Kriminalisierung von Antifas als „terroristische Vereinigung“ ist Teil einer (weltweiten) Entdemokratisierung und Zersetzung von Rechtsstaatlichkeit.
Am 26. September wurde gegen Hanna vor dem OLG München das erste Urteil gegen eine der Antifaschist*innen im Rahmen des Budapest-Komplexes gefällt: 5 Jahre für ein lediglich auf Indizien basierendes Urteil. Dem Mordvorwurf der Staatsanwaltschaft wurde nicht entsprochen, behauptet wurde aber die Existenz einer gewalttätigen „kriminellen Vereinigung“. Am 12. Januar 2026 wird nun vor dem OLG Düsseldorf der Prozess gegen Nele, Emmi, Paula, Luca, Moritz und Clara, die seit Januar in verschiedenen Gefängnissen in U-Haft sitzen, eröffnet. Die Anklage konstruiert auch hier eine kriminelle Vereinigung nach §129 und enthält den Vorwurf des versuchten Mordes. Die Verfahren in dieser Weise zu verfolgen, lässt vor allem auf ein hohes Ausforschungs- und Einschüchterungsinteresse schließen. Zaid, gegen den ein europäischer Haftbefehl aus Ungarn vorliegt, war Anfang Mai unter Meldeauflagen entlassen worden; aufgrund seiner nicht-deutschen Staatsangehörigkeit hatte der Generalbundesanwalt keine Anklage gegen ihn erhoben. Da er in Deutschland nach wie vor von einer Überstellung nach Ungarn bedroht ist, hält er sich seit Oktober 2025 in Paris auf. Er ist gegen Auflagen auf freiem Fuß. Ein weiteres Verfahren im Budapest- Komplex wird in Dresden zusammen mit Vorwürfen aus dem Antifa Ost Verfahren verhandelt. Der Prozess gegen Tobi, Johann, Thomas (Nanuk), Paul und zwei weitere Personen wird bereits im November beginnen. In Budapest sitzt Maja – entgegen einer einstweiligen Verfügung des BVerfG und festgestellt rechtswidrig im Juni 2024 nach Ungarn überstellt – weiterhin in Isolationshaft; der Prozess soll erst im Januar fortgeführt werden und voraussichtlich mit dem Urteil am 22.01. zu Ende gehen. Mit den Prozessen im Budapest-Komplex wird ein Exempel statuiert – nicht nur gegen Einzelne, sondern gegen antifaschistische Praxis insgesamt. Die Behauptung einer kriminellen Vereinigung mit Mordabsichten stellt eine absurde juristische Eskalation des staatlichen Vorgehens gegen Antifaschist*innen dar und steht in keinem Verhältnis zu den verhandelten Vorkommnissen. Mit dieser Prozesswelle und den Repressionen gegen Freund*innen und Angehörige wird antifaschistisches Engagement massiv kriminalisiert und ein verzerrtes Bild von politischem Widerstand gezeichnet – während gleichzeitig rechte Gewalt europaweit zunimmt und faschistische Parteien erstarken. Wir sehen, dass Angriffe auf Rechtsstaatlichkeit und Zivilgesellschaf immer weiter zunehmen. Die Art und Weise, wie gegen die Antifas im Budapest-Komplex vorgegangen wird, ist ein Vorgeschmack darauf, wie politische Opposition in einer autoritäreren Zukunft behandelt werden könnte. Wir sind alle von der rechtsautoritären Entwicklung, von Faschisierung betroffen. Die Kriminalisierung von Antifas als „terroristische Vereinigung“ ist Teil einer (weltweiten) Entdemokratisierung und Zersetzung von Rechtsstaatlichkeit. 39c3
Programmierte Kriegsverbrechen?
Über KI-Systeme im Kriegseinsatz in Gaza und warum IT-Fachleute sich dazu äußern müssen
Die automatisierten Zielsysteme des israelischen Militärs zeigen gut, wie KI-baserte Kriegsautomatisierung aktuell aussieht, was daran falsch läuft und warum wir Techies uns einmischen müssen
Das Thema „KI in der Militärtechnik“ und die Beziehung zwischen Mensch und Maschine ist seit Jahrzehnten ein Thema in der Friedensbewegung, der Konfliktforschung, der Philosophie, den Sozialwissenschaften und den kritischen Data & Algorithm Studies. Doch in den letzten Jahren wurden Waffensysteme mit KI-Komponenten entwickelt und auch praktisch in bewaffneten Konflikten eingesetzt. Dabei reicht die Anwendung von Drohnensteuerung über optische Zielerfassung bis hin zur logistischen Zielauswahl. Am Beispiel KI-gestützter Zielwahlsysteme, die vom israelischen Militär seit Mai 2021 und insbesondere jetzt im Genozid in Gaza eingesetzt werden, können die aktuellen technischen Entwicklungen aufgezeigt und analysiert werden. Im Fokus dieses Talks stehen vier KI-unterstützte Systeme: Das System Gospel zur militärischen Bewertung von Gebäuden, das System Lavender zur militärischen Bewertung von Personen, das System Where’s Daddy? zur Zeitplanung von Angriffen und ein experimentelles System auf Basis großer Sprachmodelle zur Erkennung militärisch relevanter Nachrichten in palästinensischen Kommunikationsdaten.
Auf Basis der Aussagen von Whistleblower:innen des israelischen Militärs und Angestellten beteiligter Unternehmen wie Amazon, Google oder Microsoft sowie internen Dokumenten, die durch investigative Recherchen von mehreren internationalen Teams von Journalist:innen veröffentlicht wurden, können die Systeme und Designentscheidungen technisch detailliert beschrieben, kritisch analysiert sowie die militärischen und gesellschaftlichen Implikationen herausgearbeitet und diskutiert werden. Dabei entstehen auch Fragen bezüglich Verantwortungsverlagerung durch KI, Umgehung des Völkerrechts sowie die grundsätzliche Rolle von automatisierter Kriegsführung.
Am Schluss geht der Vortrag noch auf die Verantwortung von IT-Fachleuten ein, die ja das Wissen und Verständnis dieser Systeme mitbringen und daher überhaupt erst problematisieren können, wenn Systeme erweiterte oder gänzlich andere Funktionen erfüllen, als öffentlich und politisch oft kommuniziert und diskutiert wird. Überlegungen zu Handlungsoptionen und Auswegen leiten zuletzt die Diskussion ein. 39c3
And so it begins – Wie unser Rechtsstaat auf dem Highway Richtung Trumpismus rast – und warum afghanische Kläger*innen für uns die Notbremse ziehen
Wenn die Regierung sich nicht mehr an das eigene Recht gebunden fühlt, markiert das nicht nur einen politischen Spurwechsel, sondern die Auffahrt auf den Highway to Trumpism. Zeit die Notbremse zu ziehen! Normalerweise trifft es in solchen Situationen immer zuerst diejenigen, die sich am wenigsten wehren können. Doch was passiert, wenn genau diese Menschen mit juristischen Werkzeugen bewaffnet werden, um zurückzuschlagen? Anhand von über 100 Klagen afghanischer Schutzsuchender zeigen wir, wie Ministerien das Bundesaufnahmeprogramm sabotieren, Gerichte sie zurückpfeifen – und die Zivilgesellschaft zum letzten Schutzwall des Rechtsstaats wird. Und wir verraten, warum sich Beamte im BAMF vielleicht lieber krankmelden sollten und welche anderen Möglichkeiten sie haben, um nicht straffällig zu werden.
• Versprochen ist versprochen und wird auch nicht gebrochen“ – das lernen wir schon als Kinder. Aber der Kindergarten ist schon lange her, und Politiker*innen haben zwar oft das Auftreten eines Elefanten, aber das Gedächtnis eines Goldfischs. • Deswegen hätte die Bundesregierung auch fast 2.500 Afghan*innen mit deutschen Aufnahmezusagen in Islamabad „vergessen“, die dort seit Monaten auf die Ausstellung ihrer deutschen Visa warten • Das Kalkül dahinter: Pakistan erledigt die Drecksarbeit und schiebt sie früher oder später ab, Problem solved! – selbst wenn dabei Menschenleben auf dem Spiel stehen. • Wie kann die Zivilgesellschaft die Notbremse ziehen, wenn sich Regierung und Verwaltung nicht mehr an das eigene Recht gebunden fühlen? • Eine Möglichkeit: wir vernetzen die afghanischen Familien mit Anwält*innen, damit sie Dobrindt und Wadephul verklagen – und sie gewinnen! Die Gerichtsbeschlüsse sind eindeutig: Visa sofort erteilen – sonst Strafzahlungen! Inzwischen laufen über 100 Verfahren an vier Verwaltungsgerichten, weitere kommen täglich hinzu. • Das dürfte nicht ganz das gewesen sein, was die neue Bundesregierung meinte, als sie im Koalitionsvertrag verkündete, „freiwillige Aufnahmeprogramme so weit wie möglich zu beenden“. Übersetzung der politischen Realitätsversion: Wenn es nach Dobrindt und dem Kanzler geht, sollen möglichst gar keine Schutzsuchenden aus Afghanistan mehr nach Deutschland kommen – rechtsverbindliche Aufnahmezusagen hin oder her. Einreisen dürfen nur noch anerkannte Terroristen aus der Taliban-Regierung, um hier in Deutschland die afghanischen Botschaften und Konsulate zu übernehmen • Durch die Klagen konnten bereits 78 Menschen einreisen, etwa 80 weitere Visa sind in Bearbeitung – und weitere werden vorbereitet. • Doch wie in jedem Drehbuch gilt: The Empire strikes back! Die Regierung entwickelt laufend neue Methoden, um Urteile ins Leere laufen zu lassen und Einreisen weiterhin zu blockieren. • Willkommen im „Trumpismus made in Germany“. 39c3
Aber hier Leben? Nein danke! …oder doch? Wie wir der autoritären Zuspitzung begegnen können.
Im Osten stehen nächstes Jahr schon wieder Wahlen an und schon wieder sieht alles danach aus, als ob die AfD eine Regierungsbeteiligung bekommen könnte. Ganz konkret: In Sachsen-Anhalt und Mecklenburg-Vorpommern. Nicht nur diese „rosigen“ Aussichten, sondern auch aktuelle Bevölkerungsprognosen werfen gar kein günstiges Licht auf die Regionen. Linke Akteur:innen vor Ort kämpfen täglich dagegen an und sie brauchen unsere Solidarität. Wir müssen dem etwas entgegensetzen. Egal ob als Hacker:innen auf dem Congress oder Westdeutsche in (noch) Grünen Gemeinden.
Wo kommt das alles her? Wer macht aktuell etwas dagegen und wie können wir dem rechten Sog begegnen?
Mit dem „Super-Ost-Wahljahr“ 2024 (Landtagswahlen in Sachsen, Thüringen und Brandenburg) wurden bereits alle möglichen AfD-Regierungs-Horrorszenarien in Ostdeutschland in den Medien diskutiert und ausgemalt. Nächstes Jahr stehen jedoch noch die Landtagswahlen in Sachsen-Anhalt und Mecklenburg-Vorpommern an. Und die Prognosen sehen auch dort übel aus. Wären morgen Wahlen, würde die AfD in Sachsen-Anhalt 39% der Stimmen und in Mecklenburg-Vorpommern 38% bekommen. Um dem etwas entgegenzusetzen müssten wüste Bündnisse aus CDU, Die Linke, SPD und BSW entstehen. Kurzum: LSA und MV sind verloren!
Zusätzlich schrumpfen beide Bundesländer und altern gleichzeitig. In Sachsen-Anhalt gibt es keinen einzigen „wachsenden“ Ort. Weniger Kinder, immer mehr ältere Menschen, Fachkräftemangel und ein „Männerüberschuss“ – wer will da schon noch Leben und dem rechten Sog die Stirn bieten? Emanzipatorische Akteur:innen verlassen das Land, denn sie werden angegriffen und kriminalisiert. Also: Mauer drum und sich selbst überlassen? Ganz nach dem alten Tocotronic Song „Aber hier Leben? Nein danke!“
Wir wollen den Osten aber nicht aufgeben, deshalb beleuchten wir in unserem Talk, wie wir mit einer gemeinsamen Kraftanstrengung die Mauer vermeiden können – denn es gibt sie (noch): Die Gegenstimmen und Linken Aktiven die in beiden Bundesländern täglich die Fähnchen hochhalten. Ob die „Zora“ in Halberstadt, das „AZ Kim Hubert“ in Salzwedel oder das „Zentrum für Randale und Melancholie“ in Schwerin: Sie organisieren Austauschräume, alternative Konzerte und Orte, die für alle Menschen offen sind. Sie brauchen unseren Support und wir zeigen euch Möglichkeiten wie dieser aussehen könnte.
Außerdem wollen wir ins Gespräch kommen. Was hat eigentlich „der Westen“ mit all dem zu tun? Warum können wir es uns nicht länger leisten unpolitisch oder inaktiv zu sein? Wie kann die Chaos-Bubble sich in die ostdeutschen Herzen hacken? Und was können wir alle tun, um gemeinsam zu preppen und uns den Herausforderungen zu stellen? 39c3
The Last of Us – Fighting the EU Surveillance Law Apocalypse
The virus of surveillance is spreading across the European Union. In the form of its „ProtectEU“ Internal Security Strategy, the European Commission is planning to attack encryption, re-introduce mandatory data retention and strengthen Europol and Frontex, the main agents of its oppressive law enforcement infrastructure. In this talk, we will journey the wastelands of the EU surveillance apocalypse together: We will take a close look at what politicians are planning to undermine our fundamental rights, the technology involved, and the real harms we must fight. From there, we will chart pathways to resistance and collective immunity against a surveillance agenda that requires us to form new alliances and re-think mobilization.
Admidst its current push to remove the rules that have protected the EU’s environment, consumer and fundamental rights, there is one area the European Commission happily calls for more regulation: Internal security. The recent „ProtectEU“ Internal Security Strategy does little to protect Europeans, and instead foresees attacks on encryption, the re-introduction of mandatory data retention and the strengthening of Europol and Frontex, the main agents of the EU’s oppressive law enforcement infrastructure. In this talk, we will introduce the strategy and its main pillars, explain its political and legal contexts, and take a look at what it would mean for our fundamental rights, access to encryption, and IT security if enacted. But not all hope is lost (yet), and together we want to chart pathways to meaningful resistance. To do so, we will help understand the maze of the EU’s lawmaking process and identify pressure points. We will then look back at past fights, lessons learned and new opportunities to act in solidarity against a surveillance agenda that is truly apocalyptic. 39c3
Trump government demands access to European police databases and biometrics
The USA is demanding from all 43 countries in the „Visa Waiver Programme“ (VWP), which enables visa-free travel, to conclude an „Enhanced Border Security Partnership“ (EBSP). This is intended to grant US authorities direct access to police databases in these – mostly European – countries containing fingerprints, facial images and other personal data. Anyone who refuses this forced „border partnership“ faces exclusion from the visa-free travel programme.
The US demand is unprecedented: even EU member states do not grant each other such extensive direct database access – normally the exchange takes place via the „hit/no-hit principle“ with a subsequent request for further data. This is how it works, for example, in the Prüm Treaty among all Schengen states, which has so far covered fingerprints and DNA data and is now also being extended to facial images.
The EBSP could practically affect anyone who falls under the jurisdiction of border authorities: from passport controls to deportation proceedings. Under the US autocrat Donald Trump, this is a particular problem, as his militia-like immigration authority ICE is already using data from various sources to brutally persecute migrants – direct access to police data from VWP partners could massively strengthen this surveillance apparatus. Germany alone might give access to facial images of 5.5 million people and fingerprints of a similar dimension.
The USA has already tightened the Visa Waiver Programme several times, for instance in 2006 through the introduction of biometric passports and in 2008 through the ESTA pre-registration requirement. In addition, there were bilateral agreements for the exchange of fingerprints and DNA profiles – however, these may only be transmitted in individual cases involving serious crime.
Existing treaties such as the EU-US Police Framework Agreement are not applicable to the „Enhanced Border Security Partnership“, as it applies exclusively to law enforcement purposes. It is also questionable how the planned data transfer is supposed to be compatible with the strict data protection rules of the GDPR. The EU Commission therefore wants to negotiate a framework agreement on the EBSP that would apply to all member states. Time is running short: the US government has set VWP states a deadline of 31 December 2026. Some already agreed on a bilateral level. 39c3
Licensed to the public under http://creativecommons.org/licenses/by/4.0
Licensed to the public under http://creativecommons.org/licenses/by/4.0
Beim 39. Chaos Communication Congress sind auch Redakteur*innen und Autor*innen von netzpolitik.org auf der Bühne. Lest hier, wie ihr die Vorträge vor Ort oder per Stream verfolgt – und wann ihr die Redaktion persönlich vor Ort treffen könnt.
Unter dem Motto „Power Cycles“ startet am Samstag, 27. Dezember, der aktuelle Chaos Communications Congress. Mit dabei im vielfältigen Programm sind auch Menschen von netzpolitik.org. Lasst euch auf den aktuellen Stand unserer Recherchen bringen, blickt mit uns hinter Kulissen unserer Arbeit und trefft uns, wenn ihr mögt, persönlich!
Und selbst wenn ihr nicht in Hamburg dabei sein könnt: Die meisten Vorträge gibt es auch als Livestream und wenig später als Aufzeichnung unter media.ccc.de.
Seit Jahren schreibt netzpolitik.org-Redakteurin Chris Köver über Migrationskontrolle und deren Auswüchse. Im Jahr 2024 fingen deutsche Ausländerbehörden damit an, Smartphones von ausreisepflichtigen Menschen nicht nur zu durchsuchen, sondern gleich ganz zu behalten. In ihrem Vortrag schildert Chris die Konsequenzen für Betroffene und zeigt Beispiele für Widerstand.
Wohl kaum jemand in Deutschland hat so viele Artikel über die Chatkontrolle geschrieben wie netzpolitik.org-Redakteur Markus Reuter. Gemeinsam mit CCC-Sprecherin Khaleesi berichtet er von den überraschenden Wendungen im langen Kampf gegen die Chatkontrolle. Wieso sind jetzt sogar Unions-Fraktionsvorsitzender Jens Spahn (CDU) und der Chef der deutschen Polizeigewerkschaft, Rainer Wendt, gegen diese Form der Überwachung? Und was passiert als nächstes in der EU?
Seid live dabei, wenn die neueste Folge unseres Podcasts Off/On entsteht, und zwar mit einer Ausgabe „Off The Record“, in der wir euch hinter die Kulissen von netzpolitik.org mitnehmen, um unsere Arbeit transparent zu machen. Als Host wird euch netzpolitik.org-Redakteur Ingo Dachwitz begrüßen. Eingeladen sind Chris Köver, Esther Menhard und Markus Reuter. Sie sprechen über ihre Recherchen des Jahres: Wie sind sie vorgegangen, welche Hindernisse mussten sie überwinden? Und: Was haben die Recherchen ausgelöst?
Tag 2: Triff die netzpolitik.org-Redaktion vor Ort
📌 Sonntag, 28.12., 13:30 Uhr, vor dem Sendezentrum (Saal X 07)
Gut möglich, dass ihr während eurer Touren auf dem Congress ohnehin Mitgliedern der Redaktion begegnet. An diesem festen Termin habt ihr aber auf jeden Fall Gelegenheit, einige Redakteur*innen persönlich kennenzulernen oder wiederzusehen. Direkt im Anschluss zur Podcast-Aufzeichnung. Kommt gerne auf ein Getränk vorbei und schnappt euch ein paar Sticker!
Auch für deutsche Polizeibehörden analysiert Software des US-Unternehmens Palantir Daten. Dabei sind deren genaue Funktionsweisen unklar, die Nähe zur inzwischen rechtsradikalen US-Regierung verschärft die Bedenken. Mit Verfassungsbeschwerden engagieren sich Gesellschaft für Freiheitsrechte (GFF) und Chaos Computer Club (CCC) gegen den Einsatz von Palantir, unter anderem in Hessen, Hamburg und Bayern. Den Stand der Dinge schildern netzpolitik.org-Redakteurin und CCC-Sprecherin Constanze Kurz sowie GFF-Juristin Franziska Görlitz.
Gegen Ende des Congress ist es wieder Zeit für Facepalm-Momente: Es geht um Albträume der IT-Sicherheit, um „fieseste Angriffe“ und „teuerste Fehler“. Auch ein Ausblick auf das Jahr 2026 wird gewagt, präsentiert von Constanze Kurz und Ron.
Sebastian Meineck ist Journalist und seit 2021 Redakteur bei netzpolitik.org. Zu seinen aktuellen Schwerpunkten gehören digitale Gewalt, Databroker und Jugendmedienschutz. Er schreibt einen Newsletter über Online-Recherche und gibt Workshops an Universitäten. Das Medium Magazin hat ihn 2020 zu einem der Top 30 unter 30 im Journalismus gekürt. Seine Arbeit wurde mehrfach ausgezeichnet, unter anderem zweimal mit dem Grimme-Online-Award sowie dem European Press Prize.
TikTok erneut in der Kritik: Der Amnesty International-Bericht enthält sensible Inhalte, darunter Verweise auf Selbstverletzung und Selbstmord. (20.10.2025 von AI Frankreich) Eine neue Untersuchung von Amnesty International hat ergeben, dass der „For You”-Feed von TikTok französische Kinder und Jugendliche, die sich mit Inhalten zur psychischen Gesundheit beschäftigen, in einen Kreislauf aus Depressionen, Selbstverletzung und Selbstmord treibt. Die Untersuchung mit dem Titel „Dragged into the Rabbit Hole“ (In den Kaninchenbau gezogen) zeigt, dass TikTok es weiterhin versäumt, seine systemischen Designrisiken anzugehen, die Kinder und Jugendliche betreffen. „Unsere technische Untersuchung zeigt, wie schnell Teenager, die Interesse an Inhalten zum Thema psychische Gesundheit bekunden, in einen toxischen Kaninchenbau gezogen werden können. Innerhalb von nur drei bis vier Stunden nach der Nutzung des „For You”-Feeds von TikTok wurden die Testkonten von Teenagern Videos ausgesetzt, die Selbstmord romantisierten oder junge Menschen zeigten, die ihre Absicht zum Ausdruck brachten, sich das Leben zu nehmen, einschließlich Informationen über Selbstmordmethoden”, sagte Lisa Dittmer, Forscherin bei Amnesty International für die digitalen Rechte von Kindern und Jugendlichen. Original bei AI Bericht als PDF erhältlich (39 S.) Übersetzt mit DeepL.com (kostenlose Version)
France: Dragged into the rabbit hole: New evidence of TikTok’s risks to children’s mental health
Bringing together testimony from affected young people and parents in France as well as renewed technical research evidence, the briefing documents TikTok’s failure to address its systemic design risks for children and young people both under international business and human rights standards as well as under the company’s binding obligations under the EU’s Digital Services Act. It is an urgent appeal to the company itself, but also to EU and French regulators to take decisive action to force the company to respect children’s and human rights. (Bericht in englischer Sprache)
AI ist auf TikTok und gegen TikTok, Twitter/X etc. aktiv:
AI: „Die Tech-Konzernbesitzer Marc Zuckerberg und Elon Musk haben zu Beginn des Jahres die Spielregeln der digitalen Öffentlichkeit massiv verändert. So betrieb Musk wenige Wochen vor der Wahl des deutschen Bundestages Werbung für die AfD, bei einer nach eigenen Angaben weltweiten Reichweite von täglich rund 250 Millionen Nutzer*innen ein erheblicher Eingriff in die Meinungsbildung. Zuckerberg wiederum verkündete kurz vor dem Amtsantritt von Donald Trump als Präsident der USA für seinen Internetkonzern Meta das Ende von Faktenprüfungen und Beschränkungen bei politischen Äußerungen zu Migration und Geschlechterfragen. Betroffen sind davon, zunächst in den USA, die Plattformen Facebook, Instagram und Threads. So werden künftig menschenverachtende und diskriminierende Bezeichnungen etwa für Transpersonen nicht mehr gefiltert und gesperrt, sondern können ihren Weg durch die Algorithmen zu Milliarden Meta-Nutzer*innen weltweit finden. Das Recht auf freie Meinungsäußerung wird durch das Recht auf Hass und Hetze ersetzt.“ (von AI 2025)
Das Geschäftsmodell und die Funktionsweise von TikTok stellen eine Gefahr für junge Nutzer*innen der Plattform dar, da ihnen aufgrund von Empfehlungen in ihrem Feed Inhalte über Depressionen und Suizid angezeigt werden, die bestehende psychische Probleme verschlimmern könnten. Dies geht aus zwei neuen Berichten von Amnesty International hervor. Die beiden Berichte Driven into the Darkness: How TikTok Encourages Self-harm and Suicidal Ideation und I Feel Exposed: Caught in TikTok’s Surveillance Web machen auf Menschenrechtsverstöße aufmerksam, denen minderjährige und jugendliche TikTok-Nutzer*innen ausgesetzt sind. Die Berichte zeigen auf, inwiefern diese Verstöße dem Geschäftsmodell und der Funktionsweise der Plattform geschuldet sind.
TikToks Geschäftsmodell als Gefahr für Kinder und Jugendliche
Alte Überwachungsfantasien, neue KI-Systeme und junge Unterstützung
Wir haben Grund zum Feiern, denn die diesjährigen BigBrotherAwards sind unser 25. Jubiläum! Wir haben diesen Anlass genutzt, um eine neue Generation mit ins Boot zu holen: In einer neuen Kategorie „jung und überwacht“ haben Kinder und Jugendliche der Gruppe Teckids eigenständig zwei Beiträge zu den den alltäglichen Datenschutzproblemen der Jugend vorgestellt. In den restlichen Kategorien gab es kein Mangel an Preisträgerkandidaten, allen voran mit Innenminister Alexander Dobrindt (CSU). Weitere Preisträger sind die Social-Media-Plattform TikTok, das Unternehmen Google für den KI-Assistenten Gemini, sowie das Verwaltungsgericht Hannover und das Bundesarbeitsgericht. Abschließend wird der Bürokratieabbau in der Kategorie „Was mich wirklich wüten macht“ für die unerlässlichen Anstrengungen im Dienste der Big-Tech-Unternehmen ausgezeichnet. https://bigbrotherawards.de/2025
Der BigBrotherAward in der Kategorie Technik geht an Google für den KI-Assistenten Gemini, der ab jetzt unauffällig, aber zwangsweise auf Android Mobiltelefonen installiert wird. Gemini erhält Zugriff auf umfangreiche Nutzungs- und Kommunikationsdaten, die für das Training von Googles KI genutzt und auch von menschlichen Mitarbeitenden eingesehen werden. Darunter könnten komplette Chatverläufe fallen – ohne dass der Kommunikationspartner eingewilligt hat. Die Deaktivierung dieses KI-Assistenten erfordert komplexe Einstellungen in verschiedenen Menüs.
Behörden & Verwaltung (2025) –Bundesminister des Inneren Alexander Dobrindt
Der BigBrotherAward 2025 in der Kategorie „Behörden und Verwaltung“ geht an Bundes-Innenminister Alexander Dobrindt (CSU) für sein geplantes „Sicherheitspaket“, das den umfangreichen Einsatz von Gesichtersuchmaschinen vorsieht. Dobrindts Behörde will mit datenschutzwidrigen Anbietern wie Clearview AI und PimEyes zusammenarbeiten, die auf alle online zu findenden Bilder zugreifen – ganz gleich, ob sie mit oder ohne Einverständnis der Betroffenen eingestellt wurden. Der Entwurf des Innenministers zielt darauf, diese illegale Schnüffel-Praxis zu legitimieren. Zudem will Dobrindt die hochumstrittene Software Palantir des Anti-Demokraten Peter Thiel auf Bundesebene einführen.
Arbeitswelt (2025) –Verwaltungsgericht Hannover und das Bundesarbeitsgericht
Der BigBrotherAward in der Kategorie Arbeitswelt 2025 geht an das Verwaltungsgericht Hannover und das Bundesarbeitsgericht für krasse Fehlurteile in Sachen Amazon. Das Verwaltungsgericht hat die Totalüberwachung von Angestellten eines Amazon-Logistikzentrums abgesegnet. Das Bundesarbeitsgericht verweigerte einem Amazon-Betriebsrat das Mitbestimmungsrecht bei der Einführung einer Software, die Beschäftigtendaten rechtswidrig in den USA verarbeitet.
Social Media (2025) –TikTok
Den BigBrotherAward 2025 in der Kategorie „Social Media“ erhält die chinesische Plattform TikTok für Verletzungen des Datenschutzes, für die Verbreitung von Fake-News und Hatespeech, für die Manipulation von Menschen in Bezug auf ihre politischen Überzeugungen, ihre Wertvorstellungen und ihr Konsumverhalten durch undurchsichtige Algorithmen sowie für die Schaffung von Abhängigkeiten, insbesondere bei Minderjährigen.
Was mich wirklich wütend macht (2025) –Bürokratieabbau
Bürokratieabbau ist ein vergifteter Begriff. Er suggeriert, dass etwas für Bürger.innen einfacher wird. Tatsächlich aber geht es oft um Deregulierung und den Abbau von Gesetzen, die Verbraucher.innen schützen. Große US-Tech-Konzerne wollen die europäische Digitalgesetzgebung am liebsten komplett kippen. Die EU-Kommission und die deutsche Bundesregierung machen sich mitschuldig, wenn sie die Digitalgesetzgebung zur Verhandlungsmasse bei einem Deal um Strafzölle machen.
Aus der Laudatio: „Besonders engagiert beim Kampf gegen die Bürokratie sind Wirtschaftsunternehmen. Und ihre Vorfeldorganisationen wie die Lobbyisten von der „Initiative Neue Soziale Marktwirtschaft“. Die kriegen sich gar nicht wieder ein vor Eifer. Zumindest solange, wie es um staatliche Bürokratie geht. Aber ist Bürokratie ist wirklich per se eine staatliche Angelegenheit? Dann versuchen Sie mal, bei einem großen Konzern jemanden ans Telefon zu bekommen. Sobald es um ein Problem geht, wenn Sie Service brauchen, eine Frage haben, eine Beschwerde loswerden, ein Abo kündigen, eine Reparatur oder eine Rückerstattung haben wollen, wird jeder sinnvolle Kontakt planvoll erschwert und Sie werden durch kunstvoll orchestrierte Ermüdungsparcours geschickt. Um Amazon Prime oder Facebook zu kündigen, muss man sich durch komplizierte Navigationsmenüs durchklicken…“ Laudatorin Rena Tangens
NEU: Kategorie jung & überwacht (2025) -soziale Exklusion durch WhatsApp; iPad-Zwang in Schulen
In der Kategorie „jung & überwacht“ bei den BigBrotherAwards 2025 zeigt die Jugendorganisation Teckids zwei Probleme aus der digitalen Lebenswelt von Jugendlichen auf.
Die folgende Erläuterung der regierungseigenen Bundeszentrale für politische Bildung (bpb) für KI im Einsatz gegen Migration (euphemistisch: „Migrationsmanagement“), erläutert einige Aspekte dieser Problematik. Seit 9/11 führen nicht nur die USA, sondern offenbar „der Westen“, also auch wir, einen „Krieg gegen den Terror“, der eine Einschränkung von Bürgerrechten beinhaltet. Kontrolliert wird dabei prinzipiell jeder von uns, speziell aber die Gruppe der sogenannten „Gefährder“, die sich offenbar insbesondere bei Migranten finden lässt; ihr Merkmal ist „eine nicht näher konkretisierbare Gefährlichkeit, die sich in der Zukunft ausbilden könnte. (…) Ziel ist hierbei, schwer bestimmbare konkrete Zeitpunkte und Formen eines terroristischen Anschlags zu kontrollieren und damit auch aufsteigende Ängste in der Bevölkerung zu reagieren.“ Siehe: „Gefährder“: Der Migranten-Minority Report.
Ängste der Bevölkerung sollen also „reagiert werden“ (nicht auf sie reagieren!); ein typischer Freudscher Versprecher, bei dem die wahre Intention entschlüpfte? Sollen unsere Ängste „reagiert werden“, also reaktiviert, abreagiert oder agitiert werden? Ängste helfen Machthabern, Bevölkerungen zu kontrollieren und in ihrem Sinne zu manipulieren. Ängste machen Menschen bereit zum Hass, zur Blindheit für vernünftige Lösungen, zur fanatischen Aufrüstung und Militarisierung. Andersartige, Andersfarbige, Migranten sind dafür die naheliegenden Sündenböcke, vor denen im Sinne reaktionärer und rechtsextremer Ideologien Angst geschürt werden soll. Wo Multi-Milliarden und Billionen für Rüstung (statt für die Menschen) ausgegeben werden, fällt auch für BigTech und KI einiges ab: Die gleich genannte Überwachungsfirma ANDURIL klingt nicht zufällig ähnlich wie Peter Thiels PALANTIR. Projekte zur Emotionserkennung, KI-Lügendetektoren und vorausschauender Polizeiarbeit (engl. predictive policing) laufen bereits.
Wie dabei KI gegen Migranten eingesetzt wird erläutert für die Bundesregierung das bpb im jetzt folgenden Text von Petra Molnar. KI dient dabei für Prognosen zum Migrationsgeschehen, für Grenz- und Fernüberwachung, für Identitäts- und biometrische Systeme, Gesichtserkennung, Asyl- und Visumsbearbeitung, für die Steuerung von „Alternativen zur Inhaftierung“, die auf ständige Überwachung hinauslaufen. KI bildet den digitalen Stacheldrahtverhau auf den künftigen „smart borders“, die sozial benachteiligten Migranten jene Freizügigkeit rauben, die wohlhabenden Touristen (einstweilen noch) offensteht. Das völkerrechtlich gebotene (!) Asylrecht bleibt dabei auf der Strecke, wenn automatisierte Entscheidungen mit digitalem racial Bias oder ähnlichem Unrecht fallen.(T.Barth) Folgender Text übernommen von bpb:
Künstliche Intelligenz im Migrationsmanagement: Chancen, Herausforderungen und Risiken
Petra Molnar (bpb) 04.09.2025 / 9 Minuten zu lesen
Weltweit wird künstliche Intelligenz zunehmend im Migrationsmanagement eingesetzt – auch in der EU und in Deutschland. Welche Entwicklungen, Chancen und Risiken gehen damit einher?
verändert in rasanter Geschwindigkeit die Art und Weise, wie Regierungen Migration steuern und Grenzen kontrollieren. Von prognosebasierter Datenanalyse und Identitätsprüfung bis hin zu Grenzüberwachung und Asylentscheidungen – KI-Technologien werden zunehmend in die Infrastruktur der Migrationskontrolle in Europa und weltweit integriert. Dabei wird argumentiert, dass neue Technologien wie KI die Steuerungssysteme im Migrationsmanagement effizienter, sicherer und kostengünstiger machen können. Angesichts der aktuellen Entwicklungen im Bereich der digitalen Technologien bestehen jedoch auch ernsthafte Risiken für die Menschenrechte, die Privatsphäre und die Grundsätze des Asylrechts. Dieser Artikel basiert auf jahrelangen Forschungsarbeiten an verschiedenen Grenzen weltweit und gibt einen Überblick darüber, wie KI im Migrationsmanagement in Europa und weltweit eingesetzt wird. Wichtige Debatten über die Auswirkungen dieser Entwicklung auf Recht, Ethik und Gesellschaft werden dabei ebenfalls in den Blick genommen.
Wo und wie wird KI eingesetzt?
Weltweit und in der gesamten Europäischen Union (EU) wird KI mittlerweile in verschiedenen Phasen des Migrationsmanagements eingesetzt. Zu den wesentlichen Feldern gehören:
Grenzüberwachung: KI-gestützte Systeme werden zur Überwachung von Grenzen eingesetzt. Beispielsweise integriert das Europäische Grenzüberwachungssystem (Eurosur) Satellitenbilder, Drohnen und andere Sensordaten, die mit KI analysiert werden, um die Außengrenzen zu überwachen – insbesondere im Mittelmeerraum. An Landgrenzen und Flughäfen werden Algorithmen zur Gesichtserkennung und Objekterkennung eingesetzt, um Personen zu identifizieren, die irregulär einreisen oder als risikoreich gelten. In den Vereinigten Staaten stellen Unternehmen wie die US-amerikanische Firma Anduril autonome Überwachungstürme entlang der Südgrenze bereit, die mithilfe von KI-Überwachung Bewegungen erkennen und verfolgen und dabei helfen sollen, Personen in der Sonora-Wüste im Südwesten der USA abzufangen.
Identitäts- und biometrische Systeme: KI kann auch bei der Verarbeitung biometrischer Daten wie Fingerabdrücken, Iris-Scans und Gesichtsbildern zur Identitätsprüfung helfen. Eurodac, die EU-Datenbank, in der Fingerabdrücke von Asylbewerber:innen gespeichert werden, nutzt KI für einen effizienteren und genaueren Abgleich. In Deutschland hat das Bundesamt für Migration und Flüchtlinge (BAMF) eine Software zur Erkennung von Sprachen und Dialekten getestet, die die Herkunft von Personen, die einen Asylantrag gestellt haben, feststellen soll. Der Einsatz dieser Software hatte in der Folge Debatten darüber ausgelöst, wie genau und fair solche Systeme und ihre Ergebnisse sind. Die deutsche Bundespolizei setzt an wichtigen Verkehrsknotenpunkten und Grenzen biometrische und Gesichtserkennungstechnologien ein, darunter auch prognostische Komponenten. Gleichzeitig helfen automatisierte Dokumentenprüfsysteme dabei, gefälschte Reisedokumente zu identifizieren.
Asyl- und Visumsbearbeitung: KI-Anwendungen werden zunehmend zur Prüfung von Visums- und Asylanträgen eingesetzt. Einige Länder wie Kanada verwenden Algorithmen zum automatisierten Vorsortieren von Visumanträgen, während die Vereinigten Staaten Risikobewertungsalgorithmen einsetzen, die die Daten der Antragstellenden analysieren, um potenzielle Betrugs- oder Sicherheitsrisiken vorherzusagen, und dafür auch Daten verwenden, die aus sozialen Medien gesammelt wurden. Diese Systeme versprechen zwar Effizienz, werfen jedoch Bedenken hinsichtlich algorithmischer Verzerrungen, ordnungsgemäßer Verfahren und des Rechts auf individuelle Beurteilung auf. In Deutschland setzt das BAMF maschinelle Übersetzungsprogramme ein, um das Dolmetschen von Anhörungen im Asylverfahren und die automatisierte Dokumentenprüfung zu unterstützen. Fragen hinsichtlich ihrer Genauigkeit und möglichen Auswirkungen auf Asylentscheidungen bleiben hier bisher offen.
Prognosen zum Migrationsgeschehen: Regierungen und internationale Behörden wie die EU-Grenzschutzagentur Frontex nutzen KI zur Analyse großer Datensätze – darunter Daten aus sozialen Medien und Klimadaten –, um Migrationsmuster vorherzusagen. Diese zukunftsprognostizierenden Analysen sollen Frühwarnsysteme und die Ressourcenplanung unterstützen. Allerdings sind diese Modelle zur Vorhersage von Migrationsbewegungen oft nicht transparent. Befürchtet wird hierbei, dass sie zu präventiven Grenzschließungen oder Kontrollmaßnahmen sowie zu Aktivitäten wie dem Abfangen von Schutzsuchenden und illegalen Zurückweisungen ( Pushbacks) führen können.
Fernüberwachung und ‚Alternativen‘ zur Inhaftierung: Elektronische Fußfesseln, GPS-fähige Smartphones und Ortungsgeräte sowie KI-gesteuerte Check-in-Systeme werden als Alternativen zur Inhaftierung von Einwanderer:innen beworben, sind jedoch oft mit einer ständigen Überwachung verbunden. Diese Technologien werden in den USA, Großbritannien und anderen Ländern eingesetzt und manchmal an private Unternehmen ausgelagert.
Wer entwickelt und fördert diese Systeme?
An der Entwicklung von KI im Migrationsmanagement sind sowohl staatliche als auch privatwirtschaftliche Akteure beteiligt. Große Technologieunternehmen, Rüstungsfirmen und KI-Startups entwickeln und vermarkten Anwendungen für Regierungen. In Europa unterstützt die EU-Grenzschutzagentur Frontex technologische Innovationen, während die Finanzierung aus regionalen Forschungsprogrammen wie Horizon 2020 und dem Fonds für innere Sicherheit (ISF) stammt. Insbesondere Deutschland hat über das BAMF und die Bundespolizei in Identitätsfeststellungen anhand biometrischer Merkmale, Sprachanalyse und automatisierte Systeme zur Dokumentenanalyse investiert. An mehreren von der EU finanzierten Pilotprojekten waren auch deutsche Partner:innen beteiligt, darunter Universitäten und Forschungsinstitute.
Staaten wie die USA, Kanada und Australien sind ebenfalls führend im Bereich des Einsatzes von KI an ihren Grenzen und arbeiten häufig mit Technologieunternehmen wie den US-amerikanischen Firmen Palantir und Anduril oder der israelischen Firma Elbit Systems zusammen. Das Interesse des privaten Sektors ist Teil eines wachsenden und lukrativen, mehrere Milliarden Euro schweren „Industriekomplexes“ im Bereich der Grenzsicherung, in dem private Gewinninteressen und öffentliche Sicherheitsinteressen einander ergänzen.
Akteur:innen, die den Einsatz von KI im Migrationsbereich befürworten, verweisen auf mehrere potenzielle Vorteile. So wird häufig Effizienz als einer der wichtigsten Treiber für den Einsatz von KI-Anwendungen genannt. Staaten, die KI einsetzen argumentieren, dass die Automatisierung von Routineaufgaben Rückstände bei der Bearbeitung von Asyl- und Visumsanträgen reduzieren, die Datenanalyse optimieren und die Koordination zwischen den Behörden verbessern kann. Ein weiterer wichtiger Treiber ist das Versprechen der Genauigkeit und die Tatsache, dass KI den biometrischen Abgleich und die Identitätsprüfung verbessern und damit Betrug und Verwaltungsfehler reduzieren kann. Im Kontext des derzeitigen Fokus auf Sicherheit, der die Politikgestaltung im Bereich des Migrationsmanagements prägt, zielen die KI-gestützte verbesserte Überwachung und Risikobewertung darauf ab, irreguläre Grenzübertritte oder gefälschte Dokumente aufzudecken. Schließlich ist auch die Vorhersagekraft der KI verlockend, da KI-gestützte Prognosen als Möglichkeit dargestellt werden, sich auf umfangreiche Migrationsbewegungen vorzubereiten, humanitäre Maßnahmen zu unterstützen und Ressourcen besser zu verteilen.
Mit solchen Vorteilen vor Augen werden von Staaten und der Privatwirtschaft Investitionen in KI begründet, mit dem Ziel sogenannter „intelligenter Grenzen“ (smart borders). Diese sollen sowohl sicher als auch technologisch fortschrittlich sein. In Deutschland werden solche Innovationen auch als Teil einer umfassenderen Digitalisierung des Migrationsmanagements angesehen, die mit den EU-Strategien für die digitale Transformation im Einklang steht.
Herausforderungen und Kritik
Trotz dieser Versprechen argumentieren Akteure aus der Zivilgesellschaft, Forschende und Betroffenen, dass der Einsatz von KI im Migrationsmanagement ernsthafte ethische und rechtliche Risiken birgt. Beispielsweise können KI-Systeme Diskriminierung und systemischen Rassismus verschärfen, da sie oft die Vorurteile in den Daten widerspiegeln, mit denen sie trainiert wurden. So ist etwa die Gesichtserkennung bei Menschen mit dunklerer Hautfarbe weniger genau, was das Risiko für Fehler bei ihrer Identifizierung erhöht. Risikobewertungssysteme können Angehörige bestimmter Nationalitäten oder ethnischer Gruppen unverhältnismäßig stark benachteiligen. Außerdem mangelt es erheblich an Transparenz bei der Entwicklung und dem Einsatz neuer Technologien. Bei vielen KI-Systemen weiß die Öffentlichkeit nur wenig darüber, wie sie ihre Entscheidungen treffen. Diese Undurchsichtigkeit untergräbt die Rechenschaftspflicht und macht es für Betroffene schwierig, schädliche Folgen anzufechten, wenn Fehler gemacht werden.
Auch die Rechte auf Privatsphäre und Datenschutz sind betroffen: Werden biometrische und personenbezogene Daten gesammelt, gespeichert und analysiert, birgt dies erhebliche Risiken für die Privatsphäre, insbesondere wenn es um sensible Daten von marginalisierten Gruppen wie Menschen auf der Flucht geht. Die unbefugte Weitergabe von Daten und Hackerangriffe sind ebenfalls reale Bedrohungen. Zudem können Menschen auf der Flucht, die sich in einer prekären Lage befinden, oft keine sinnvolle Einwilligung in die Erfassung und den Umgang mit ihren Daten geben.
Rechtlich gesehen können KI- und Überwachungstechnologien, die Menschen daran hindern in Sicherheit zu gelangen, das bestehende Recht auf Asyl untergraben. Automatisierte Entscheidungen können außerdem dazu führen, dass Schutz überproportional verweigert wird oder es aufgrund fehlerhafter Risikobewertungen zu vermehrten Inhaftierungen kommt. Rechtliche Risiken dieser Art stünden im Widerspruch zum geltenden Völkerrecht, das eine individuelle Prüfung von Asylgesuchen und das Non-Refoulement-Prinzip
beinhaltet. Auch ist oft unklar, wer für durch KI verursachte Schäden verantwortlich ist und haftbar gemacht werden kann – der Staat, ein Auftragnehmer, der Softwareentwickler oder die Person bei der Einwanderungsbehörde, die die Anwendung verwendet? Oft ist der Rechtsschutz in diesem neueren Bereich wenig ausgeprägt, was das Einlegen von Rechtsmitteln erschwert – insbesondere in Grenzgebieten, die bereits von intransparenten und ermessensabhängigen Entscheidungen geprägt sind.
Rechtliche Rahmenbedingungen und Kontrolle
Derzeit ist die globale Regulierung im Bereich der KI noch schwach, wobei Innovationen Vorrang vor rechtsbasierten Ansätzen für digitale Grenzkontrolltechnologien haben. Allerdings gelten mehrere internationale und regionale Rechtsinstrumente für den KI-Einsatz im Migrationsbereich. So schützt beispielsweise der Internationale Pakt über bürgerliche und politische Rechte (ICCPR) das Recht auf Privatsphäre (Artikel 17) und das Recht auf Freiheit und Sicherheit (Artikel 9). Diese Rechte müssen im Migrationskontext auch bei der Anwendung von Technologien gewahrt werden. Die Genfer Flüchtlingskonvention von 1951 verpflichtet die Staaten zudem, Zugang zu Asyl zu gewähren und verbietet die Zurückweisung in Gebiete, in denen den betroffenen Personen Folter oder unmenschliche oder erniedrigende Behandlung drohen (Artikel 33). Automatisierte Entscheidungen, die den Zugang zum Asylbegehren blockieren, können gegen diese Schutzbestimmungen verstoßen. Nach EU-Recht regelt die Datenschutz-Grundverordnung (DSGVO) die Datenverarbeitung, einschließlich biometrischer Daten, und die EU-Grundrechtecharta garantiert das Recht auf Privatsphäre, Datenschutz und Nichtdiskriminierung. Vor kurzem hat die EU das Gesetz zur Regulierung künstlicher Intelligenz verabschiedet. Allerdings liegt hier nicht der Schutz der Rechte von Menschen auf der Flucht im Fokus.
Deutschland unterliegt als EU-Mitgliedstaat diesen rechtlichen Rahmenbedingungen, entwickelt jedoch auch eigene Durchführungsbestimmungen. Zivilgesellschaftliche Organisationen, die sich für die Rechte von Flüchtlingen und Migrant:innen einsetzen, haben mehr Transparenz hinsichtlich des Einsatzes von KI in der deutschen Migrationspolitik gefordert, darunter die Offenlegung von Verträgen und Folgenabschätzungen. Die Kontrolle in der Praxis bleibt jedoch begrenzt. Grenzgebiete unterliegen oft Notfall- oder Ausnahmeregelungen. Zudem können private Unternehmen Technologien durch Geschäftsgeheimnisse schützen. Unabhängige systematische Überprüfungen, Folgenabschätzungen und Kontrollmöglichkeiten sind jedoch für eine rechtskonforme Entwicklung und den Einsatz von Technologien an den Grenzen und zur Steuerung der Migration notwendig.
Ausblick
In einer von technologischem Fortschritt geprägten Welt, wird KI voraussichtlich eine immer wichtigere Rolle im Migrationsmanagement spielen. So werden beispielsweise das künftige Einreise-/Ausreisesystem (EES) der EU und das Europäische Reiseinformations- und -genehmigungssystem (ETIAS) KI für das Erstellen von Risikoprofilen und automatisierte Grenzkontrollen nutzen. Projekte zur Emotionserkennung, KI-Lügendetektoren und vorausschauender Polizeiarbeit wurden ebenfalls bereits getestet, allerdings auch weithin kritisiert.
Wissenschaftler:innen und Menschenrechtsorganisationen fordern einen vorsorgenden Ansatz: gründliche Tests, um zu gewährleisten, dass Menschenrechte eingehalten werden, Transparenz und Kontrollmechanismen sowie eine breite öffentliche Debatte, bevor Technologien eingeführt werden. Einige Akteur:innen, darunter das Büro des Hochkommissars der Vereinten Nationen für Menschenrechte (OHCHR), schlagen ein vorübergehendes Aussetzen bestimmter Migrationstechnologien vor, insbesondere in Hochrisikosituationen. Vor allem aber werden die künftigen Entwicklungen der KI im Bereich Migration und an den Grenzen nicht nur von rechtlichen Garantien und demokratischer Rechenschaftspflicht abhängen, sondern auch davon, dass die menschlichen Kosten dieser Technologien anerkannt werden. KI-Systeme sind keine abstrakten Werkzeuge. Sie wirken sich auf reale Menschen aus, die sich oft in prekären und unsicheren Situationen befinden. Es ist wichtig, die Erfahrungen und Rechte von Menschen auf der Flucht in Diskussionen über den Einsatz von KI einzubeziehen.
KI-Anwendungen für das Migrationsmanagement werfen tiefgreifende rechtliche, ethische und soziale Fragen auf. Wenn Regierungen neue Technologien einführen, gilt es sicherzustellen, dass Effizienz und Sicherheit mit Menschenrechten, Würde und Gerechtigkeit vereinbar bleiben. Im Mittelpunkt dieser Debatten stehen Menschen, nicht nur Datenpunkte. Transparente Regeln, eine strenge Kontrolle und die Verpflichtung zu einem menschenzentrierten Design, das auch das Fachwissen der betroffenen Individuen und Communities berücksichtigt, sollten jede zukünftige Nutzung von KI im Migrationsbereich leiten.
Dieser Text ist unter der Creative Commons Lizenz „CC BY-NC-ND 4.0 – Namensnennung – Nicht kommerziell – Keine Bearbeitungen 4.0 International“ veröffentlicht. Autor/-in: Petra Molnar für bpb.de. Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 4.0 und des/der Autors/-in teilen. Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.
Wer das Deutschlandticket kaufen möchte, wird von der Deutschen Bahn schnell auf ihren „DB Schnüffel-Navigator“ geleitet. Viele Verkehrsunternehmen bieten das Ticket aber auch datensparsamer über Chipkarte und Co. an.
Das Deutschlandticket ist ein weithin anerkannter Erfolg. Doch die Umsetzung dieses Angebots ist ein weiteres Beispiel für den fatal falschen Begriff von Digitalisierung, der sich hierzulande breitmacht. Um in dieser undurchsichtigen Lage nicht den Überblick zu verlieren, haben wir eine Liste mit Hinweisen zusammengestellt, bei welchen Verkehrsunternehmen das Deutschlandticket möglichst datenschutzfreundlich gekauft und genutzt werden kann. So können Sie sich über die Angebote informieren und sich nach Ihren Wünschen für eine datensparsamere Option entscheiden.
Bei der Auswahl sind Sie nicht auf Ihre lokalen Verkehrsunternehmen beschränkt, denn die meisten Unternehmen bieten ihre Deutschlandtickets online an und verlangen nicht, dass Sie in einer bestimmten Region wohnen. Wer das Deutschlandticket allerdings analog erwerben möchte, findet eine Vielzahl an Städten, wo das Abo vor Ort abgeschlossen werden kann – auch die Bestellung per Post ist möglich. Voller Artikel auf Digitalcourage
Das gute digitale Leben setzt voraus, dass wir Digitalisierung nicht mit Überwachung gleichsetzen und immer auch Wahlfreiheit haben, analog zu bleiben.
Millionen Follower, null Wirkung: „Social Media“ verkauft uns ein volles Stadion – und schaltet dann das Mikro stumm.
Das riesige Fußballstadion ist vollbesetzt. Das Mikrofon liegt in Ihrer Hand. „Wenn Sie dort rein sprechen“ – so hat man es Ihnen immer wieder erklärt – „erreichen Sie besonders viele Menschen.“ In Wahrheit aber ist das Mikro nur für die Reihen eins bis drei freigeschaltet. Von den 80.000 Anwesenden hört Sie tatsächlich kaum jemand.
So funktioniert das bei allen sozialen Medien mit Algorithmus. Es gibt nur einen Unterschied: Sie merken nicht, dass Sie kaum jemand hört und denken, Sie hätten mordsmäßig viele Leute erreicht. Denn die Reichweitenlüge, ein Begriff, den unser Gründungsmitglied padeluun geprägt hat, ist tief in unseren Überzeugungen angelangt.
Follower sind nicht gleich Follower
In jeder Diskussion über die Probleme der giergetriebenen sozialen Medien kommt irgendwann das Reichweiten-Argument: Da sind halt alle und dort müsse man die Menschen abholen und man tue sich ja keinen Gefallen, wenn man im Fediverse in einer Nische hockt. Dabei passiert ein grundlegender Fehler: Man darf nämlich die Follower im Fediverse nicht mit jenen auf Instagram oder X gleichsetzen. Bei Letzteren sagt es nämlich gar nicht so viel aus, wie wir denken. Denn die eigenen Follower kriegen nicht alle eigenen Posts eingeblendet. Auch da entscheidet der Algorithmus mit. Deshalb spreche ich im Fediverse gerne von „Qualitätsfollowern“. Denn die kriegen ausnahmslos alle Nachrichten angezeigt. Vielleicht erklärt sich auch so, weshalb Digitalcourage dort mit viel weniger Boosts (so nennt man dort die Shares bzw. Retweets), so viel mehr Antworten erhält.
Als X noch Twitter hieß und Digitalcourage dort auch noch einen aktiven Account betrieb, haben wir das selbst erlebt: Während unsere Inhalte im Fediverse mit deutlich weniger Followern lebhaft geteilt und kommentiert wurden, versandeten die gleichen Beiträge unseres (damals) erheblich followerstärkeren Twitter-Accounts. Follower meldeten uns immer wieder: „Wir haben eure Posts gar nicht gesehen.“ Mit einem Viertel an Followern erhielten wir im Fediverse doppelt so viel Aufmerksamkeit. So viel zur angeblich ach so viel größeren Reichweite auf Twitter. Der Algorithmus hatte uns einfach ausgeblendet. Aber wie lässt sich das belegen oder sichtbar machen? Was viele nicht bedenken: Wenn mir der Algorithmus bestimmte Inhalte zeigt, bedeutet das gleichzeitig, dass er mir andere unterschlägt.
Erfolg als Illusion
Außerdem sehen wir ja immer nur die wenigen Erfolgsstories, die von der manipulierten Öffentlichkeit profitieren. Wir blenden dann schnell aus, dass es sich um seltene Ausnahmen handelt – um die Überlebenden einer gigantischen Auslese. Was nach allgemeinem Erfolg aussieht, ist in Wahrheit nur der „Survivorship Bias“: Wir sehen die paar Accounts, die dank Algorithmen durch die Decke gehen, und vergessen die unzähligen, die im Schatten bleiben. Da wollen wir natürlich dazu gehören. Genau mit diesem Trick füttern uns die giergetriebenen sozialen Medien – sie zeigen uns die Stars, damit wir glauben, alle könnten so glänzen.
Unzumutbare Spielregeln
Das ist allerdings eine Lüge. Denn das Versprechen der großen Reichweite entpuppt sich bei näherem Hinsehen als Scheinriese. Eine große Reichweite erreichen Sie dort nur dann, wenn Sie bereit sind, sich den Spielregeln der Plattformen zu unterwerfen:
Wenn sich Ihre Inhalte gut kommerzialisieren lassen, also seicht, gefällig und bloß nicht zu intelligent sind.
Wenn Sie bezahlen – Reichweite gegen Geld geht immer.
Wenn Sie Inhalte auf Klick-Format eindampfen, bunt bebildern und dauernd Content rauspusten.
Wenn Sie besonders pointiert, polarisierend oder wutträchtig posten.
Wenn Sie alles bis zur Unkenntlichkeit verkürzen, keine Links setzen und sich an einer unkonstruktiven Diskussionskultur beteiligen.
Und wenn es Sie nicht stört, in rechtsextremer Gesellschaft zu posten, deren Inhalte stets viel mehr Reichweite kriegen werden.
Für alle anderen ist die Reichweite sehr viel kleiner, als es den Anschein hat. Lange, differenzierte oder ausgewogene Inhalte lassen sich nicht gut monetarisieren – und werden oft einfach nicht angezeigt. Das angeblich so große Reichweitenpotential steht Ihnen dann schlicht nicht zur Verfügung.
Retorten-Reichweite
Hinzu kommt: Die hohen Nutzendenzahlen dieser Plattformen sind vor allem Potential – aber nicht Realität. Wer tatsächlich viele Menschen erreicht, entscheidet allein der Algorithmus. Und in diesen Zahlen stecken ohnehin massenhaft Bots, Karteileichen, Spam-Accounts und Trolle, die Hassnachrichten verbreiten. Die schöne große Bühne ist in Wahrheit vollgestopft mit Geisterpublikum.
Das mit der Reichweite ist eine große Lüge. Wir lassen uns von Zahlen blenden, die genau gar nichts aussagen. Am Ende bleiben von Gier getriebene soziale Medien das, was sie sind: Manipulationsmaschinen, die uns glauben machen wollen, wir sprächen ins volle Stadion – während sie heimlich die Lautsprecher nur für bestimmte Reihen anschalten.
Die Reichweite ist nicht groß. Sie ist frisiert: abhängig von der Gnade jener Konzerne, die davon profitieren, uns gegeneinander aufzuhetzen.
Ehrliche Reichweite gibts im Fediverse
Dann doch lieber ins Fediverse: Da sind zwar in absoluten Zahlen aktuell noch weniger Leute unterwegs. Doch eine Community, die ich mir dort aufgebaut habe, wird mir erhalten bleiben und es gibt keinen Algorithmus, der sich zwischen mich und meine Leser.innen stellt und meine Nachrichten verschwinden lässt, weil sie nicht hasserfüllt genug sind.
Digitalcourage engagiert sich seit 1987 für Grundrechte, Datenschutz und eine lebenswerte Welt im digitalen Zeitalter. Wir sind technikaffin, doch wir wehren uns dagegen, dass unsere Demokratie „verdatet und verkauft“ wird. Seit 2000 verleihen wir die BigBrotherAwards. Digitalcourage ist gemeinnützig, finanziert sich durch Spenden und lebt von viel freiwilliger Arbeit. Mehr zu unserer Arbeit.
Info-Material zu Digitalter Mündigkeit bei Digitalcourage
In unserer Wissensreihe kurz&mündig werden komplexe Themen auf wenigen Seiten im kleinen Format herunter gebrochen, so dass alle sie verstehen können. Immer nach dem Motto: Man muss nicht alles wissen, aber man sollte wissen, wovon man keine Ahnung hat. „kurz&mündig“ entsteht als Zusammenarbeit von Digitalcourage und Art d’Ameublement. Wir nennen sie manchmal scherzhaft „Pixi-Bücher für Erwachsene“.
Man wollte nur mal schnell seine Lohnabrechnung herunterladen. Ein paar Klicks, ein PDF, fertig – so die Vorstellung. Was man stattdessen bekommt, ist ein bürokratisch-technisches Hindernisrennen aus gesperrten Konten, nicht funktionierenden Apps, Zwei-Faktor-Hürden und digitalem Frust. Willkommen im deutschen Alltag 2025, wo die Digitalisierung nicht vereinfacht, sondern verkompliziert. Was nach „mehr Sicherheit“ klingt, ist in Wirklichkeit ein neuer Zwangspfad. Eine politische Regulierung wäre dringend nötig.
Günther Burbach analysiert auf den Nachdenkseiten.de „ein technisches System, das vorgibt, sicher und effizient zu sein, in Wahrheit aber viele Menschen ausschließt, frustriert und in Abo-Fallen treibt.“ (Voller Text)
Beitrag ist dort auch als Audio-Podcast verfügbar.