10/16/25

25 Jahre BigBrotherAwards

25 Jahre BigBrotherAwards:

Alte Überwachungsfantasien, neue KI-Systeme und junge Unterstützung

Wir haben Grund zum Feiern, denn die diesjährigen BigBrotherAwards sind unser 25. Jubiläum! Wir haben diesen Anlass genutzt, um eine neue Generation mit ins Boot zu holen: In einer neuen Kategorie „jung und überwacht“ haben Kinder und Jugendliche der Gruppe Teckids eigenständig zwei Beiträge zu den den alltäglichen Datenschutzproblemen der Jugend vorgestellt. In den restlichen Kategorien gab es kein Mangel an Preisträgerkandidaten, allen voran mit Innenminister Alexander Dobrindt (CSU). Weitere Preisträger sind die Social-Media-Plattform TikTok, das Unternehmen Google für den KI-Assistenten Gemini, sowie das Verwaltungsgericht Hannover und das Bundesarbeitsgericht. Abschließend wird der Bürokratieabbau in der Kategorie „Was mich wirklich wüten macht“ für die unerlässlichen Anstrengungen im Dienste der Big-Tech-Unternehmen ausgezeichnet. https://bigbrotherawards.de/2025

Die (unglücklichen) Preisträger 2025

Google, Dobrindt, Bundesarbeitsgericht (Amazon), TikTok, „ Bürokratieabbau“, WhatsApp & iPad-Zwang in Schulen

Technik (2025) –Google

Der BigBrotherAward in der Kategorie Technik geht an Google für den KI-Assistenten Gemini, der ab jetzt unauffällig, aber zwangsweise auf Android Mobiltelefonen installiert wird. Gemini erhält Zugriff auf umfangreiche Nutzungs- und Kommunikationsdaten, die für das Training von Googles KI genutzt und auch von menschlichen Mitarbeitenden eingesehen werden. Darunter könnten komplette Chatverläufe fallen – ohne dass der Kommunikationspartner eingewilligt hat. Die Deaktivierung dieses KI-Assistenten erfordert komplexe Einstellungen in verschiedenen Menüs.

Behörden & Verwaltung (2025) –Bundesminister des Inneren Alexander Dobrindt

Der BigBrotherAward 2025 in der Kategorie „Behörden und Verwaltung“ geht an Bundes-Innenminister Alexander Dobrindt (CSU) für sein geplantes „Sicherheitspaket“, das den umfangreichen Einsatz von Gesichtersuchmaschinen vorsieht. Dobrindts Behörde will mit datenschutzwidrigen Anbietern wie Clearview AI und PimEyes zusammenarbeiten, die auf alle online zu findenden Bilder zugreifen – ganz gleich, ob sie mit oder ohne Einverständnis der Betroffenen eingestellt wurden. Der Entwurf des Innenministers zielt darauf, diese illegale Schnüffel-Praxis zu legitimieren. Zudem will Dobrindt die hochumstrittene Software Palantir des Anti-Demokraten Peter Thiel auf Bundesebene einführen.

Arbeitswelt (2025) –Verwaltungsgericht Hannover und das Bundesarbeitsgericht

Der BigBrotherAward in der Kategorie Arbeitswelt 2025 geht an das Verwaltungsgericht Hannover und das Bundesarbeitsgericht für krasse Fehlurteile in Sachen Amazon. Das Verwaltungsgericht hat die Totalüberwachung von Angestellten eines Amazon-Logistikzentrums abgesegnet. Das Bundesarbeitsgericht verweigerte einem Amazon-Betriebsrat das Mitbestimmungsrecht bei der Einführung einer Software, die Beschäftigtendaten rechtswidrig in den USA verarbeitet.

Social Media (2025) –TikTok

Den BigBrotherAward 2025 in der Kategorie „Social Media“ erhält die chinesische Plattform TikTok für Verletzungen des Datenschutzes, für die Verbreitung von Fake-News und Hatespeech, für die Manipulation von Menschen in Bezug auf ihre politischen Überzeugungen, ihre Wertvorstellungen und ihr Konsumverhalten durch undurchsichtige Algorithmen sowie für die Schaffung von Abhängigkeiten, insbesondere bei Minderjährigen.

Was mich wirklich wütend macht (2025) –Bürokratieabbau

Bürokratieabbau ist ein vergifteter Begriff. Er suggeriert, dass etwas für Bürger.innen einfacher wird. Tatsächlich aber geht es oft um Deregulierung und den Abbau von Gesetzen, die Verbraucher.innen schützen. Große US-Tech-Konzerne wollen die europäische Digitalgesetzgebung am liebsten komplett kippen. Die EU-Kommission und die deutsche Bundesregierung machen sich mitschuldig, wenn sie die Digitalgesetzgebung zur Verhandlungsmasse bei einem Deal um Strafzölle machen.

Aus der Laudatio: „Besonders engagiert beim Kampf gegen die Bürokratie sind Wirtschaftsunternehmen. Und ihre Vorfeldorganisationen wie die Lobbyisten von der „Initiative Neue Soziale Marktwirtschaft“. Die kriegen sich gar nicht wieder ein vor Eifer. Zumindest solange, wie es um staatliche Bürokratie geht. Aber ist Bürokratie ist wirklich per se eine staatliche Angelegenheit? Dann versuchen Sie mal, bei einem großen Konzern jemanden ans Telefon zu bekommen. Sobald es um ein Problem geht, wenn Sie Service brauchen, eine Frage haben, eine Beschwerde loswerden, ein Abo kündigen, eine Reparatur oder eine Rückerstattung haben wollen, wird jeder sinnvolle Kontakt planvoll erschwert und Sie werden durch kunstvoll orchestrierte Ermüdungsparcours geschickt. Um Amazon Prime oder Facebook zu kündigen, muss man sich durch komplizierte Navigationsmenüs durchklicken…“ Laudatorin Rena Tangens

NEU: Kategorie jung & überwacht (2025) -soziale Exklusion durch WhatsApp; iPad-Zwang in Schulen

In der Kategorie „jung & überwacht“ bei den BigBrotherAwards 2025 zeigt die Jugendorganisation Teckids zwei Probleme aus der digitalen Lebenswelt von Jugendlichen auf.

mehr siehe:

https://bigbrotherawards.de/2025

10/3/25

Grenzpolizist Big Brother: Migrations-Management-KI

Die folgende Erläuterung der regierungseigenen Bundeszentrale für politische Bildung (bpb) für KI im Einsatz gegen Migration (euphemistisch: „Migrationsmanagement“), erläutert einige Aspekte dieser Problematik. Seit 9/11 führen nicht nur die USA, sondern offenbar „der Westen“, also auch wir, einen „Krieg gegen den Terror“, der eine Einschränkung von Bürgerrechten beinhaltet. Kontrolliert wird dabei prinzipiell jeder von uns, speziell aber die Gruppe der sogenannten „Gefährder“, die sich offenbar insbesondere bei Migranten finden lässt; ihr Merkmal ist „eine nicht näher konkretisierbare Gefährlichkeit, die sich in der Zukunft ausbilden könnte. (…) Ziel ist hierbei, schwer bestimmbare konkrete Zeitpunkte und Formen eines terroristischen Anschlags zu kontrollieren und damit auch aufsteigende Ängste in der Bevölkerung zu reagieren.“ Siehe: „Gefährder“: Der Migranten-Minority Report.

Ängste der Bevölkerung sollen also „reagiert werden“ (nicht auf sie reagieren!); ein typischer Freudscher Versprecher, bei dem die wahre Intention entschlüpfte? Sollen unsere Ängste „reagiert werden“, also reaktiviert, abreagiert oder agitiert werden? Ängste helfen Machthabern, Bevölkerungen zu kontrollieren und in ihrem Sinne zu manipulieren. Ängste machen Menschen bereit zum Hass, zur Blindheit für vernünftige Lösungen, zur fanatischen Aufrüstung und Militarisierung. Andersartige, Andersfarbige, Migranten sind dafür die naheliegenden Sündenböcke, vor denen im Sinne reaktionärer und rechtsextremer Ideologien Angst geschürt werden soll. Wo Multi-Milliarden und Billionen für Rüstung (statt für die Menschen) ausgegeben werden, fällt auch für BigTech und KI einiges ab: Die gleich genannte Überwachungsfirma ANDURIL klingt nicht zufällig ähnlich wie Peter Thiels PALANTIR. Projekte zur Emotionserkennung, KI-Lügendetektoren und vorausschauender Polizeiarbeit (engl. predictive policing) laufen bereits.

Wie dabei KI gegen Migranten eingesetzt wird erläutert für die Bundesregierung das bpb im jetzt folgenden Text von Petra Molnar. KI dient dabei für Prognosen zum Migrationsgeschehen, für Grenz- und Fernüberwachung, für Identitäts- und biometrische Systeme, Gesichtserkennung, Asyl- und Visumsbearbeitung, für die Steuerung von „Alternativen zur Inhaftierung“, die auf ständige Überwachung hinauslaufen. KI bildet den digitalen Stacheldrahtverhau auf den künftigen „smart borders“, die sozial benachteiligten Migranten jene Freizügigkeit rauben, die wohlhabenden Touristen (einstweilen noch) offensteht. Das völkerrechtlich gebotene (!) Asylrecht bleibt dabei auf der Strecke, wenn automatisierte Entscheidungen mit digitalem racial Bias oder ähnlichem Unrecht fallen. (T.Barth) Folgender Text übernommen von bpb:

Künstliche Intelligenz im Migrationsmanagement: Chancen, Herausforderungen und Risiken

Petra Molnar (bpb) 04.09.2025 / 9 Minuten zu lesen

Weltweit wird künstliche Intelligenz zunehmend im Migrationsmanagement eingesetzt – auch in der EU und in Deutschland. Welche Entwicklungen, Chancen und Risiken gehen damit einher?

Überwachungsturm von Elbit Systems, Arizona, USA. Solche Überwachsungstürme entlang der Grenze zu Mexiko erkennen mithilfe von KI-Überwachung Bewegungen und sollen so dabei helfen, Personen in der Sonora-Wüste im Südwesten der USA abzufangen. (© Petra Molnar, Abbildungen fehlen hier aufgrund urheberrechtlicher Gründe)

Künstliche Intelligenz (KI)

verändert in rasanter Geschwindigkeit die Art und Weise, wie Regierungen Migration steuern und Grenzen kontrollieren. Von prognosebasierter Datenanalyse und Identitätsprüfung bis hin zu Grenzüberwachung und Asylentscheidungen – KI-Technologien werden zunehmend in die Infrastruktur der Migrationskontrolle in Europa und weltweit integriert. Dabei wird argumentiert, dass neue Technologien wie KI die Steuerungssysteme im Migrationsmanagement effizienter, sicherer und kostengünstiger machen können. Angesichts der aktuellen Entwicklungen im Bereich der digitalen Technologien bestehen jedoch auch ernsthafte Risiken für die Menschenrechte, die Privatsphäre und die Grundsätze des Asylrechts. Dieser Artikel basiert auf jahrelangen Forschungsarbeiten an verschiedenen Grenzen weltweit und gibt einen Überblick darüber, wie KI im Migrationsmanagement in Europa und weltweit eingesetzt wird. Wichtige Debatten über die Auswirkungen dieser Entwicklung auf Recht, Ethik und Gesellschaft werden dabei ebenfalls in den Blick genommen.

Wo und wie wird KI eingesetzt?

Weltweit und in der gesamten Europäischen Union (EU) wird KI mittlerweile in verschiedenen Phasen des Migrationsmanagements eingesetzt. Zu den wesentlichen Feldern gehören:

Grenzüberwachung: KI-gestützte Systeme werden zur Überwachung von Grenzen eingesetzt. Beispielsweise integriert das Europäische Grenzüberwachungssystem (Eurosur) Satellitenbilder, Drohnen und andere Sensordaten, die mit KI analysiert werden, um die Außengrenzen zu überwachen – insbesondere im Mittelmeerraum. An Landgrenzen und Flughäfen werden Algorithmen zur Gesichtserkennung und Objekterkennung eingesetzt, um Personen zu identifizieren, die irregulär einreisen oder als risikoreich gelten. In den Vereinigten Staaten stellen Unternehmen wie die US-amerikanische Firma Anduril autonome Überwachungstürme entlang der Südgrenze bereit, die mithilfe von KI-Überwachung Bewegungen erkennen und verfolgen und dabei helfen sollen, Personen in der Sonora-Wüste im Südwesten der USA abzufangen.

Identitäts- und biometrische Systeme: KI kann auch bei der Verarbeitung biometrischer Daten wie Fingerabdrücken, Iris-Scans und Gesichtsbildern zur Identitätsprüfung helfen. Eurodac, die EU-Datenbank, in der Fingerabdrücke von Asylbewerber:innen gespeichert werden, nutzt KI für einen effizienteren und genaueren Abgleich. In Deutschland hat das Bundesamt für Migration und Flüchtlinge (BAMF) eine Software zur Erkennung von Sprachen und Dialekten getestet, die die Herkunft von Personen, die einen Asylantrag gestellt haben, feststellen soll. Der Einsatz dieser Software hatte in der Folge Debatten darüber ausgelöst, wie genau und fair solche Systeme und ihre Ergebnisse sind. Die deutsche Bundespolizei setzt an wichtigen Verkehrsknotenpunkten und Grenzen biometrische und Gesichtserkennungstechnologien ein, darunter auch prognostische Komponenten. Gleichzeitig helfen automatisierte Dokumentenprüfsysteme dabei, gefälschte Reisedokumente zu identifizieren.

Asyl- und Visumsbearbeitung: KI-Anwendungen werden zunehmend zur Prüfung von Visums- und Asylanträgen eingesetzt. Einige Länder wie Kanada verwenden Algorithmen zum automatisierten Vorsortieren von Visumanträgen, während die Vereinigten Staaten Risikobewertungsalgorithmen einsetzen, die die Daten der Antragstellenden analysieren, um potenzielle Betrugs- oder Sicherheitsrisiken vorherzusagen, und dafür auch Daten verwenden, die aus sozialen Medien gesammelt wurden. Diese Systeme versprechen zwar Effizienz, werfen jedoch Bedenken hinsichtlich algorithmischer Verzerrungen, ordnungsgemäßer Verfahren und des Rechts auf individuelle Beurteilung auf. In Deutschland setzt das BAMF maschinelle Übersetzungsprogramme ein, um das Dolmetschen von Anhörungen im Asylverfahren und die automatisierte Dokumentenprüfung zu unterstützen. Fragen hinsichtlich ihrer Genauigkeit und möglichen Auswirkungen auf Asylentscheidungen bleiben hier bisher offen.

Prognosen zum Migrationsgeschehen: Regierungen und internationale Behörden wie die EU-Grenzschutzagentur Frontex nutzen KI zur Analyse großer Datensätze – darunter Daten aus sozialen Medien und Klimadaten –, um Migrationsmuster vorherzusagen. Diese zukunftsprognostizierenden Analysen sollen Frühwarnsysteme und die Ressourcenplanung unterstützen. Allerdings sind diese Modelle zur Vorhersage von Migrationsbewegungen oft nicht transparent. Befürchtet wird hierbei, dass sie zu präventiven Grenzschließungen oder Kontrollmaßnahmen sowie zu Aktivitäten wie dem Abfangen von Schutzsuchenden und illegalen Zurückweisungen ( Pushbacks) führen können.

Fernüberwachung und ‚Alternativen‘ zur Inhaftierung: Elektronische Fußfesseln, GPS-fähige Smartphones und Ortungsgeräte sowie KI-gesteuerte Check-in-Systeme werden als Alternativen zur Inhaftierung von Einwanderer:innen beworben, sind jedoch oft mit einer ständigen Überwachung verbunden. Diese Technologien werden in den USA, Großbritannien und anderen Ländern eingesetzt und manchmal an private Unternehmen ausgelagert.

Wer entwickelt und fördert diese Systeme?

An der Entwicklung von KI im Migrationsmanagement sind sowohl staatliche als auch privatwirtschaftliche Akteure beteiligt. Große Technologieunternehmen, Rüstungsfirmen und KI-Startups entwickeln und vermarkten Anwendungen für Regierungen. In Europa unterstützt die EU-Grenzschutzagentur Frontex technologische Innovationen, während die Finanzierung aus regionalen Forschungsprogrammen wie Horizon 2020 und dem Fonds für innere Sicherheit (ISF) stammt. Insbesondere Deutschland hat über das BAMF und die Bundespolizei in Identitätsfeststellungen anhand biometrischer Merkmale, Sprachanalyse und automatisierte Systeme zur Dokumentenanalyse investiert. An mehreren von der EU finanzierten Pilotprojekten waren auch deutsche Partner:innen beteiligt, darunter Universitäten und Forschungsinstitute.

Maritime Überwachungsdrohne auf der DEFEA-Konferenz in Athen, einer internationalen Fachausstellung für Verteidigung und Sicherheit. (© Petra Molnar)

Staaten wie die USA, Kanada und Australien sind ebenfalls führend im Bereich des Einsatzes von KI an ihren Grenzen und arbeiten häufig mit Technologieunternehmen wie den US-amerikanischen Firmen Palantir und Anduril oder der israelischen Firma Elbit Systems zusammen. Das Interesse des privaten Sektors ist Teil eines wachsenden und lukrativen, mehrere Milliarden Euro schweren „Industriekomplexes“ im Bereich der Grenzsicherung, in dem private Gewinninteressen und öffentliche Sicherheitsinteressen einander ergänzen.

Internationale Organisationen – darunter die Internationale Organisation für Migration (IOM) und das UN-Flüchtlingshilfswerk (UNHCR) – prüfen den Einsatz von KI-Anwendungen, um Menschen auf der Flucht zu registrieren, zu überwachen und Hilfsgüter zu verteilen, teilweise in Zusammenarbeit mit Partnern aus der Privatwirtschaft. Während diese Anwendungen als humanitäre Innovation dargestellt werden, werden gleichwohl oft sensible Daten unter ungleichen Machtverhältnissen gesammelt, die zwischen dem Globalen Norden und Süden oder zwischen Hilfsorganisationen und Menschen in Not bestehen.

Chancen und Versprechen

Akteur:innen, die den Einsatz von KI im Migrationsbereich befürworten, verweisen auf mehrere potenzielle Vorteile. So wird häufig Effizienz als einer der wichtigsten Treiber für den Einsatz von KI-Anwendungen genannt. Staaten, die KI einsetzen argumentieren, dass die Automatisierung von Routineaufgaben Rückstände bei der Bearbeitung von Asyl- und Visumsanträgen reduzieren, die Datenanalyse optimieren und die Koordination zwischen den Behörden verbessern kann. Ein weiterer wichtiger Treiber ist das Versprechen der Genauigkeit und die Tatsache, dass KI den biometrischen Abgleich und die Identitätsprüfung verbessern und damit Betrug und Verwaltungsfehler reduzieren kann. Im Kontext des derzeitigen Fokus auf Sicherheit, der die Politikgestaltung im Bereich des Migrationsmanagements prägt, zielen die KI-gestützte verbesserte Überwachung und Risikobewertung darauf ab, irreguläre Grenzübertritte oder gefälschte Dokumente aufzudecken. Schließlich ist auch die Vorhersagekraft der KI verlockend, da KI-gestützte Prognosen als Möglichkeit dargestellt werden, sich auf umfangreiche Migrationsbewegungen vorzubereiten, humanitäre Maßnahmen zu unterstützen und Ressourcen besser zu verteilen.

Mit solchen Vorteilen vor Augen werden von Staaten und der Privatwirtschaft Investitionen in KI begründet, mit dem Ziel sogenannter „intelligenter Grenzen“ (smart borders). Diese sollen sowohl sicher als auch technologisch fortschrittlich sein. In Deutschland werden solche Innovationen auch als Teil einer umfassenderen Digitalisierung des Migrationsmanagements angesehen, die mit den EU-Strategien für die digitale Transformation im Einklang steht.

Herausforderungen und Kritik

Trotz dieser Versprechen argumentieren Akteure aus der Zivilgesellschaft, Forschende und Betroffenen, dass der Einsatz von KI im Migrationsmanagement ernsthafte ethische und rechtliche Risiken birgt. Beispielsweise können KI-Systeme Diskriminierung und systemischen Rassismus verschärfen, da sie oft die Vorurteile in den Daten widerspiegeln, mit denen sie trainiert wurden. So ist etwa die Gesichtserkennung bei Menschen mit dunklerer Hautfarbe weniger genau, was das Risiko für Fehler bei ihrer Identifizierung erhöht. Risikobewertungssysteme können Angehörige bestimmter Nationalitäten oder ethnischer Gruppen unverhältnismäßig stark benachteiligen. Außerdem mangelt es erheblich an Transparenz bei der Entwicklung und dem Einsatz neuer Technologien. Bei vielen KI-Systemen weiß die Öffentlichkeit nur wenig darüber, wie sie ihre Entscheidungen treffen. Diese Undurchsichtigkeit untergräbt die Rechenschaftspflicht und macht es für Betroffene schwierig, schädliche Folgen anzufechten, wenn Fehler gemacht werden.

Hightech-Flüchtlingslager auf der griechischen Insel Kos. (© Petra Molnar)

Auch die Rechte auf Privatsphäre und Datenschutz sind betroffen: Werden biometrische und personenbezogene Daten gesammelt, gespeichert und analysiert, birgt dies erhebliche Risiken für die Privatsphäre, insbesondere wenn es um sensible Daten von marginalisierten Gruppen wie Menschen auf der Flucht geht. Die unbefugte Weitergabe von Daten und Hackerangriffe sind ebenfalls reale Bedrohungen. Zudem können Menschen auf der Flucht, die sich in einer prekären Lage befinden, oft keine sinnvolle Einwilligung in die Erfassung und den Umgang mit ihren Daten geben.

Rechtlich gesehen können KI- und Überwachungstechnologien, die Menschen daran hindern in Sicherheit zu gelangen, das bestehende Recht auf Asyl untergraben. Automatisierte Entscheidungen können außerdem dazu führen, dass Schutz überproportional verweigert wird oder es aufgrund fehlerhafter Risikobewertungen zu vermehrten Inhaftierungen kommt. Rechtliche Risiken dieser Art stünden im Widerspruch zum geltenden Völkerrecht, das eine individuelle Prüfung von Asylgesuchen und das Non-Refoulement-Prinzip

beinhaltet. Auch ist oft unklar, wer für durch KI verursachte Schäden verantwortlich ist und haftbar gemacht werden kann – der Staat, ein Auftragnehmer, der Softwareentwickler oder die Person bei der Einwanderungsbehörde, die die Anwendung verwendet? Oft ist der Rechtsschutz in diesem neueren Bereich wenig ausgeprägt, was das Einlegen von Rechtsmitteln erschwert – insbesondere in Grenzgebieten, die bereits von intransparenten und ermessensabhängigen Entscheidungen geprägt sind.

Rechtliche Rahmenbedingungen und Kontrolle

Derzeit ist die globale Regulierung im Bereich der KI noch schwach, wobei Innovationen Vorrang vor rechtsbasierten Ansätzen für digitale Grenzkontrolltechnologien haben. Allerdings gelten mehrere internationale und regionale Rechtsinstrumente für den KI-Einsatz im Migrationsbereich. So schützt beispielsweise der Internationale Pakt über bürgerliche und politische Rechte (ICCPR) das Recht auf Privatsphäre (Artikel 17) und das Recht auf Freiheit und Sicherheit (Artikel 9). Diese Rechte müssen im Migrationskontext auch bei der Anwendung von Technologien gewahrt werden. Die Genfer Flüchtlingskonvention von 1951 verpflichtet die Staaten zudem, Zugang zu Asyl zu gewähren und verbietet die Zurückweisung in Gebiete, in denen den betroffenen Personen Folter oder unmenschliche oder erniedrigende Behandlung drohen (Artikel 33). Automatisierte Entscheidungen, die den Zugang zum Asylbegehren blockieren, können gegen diese Schutzbestimmungen verstoßen. Nach EU-Recht regelt die Datenschutz-Grundverordnung (DSGVO) die Datenverarbeitung, einschließlich biometrischer Daten, und die EU-Grundrechtecharta garantiert das Recht auf Privatsphäre, Datenschutz und Nichtdiskriminierung. Vor kurzem hat die EU das Gesetz zur Regulierung künstlicher Intelligenz verabschiedet. Allerdings liegt hier nicht der Schutz der Rechte von Menschen auf der Flucht im Fokus.

Deutschland unterliegt als EU-Mitgliedstaat diesen rechtlichen Rahmenbedingungen, entwickelt jedoch auch eigene Durchführungsbestimmungen. Zivilgesellschaftliche Organisationen, die sich für die Rechte von Flüchtlingen und Migrant:innen einsetzen, haben mehr Transparenz hinsichtlich des Einsatzes von KI in der deutschen Migrationspolitik gefordert, darunter die Offenlegung von Verträgen und Folgenabschätzungen. Die Kontrolle in der Praxis bleibt jedoch begrenzt. Grenzgebiete unterliegen oft Notfall- oder Ausnahmeregelungen. Zudem können private Unternehmen Technologien durch Geschäftsgeheimnisse schützen. Unabhängige systematische Überprüfungen, Folgenabschätzungen und Kontrollmöglichkeiten sind jedoch für eine rechtskonforme Entwicklung und den Einsatz von Technologien an den Grenzen und zur Steuerung der Migration notwendig.

Ausblick

In einer von technologischem Fortschritt geprägten Welt, wird KI voraussichtlich eine immer wichtigere Rolle im Migrationsmanagement spielen. So werden beispielsweise das künftige Einreise-/Ausreisesystem (EES) der EU und das Europäische Reiseinformations- und -genehmigungssystem (ETIAS) KI für das Erstellen von Risikoprofilen und automatisierte Grenzkontrollen nutzen. Projekte zur Emotionserkennung, KI-Lügendetektoren und vorausschauender Polizeiarbeit wurden ebenfalls bereits getestet, allerdings auch weithin kritisiert.

Das ehemalige Flüchtlingslager auf Samos, Griechenland. (© Petra Molnar)

Wissenschaftler:innen und Menschenrechtsorganisationen fordern einen vorsorgenden Ansatz: gründliche Tests, um zu gewährleisten, dass Menschenrechte eingehalten werden, Transparenz und Kontrollmechanismen sowie eine breite öffentliche Debatte, bevor Technologien eingeführt werden. Einige Akteur:innen, darunter das Büro des Hochkommissars der Vereinten Nationen für Menschenrechte (OHCHR), schlagen ein vorübergehendes Aussetzen bestimmter Migrationstechnologien vor, insbesondere in Hochrisikosituationen. Vor allem aber werden die künftigen Entwicklungen der KI im Bereich Migration und an den Grenzen nicht nur von rechtlichen Garantien und demokratischer Rechenschaftspflicht abhängen, sondern auch davon, dass die menschlichen Kosten dieser Technologien anerkannt werden. KI-Systeme sind keine abstrakten Werkzeuge. Sie wirken sich auf reale Menschen aus, die sich oft in prekären und unsicheren Situationen befinden. Es ist wichtig, die Erfahrungen und Rechte von Menschen auf der Flucht in Diskussionen über den Einsatz von KI einzubeziehen.

KI-Anwendungen für das Migrationsmanagement werfen tiefgreifende rechtliche, ethische und soziale Fragen auf. Wenn Regierungen neue Technologien einführen, gilt es sicherzustellen, dass Effizienz und Sicherheit mit Menschenrechten, Würde und Gerechtigkeit vereinbar bleiben. Im Mittelpunkt dieser Debatten stehen Menschen, nicht nur Datenpunkte. Transparente Regeln, eine strenge Kontrolle und die Verpflichtung zu einem menschenzentrierten Design, das auch das Fachwissen der betroffenen Individuen und Communities berücksichtigt, sollten jede zukünftige Nutzung von KI im Migrationsbereich leiten.

Übersetzung aus dem Englischen: Vera Hanewinkel

Fussnoten/Quellen/Literatur

Petra Molnar, The Walls Have Eyes: Surviving Migration in the Age of Artificial Intelligence (2024)

Petra Molnar im Gespräch mit Benjamin Etzold über „intelligente Grenzen“: „Keines dieser KI-gestützten Instrumente ist neutral. Sie dienen einem bestimmten Zweck – der Ausgrenzung.“ (2025)

Mirca Madianou, Technocolonialism: When Technology for Good is Harmful (2024)

OHCHR, Digital Border Governance: A Human Rights Based Approach (2023)

The Migration and Technology Monitor Project

Lizenz

Dieser Text ist unter der Creative Commons Lizenz „CC BY-NC-ND 4.0 – Namensnennung – Nicht kommerziell – Keine Bearbeitungen 4.0 International“ veröffentlicht. Autor/-in: Petra Molnar für bpb.de. Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 4.0 und des/der Autors/-in teilen. Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.

Originalpublikation: https://www.bpb.de/themen/migration-integration/kurzdossiers/migration-und-sicherheit/570377/kuenstliche-intelligenz-im-migrationsmanagement/

09/22/25

App-Zwang-Deutschlandticket

Deutschlandticket ohne App-Zwang

Wer das Deutschlandticket kaufen möchte, wird von der Deutschen Bahn schnell auf ihren „DB Schnüffel-Navigator“ geleitet. Viele Verkehrsunternehmen bieten das Ticket aber auch datensparsamer über Chipkarte und Co. an.

Das Deutschlandticket ist ein weithin anerkannter Erfolg. Doch die Umsetzung dieses Angebots ist ein weiteres Beispiel für den fatal falschen Begriff von Digitalisierung, der sich hierzulande breitmacht. Um in dieser undurchsichtigen Lage nicht den Überblick zu verlieren, haben wir eine Liste mit Hinweisen zusammengestellt, bei welchen Verkehrsunternehmen das Deutschlandticket möglichst datenschutzfreundlich gekauft und genutzt werden kann. So können Sie sich über die Angebote informieren und sich nach Ihren Wünschen für eine datensparsamere Option entscheiden.

Bei der Auswahl sind Sie nicht auf Ihre lokalen Verkehrsunternehmen beschränkt, denn die meisten Unternehmen bieten ihre Deutschlandtickets online an und verlangen nicht, dass Sie in einer bestimmten Region wohnen. Wer das Deutschlandticket allerdings analog erwerben möchte, findet eine Vielzahl an Städten, wo das Abo vor Ort abgeschlossen werden kann – auch die Bestellung per Post ist möglich. Voller Artikel auf Digitalcourage

Digitalzwang

Das gute digitale Leben setzt voraus, dass wir Digitalisierung nicht mit Überwachung gleichsetzen und immer auch Wahlfreiheit haben, analog zu bleiben.

Symbol-Bild: DigitalcourageCC-BY 4.0

09/22/25

Die Reichweitenlüge

Instagram, TikTok und Co.

Leena Simon 09.09.2025 (von Digitalcourage.de)

Millionen Follower, null Wirkung: „Social Media“ verkauft uns ein volles Stadion – und schaltet dann das Mikro stumm.

Das riesige Fußballstadion ist vollbesetzt. Das Mikrofon liegt in Ihrer Hand. „Wenn Sie dort rein sprechen“ – so hat man es Ihnen immer wieder erklärt – „erreichen Sie besonders viele Menschen.“ In Wahrheit aber ist das Mikro nur für die Reihen eins bis drei freigeschaltet. Von den 80.000 Anwesenden hört Sie tatsächlich kaum jemand.

So funktioniert das bei allen sozialen Medien mit Algorithmus. Es gibt nur einen Unterschied: Sie merken nicht, dass Sie kaum jemand hört und denken, Sie hätten mordsmäßig viele Leute erreicht. Denn die Reichweitenlüge, ein Begriff, den unser Gründungsmitglied padeluun geprägt hat, ist tief in unseren Überzeugungen angelangt.

Follower sind nicht gleich Follower

In jeder Diskussion über die Probleme der giergetriebenen sozialen Medien kommt irgendwann das Reichweiten-Argument: Da sind halt alle und dort müsse man die Menschen abholen und man tue sich ja keinen Gefallen, wenn man im Fediverse in einer Nische hockt. Dabei passiert ein grundlegender Fehler: Man darf nämlich die Follower im Fediverse nicht mit jenen auf Instagram oder X gleichsetzen. Bei Letzteren sagt es nämlich gar nicht so viel aus, wie wir denken. Denn die eigenen Follower kriegen nicht alle eigenen Posts eingeblendet. Auch da entscheidet der Algorithmus mit. Deshalb spreche ich im Fediverse gerne von „Qualitätsfollowern“. Denn die kriegen ausnahmslos alle Nachrichten angezeigt. Vielleicht erklärt sich auch so, weshalb Digitalcourage dort mit viel weniger Boosts (so nennt man dort die Shares bzw. Retweets), so viel mehr Antworten erhält.

Als X noch Twitter hieß und Digitalcourage dort auch noch einen aktiven Account betrieb, haben wir das selbst erlebt: Während unsere Inhalte im Fediverse mit deutlich weniger Followern lebhaft geteilt und kommentiert wurden, versandeten die gleichen Beiträge unseres (damals) erheblich followerstärkeren Twitter-Accounts. Follower meldeten uns immer wieder: „Wir haben eure Posts gar nicht gesehen.“ Mit einem Viertel an Followern erhielten wir im Fediverse doppelt so viel Aufmerksamkeit. So viel zur angeblich ach so viel größeren Reichweite auf Twitter. Der Algorithmus hatte uns einfach ausgeblendet. Aber wie lässt sich das belegen oder sichtbar machen?
Was viele nicht bedenken: Wenn mir der Algorithmus bestimmte Inhalte zeigt, bedeutet das gleichzeitig, dass er mir andere unterschlägt.

Erfolg als Illusion

Außerdem sehen wir ja immer nur die wenigen Erfolgsstories, die von der manipulierten Öffentlichkeit profitieren. Wir blenden dann schnell aus, dass es sich um seltene Ausnahmen handelt – um die Überlebenden einer gigantischen Auslese. Was nach allgemeinem Erfolg aussieht, ist in Wahrheit nur der „Survivorship Bias“: Wir sehen die paar Accounts, die dank Algorithmen durch die Decke gehen, und vergessen die unzähligen, die im Schatten bleiben. Da wollen wir natürlich dazu gehören. Genau mit diesem Trick füttern uns die giergetriebenen sozialen Medien – sie zeigen uns die Stars, damit wir glauben, alle könnten so glänzen.

Unzumutbare Spielregeln

Das ist allerdings eine Lüge. Denn das Versprechen der großen Reichweite entpuppt sich bei näherem Hinsehen als Scheinriese. Eine große Reichweite erreichen Sie dort nur dann, wenn Sie bereit sind, sich den Spielregeln der Plattformen zu unterwerfen:

  • Wenn sich Ihre Inhalte gut kommerzialisieren lassen, also seicht, gefällig und bloß nicht zu intelligent sind.
  • Wenn Sie bezahlen – Reichweite gegen Geld geht immer.
  • Wenn Sie Inhalte auf Klick-Format eindampfen, bunt bebildern und dauernd Content rauspusten.
  • Wenn Sie besonders pointiert, polarisierend oder wutträchtig posten.
  • Wenn Sie alles bis zur Unkenntlichkeit verkürzen, keine Links setzen und sich an einer unkonstruktiven Diskussionskultur beteiligen.
  • Und wenn es Sie nicht stört, in rechtsextremer Gesellschaft zu posten, deren Inhalte stets viel mehr Reichweite kriegen werden.

Für alle anderen ist die Reichweite sehr viel kleiner, als es den Anschein hat. Lange, differenzierte oder ausgewogene Inhalte lassen sich nicht gut monetarisieren – und werden oft einfach nicht angezeigt. Das angeblich so große Reichweitenpotential steht Ihnen dann schlicht nicht zur Verfügung.

Retorten-Reichweite

Hinzu kommt: Die hohen Nutzendenzahlen dieser Plattformen sind vor allem Potential – aber nicht Realität. Wer tatsächlich viele Menschen erreicht, entscheidet allein der Algorithmus. Und in diesen Zahlen stecken ohnehin massenhaft Bots, Karteileichen, Spam-Accounts und Trolle, die Hassnachrichten verbreiten. Die schöne große Bühne ist in Wahrheit vollgestopft mit Geisterpublikum.

Das mit der Reichweite ist eine große Lüge. Wir lassen uns von Zahlen blenden, die genau gar nichts aussagen. Am Ende bleiben von Gier getriebene soziale Medien das, was sie sind: Manipulationsmaschinen, die uns glauben machen wollen, wir sprächen ins volle Stadion – während sie heimlich die Lautsprecher nur für bestimmte Reihen anschalten.

Die Reichweite ist nicht groß. Sie ist frisiert: abhängig von der Gnade jener Konzerne, die davon profitieren, uns gegeneinander aufzuhetzen.

Ehrliche Reichweite gibts im Fediverse

Dann doch lieber ins Fediverse: Da sind zwar in absoluten Zahlen aktuell noch weniger Leute unterwegs. Doch eine Community, die ich mir dort aufgebaut habe, wird mir erhalten bleiben und es gibt keinen Algorithmus, der sich zwischen mich und meine Leser.innen stellt und meine Nachrichten verschwinden lässt, weil sie nicht hasserfüllt genug sind.

Leena Simon Beitrag zuerst erschienen auf Digitalcourage.de

https://digitalcourage.de/blog/2025/die-reichweitenluege

Digitalcourage engagiert sich seit 1987 für Grundrechte, Datenschutz und eine lebenswerte Welt im digitalen Zeitalter. Wir sind technikaffin, doch wir wehren uns dagegen, dass unsere Demokratie „verdatet und verkauft“ wird. Seit 2000 verleihen wir die BigBrotherAwards. Digitalcourage ist gemeinnützig, finanziert sich durch Spenden und lebt von viel freiwilliger Arbeit. Mehr zu unserer Arbeit.

Info-Material zu Digitalter Mündigkeit bei Digitalcourage

In unserer Wissensreihe kurz&mündig werden komplexe Themen auf wenigen Seiten im kleinen Format herunter gebrochen, so dass alle sie verstehen können. Immer nach dem Motto: Man muss nicht alles wissen, aber man sollte wissen, wovon man keine Ahnung hat. „kurz&mündig“ entsteht als Zusammenarbeit von Digitalcourage und Art d’Ameublement. Wir nennen sie manchmal scherzhaft „Pixi-Bücher für Erwachsene“.

Sie sind Buchhändler.in? Fragen Sie nach unseren fertig bestückten Verkaufsständern!

Sie haben selbst ein Thema, das in unsere Reihe passen würde? Bieten Sie es uns an!

08/20/25

Digitale Sackgassen

Wie der Zwang zu Apps, Authentifizierung und Konten unsere Selbstbestimmung aushebelt

Artikel von Günther Burbach

Man wollte nur mal schnell seine Lohnabrechnung herunterladen. Ein paar Klicks, ein PDF, fertig – so die Vorstellung. Was man stattdessen bekommt, ist ein bürokratisch-technisches Hindernisrennen aus gesperrten Konten, nicht funktionierenden Apps, Zwei-Faktor-Hürden und digitalem Frust. Willkommen im deutschen Alltag 2025, wo die Digitalisierung nicht vereinfacht, sondern verkompliziert. Was nach „mehr Sicherheit“ klingt, ist in Wirklichkeit ein neuer Zwangspfad. Eine politische Regulierung wäre dringend nötig.

Günther Burbach analysiert auf den Nachdenkseiten.de „ein technisches System, das vorgibt, sicher und effizient zu sein, in Wahrheit aber viele Menschen ausschließt, frustriert und in Abo-Fallen treibt.“ (Voller Text)

Beitrag ist dort auch als Audio-Podcast verfügbar.

07/1/25

Julian Assange: Ein Jahr Freiheit

Ein Überblick & Update zu ‘Zivilcourage – Julian Assange’ (von Wau-Holland-Stiftung)

Wir freuen uns, dass sich in dieser Woche der erste Jahrestag der Freilassung [1] des Mitbegründers und ehemaligen Chefredakteurs von WikiLeaks, Julian Assange, begangen wird, nachdem er mehr als ein Jahrzehnt lang in verschiedenen Zuständen der Haft und des Gefängnisses in England gelebt hat.

Wie wir in unseren Transparenzberichten [2][3] ausführlich dargelegt haben, hat die Wau Holland Stiftung damit begonnen, Spenden für die juristische Verteidigung von Herrn Assange zu sammeln, nachdem dieser im April 2019 [4] aufgrund einer US-Anklage und eines Auslieferungsersuchens, die seine Arbeit mit WikiLeaks kriminalisieren [5], verhaftet wurde. Die Stiftung vertrat die Ansicht, dass der komplexe Prozess [6][7] gegen Herrn Assange als ein Musterfall für die Presse- und Informationsfreiheit angesehen werden sollte, die für unsere in der Satzung definierten Kernziele relevant sind. Dieses mehrjährige Spendenprojekt war äußerst erfolgreich und sogar innovativ [8], trotz drohender Gefahren und dokumentierter Fälle von Überwachung [9], politischem Druck [10] und finanzieller Zensur [11].

Seit der Freilassung von Herrn Assange in sein Heimatland Australien im vergangenen Jahr hat er vor der Parlamentarischen Versammlung des Europarats gesprochen und wurde daraufhin formell zum politischen Gefangenen erklärt [12]. Anfang dieses Jahres wurde in einem laufenden Informationsfreiheitsverfahren der italienischen investigativen Journalistin Stefania Maurizi ebenfalls ein wichtiger Sieg errungen: die britische Staatsanwaltschaft (Crown Prosecution Service/CPS) wurde schließlich angewiesen, relevante Dokumente über die ungewöhnliche Fallbearbeitung des Verfahrens gegen Herrn Assange zur Verfügung zu stellen [13].

Und letzten Monat besuchten Herr und Frau Assange persönlich die Premiere des neuen Dokumentarfilms von Regisseur Eugene Jarecki, „The Six Billion Dollar Man“, bei den 78. jährlichen Filmfestspielen von Cannes in Frankreich [14]. Der Film [15], der den jahrzehntelangen Kampf von Herrn Assange gegen seine Auslieferung an die USA zeigt, wurde mit dem Spezialpreis der Jury L’Œil d’or (Goldenes Auge / Golden Eye) und dem erstmals verliehenen Golden Globe für Dokumentarfilm ausgezeichnet. „Noch nie war es so gefährlich, Journalist zu sein wie heute, in einer Welt, in der die Verteidigung der Wahrheit von allen Seiten angegriffen wird“, heißt es auf der Seite der Jury [16].

Nach so vielen Jahren der Ungewissheit und des Zweifels, ob die soliden juristischen Argumente, das engagierte Unterstützungsnetzwerk und die zahlreichen öffentlichen Advocacy-Kampagnen erfolgreich sein würden, ist die Stiftung hoffnungsvoll, dass sich Herr Assange in Freiheit erholen wird, und erfreut über die internationale Anerkennung, die seine Akte der Zivilcourage weiterhin zu Recht erfahren.

[1] https://wauland.de/de/news/2024/06/julian-assange-frei/

[2] https://wauland.de/de/news/2024/07/vorlaufiger-transparenzbericht-fur-das-projekt-zivilcourage-julian-assange/

[3] https://wauland.de/de/news/2024/12/transparenzbericht-fur-das-projekt-julian-assange-stand-26-11-2024/

[4] https://wauland.de/de/news/2019/04/zivilcourage-julian-assange/

[5] https://wauland.de/de/news/2024/08/die-veroffentlichung-der-unredigierten-manning-leaks/

[6] https://wauland.de/de/news/2020/11/julian-assange-auslieferungsverfahren-gerichts-prozess-diagram/

[7] https://wauland.de/de/news/2022/07/auslieferungsverfahren-julian-assange/

[8] https://wauland.de/de/news/2022/02/spende-fur-das-projekt-zivilcourage-julian-assange/

[9] https://www.youtube.com/watch?v=5ChhAMubOPM

[10] https://archive.is/13Qli

[11] https://wikileaks.org/Banking-Blockade.html

[12] https://wauland.de/de/news/2024/10/resolution-des-europarats-zum-fall-assange/

[13] https://wauland.de/de/news/2025/04/ein-gewinn-fur-die-informationsfreiheit/

[14] https://deadline.com/2025/05/2025-cannes-film-festival-golden-eye-award-1236409438/

[15] https://www.imdb.com/title/tt34968474

[16] https://www.scam.fr/actualites-ressources/loeil-dor-2025-est-decerne-a-deni-oumar-pitsaev-et-le-prix-special-du-jury-a-eugene-jarecki/


05/25/25

Kontrollfantasien & Generation Z

Was immer ihr sagt, gebt nichts preis

Kolumne von Carla Siepmann – 25.05.2025 aus Netzpolitik

Wer politisch aktiv ist, organisiert sich oftmals online – und macht sich damit angreifbar. Tech-Konzerne horten unsere Daten, während der Staat immer noch mehr Überwachung will. Besonders oppositionelle und jugendliche Gruppierungen müssen sich vor dieser Ausspähung schützen.

Der Generation Z ist es gleichgültig, was mit ihren Daten im Netz geschieht. Wer sein Leben auf Instagram teilt, so das weitverbreitete Vorurteil, kann kein ernsthaftes Interesse am Schutz persönlicher Informationen haben.

Diese Behauptung geht nicht nur am eigentlichen Problem vorbei, sondern sie legitimiert den kommerziellen Datenklau der Konzerne und die Kontrollfantasien staatlicher Akteure.

Tatsächlich wächst derzeit eine Generation heran, die soziale Medien als Räume politischer Teilhabe begreift und nutzt. Jugendverbände, Bewegungsinitiativen oder autonome Gruppen – sie alle nutzen soziale Medien, um sich zu vernetzen, auszutauschen und andere zu mobilisieren.

Doch gerade wer das Netz für politische Zwecke nutzt, macht sich vulnerabel. Zum einen gegenüber Big-Tech-Konzernen, die Daten sammeln und für kommerzielle Zwecke nutzen. Zum anderen gegenüber einem Staat, der ebenfalls gerne mehr darüber wissen möchte, was online ausgetauscht wird.

Eine neue Qualität der Ausspähung

Um politischen Einfluss auszuüben, ist Sichtbarkeit in sozialen Medien wichtig. Besonders Jugendliche verwenden Online-Netzwerke, um sich politisch zu organisieren. Instagram etwa nutzten 2023 rund 80 Prozent der unter 29-Jährigen, während es bei Menschen über 70 nur fünf Prozent waren. Doch Plattformen wie TikTok, Instagram oder WhatsApp verlangen Daten als Preis für Reichweite.

Die ökonomische Logik dahinter ist klar: Je mehr Daten gesammelt werden, desto besser lassen sich Verhaltensmuster analysieren, Vorlieben verkaufen und – in einem nächsten Schritt – möglicherweise politisch instrumentalisieren.

Die Ausspähung durch die Konzerne erreicht nun sogar eine neue Qualität. Meta hat angekündigt, seine KI-Modelle mit öffentlich zugänglichen Inhalten auf Facebook und Instagram zu trainieren – ohne dass Nutzer*innen dem ausdrücklich zustimmen müssen. Die Betroffenen müssen dem stattdessen aktiv widersprechen.

Politische Gruppen machen sich angreifbar

Gerade progressive, queere, migrantische oder feministische Gruppen, die soziale Medien nutzen, machen sich damit angreifbar. Denn sie verlassen sich auf Systeme, die nicht für sie gemacht wurden – sondern die gegen sie arbeiten können. TikTok, WhatsApp, Instagram und Co werden nicht kostenfrei bereitgestellt, um politische Partizipation zu ermöglichen. Der Zweck der Plattformen ist die Gewinnmaximierung. Und der Preis dafür sind eben allzu oft die Daten der Nutzer*innen.

Das ist kein abstraktes Problem, mit dem sich doch bitte Datenschützer*innen und Bürgerrechtler*innen beschäftigen sollen. Die Plattformen erheben Nutzungs-, Standort- und Gerätedaten der Nutzer*innen, damit sind die allermeisten Online-Aktivitäten einer Person nachverfolgbar. Wer dabei Zugriff auf welche Daten erlangt und an wen sie weitergegeben werden – ob an andere Konzerne oder staatliche Institutionen – bleibt dabei oft unklar. Mit dem Einsatz von KI-Technologien drohen sich diese Risiken zu verschärfen. Denn sie erleichtern es, Personen automatisiert zu identifizieren, soziale Netzwerke zu analysieren und potenziell „auffällige“ Inhalte zu klassifizieren.

Wenn Inhalte, die aus politischer Überzeugung gepostet werden – ein Banner auf einer Demo, ein politischer Aufruf oder der Like für einen regierungskritischen Post –, in KI-Systeme eingespeist werden, bedeutet das zweierlei: Erstens werden die Daten mit anderen Datensätzen in Verbindung gebracht, um bestimmte Muster aus ihnen abzuleiten. Zweitens weiß niemand, was mit den Daten später geschieht – an wen sie weitergegeben und für welche Zwecke sie verwendet werden.

In autoritären Staaten ist der Einsatz derartiger Instrumente bereits Realität. Und auch in Europa wird dieser zunehmend diskutiert, etwa die automatisierte Auswertung sozialer Medien für die Polizeiarbeit oder für die Migrationskontrolle.

Datenschutz als Selbstverteidigung

Insbesondere für oppositionelle politische Akteur:innen ist Datenschutz damit längst keine individuelle Entscheidung mehr, sondern wird schlichtweg zur politischen Notwendigkeit: Wer online politisch sichtbar sein will, muss sich technisch schützen. Nicht aus Paranoia, sondern aus Vorsicht. Und um langfristig handlungsfähig zu bleiben.

Diese sieben Schritte können konkret dabei helfen:

  1. Meta-KI widersprechen: Noch bis zum 26. Mai 2025 kann man der Verwendung der eigenen Daten für das KI-Training bei Meta widersprechen. Das sollten alle tun, die auf den Plattformen des Konzerns politische Inhalte teilen oder mit Accounts interagieren, die von Repressionen betroffen sein könnten. Vor allem all jene, die solche Accounts für Organisationen betreuen, sollten diesen Widerspruch einlegen. Eine einfache Anleitung, wie das geht, gibt es hier.
  2. Signal statt WhatsApp: So nervig es auch ist, immer wieder zwischen WhatsApp und Signal zu wechseln, weil die Oma entgegen vieler Anderer immer noch auf WhatsApp schreibt – es lohnt sich, den politischen Austausch auf Signal zu verlagern. Signal bietet Ende-zu-Ende-Verschlüsselung und gibt keine Metadaten an Werbekonzerne weiter. Gerade für die interne Kommunikation politischer Gruppen ist die App die bessere Wahl.
  3. Nur notwendige Daten teilen: Immer wieder verbreiten politische Gruppen allzu freizügig die Adressen ihrer Treffpunkte oder die Klarnamen der Teilnehmer*innen über Social Media. Diese Daten sollten nicht geteilt werden, solange das nicht unbedingt notwendig ist. Auch sollten Online-Formulare, Mitgliederlisten oder Kampagnen-Tools aufs Nötigste reduziert werden.
  4. Keine Gesichter zeigen: Fotos von der politischen Demo, dem Sommerfest im besetzten Haus oder von der Ferienfreizeit zeigen, an welchen Orten sich wer wann aufgehalten hat. Wenn diese Bilder veröffentlicht werden, sollten die abgebildeten Gesichter verpixelt werden. Die schwarz-rote Koalition will die biometrische Internetfahndung einführen und dafür eine riesige biometrische Datenbank einrichten. Je weniger Bilder von Gesichtern also online zu finden sind, desto geringer ist die Wahrscheinlichkeit, mit Hilfe einer solchen Software identifiziert zu werden.
  5. Cookies ablehnen: Bei der Recherche im Netz ist es wichtig, Tracking zu unterbinden. Erst vor wenigen Wochen urteilte das Verwaltungsgericht Hannover, dass Webseiten ihren Besucher:innen auch eine „Alles ablehnen“-Schaltfläche für Cookies anbieten müssen. Eine solch eindeutige Ablehnung ist sinnvoll, um möglichst wenig Datenspuren im Netz zu hinterlassen.
  6. Digitale Schutzräume aufbauen: Aufklärung in der eigenen Gruppe, Schulungen zu sicherer Kommunikation, gemeinsame Strategien zur Datensparsamkeit – all das stärkt die kollektive Sicherheit. Es sollten gemeinsame Absprachen getroffen werden: Welche Kommunikationskanäle werden genutzt? Was wird auf Social Media geteilt? Über welche Accounts wird auf welche Informationen zugegriffen?
  7. Im Zweifel gilt: Shut the f*ck up.

Der Staat will mehr, viel mehr Überwachung

Doch nicht nur Big-Tech will an unsere Daten: Derzeit wird der Wind rauer und der Ruf nach noch mehr Überwachung immer lauter. Union und SPD wollen auch die Vorratsdatenspeicherung neu auflegen, Staatstrojaner einsetzen und die Videoüberwachung ausbauen. Und erst kürzlich entschied der Bundesgerichtshof, dass Polizist*innen Beschuldigte unter bestimmten Bedingungen dazu zwingen dürfen, ihr Smartphone mit dem Fingerabdruck zu entsperren.

Gerade linke Organisationen – von Klimabewegungen über migrantische Selbstorganisation bis zu antifaschistischen Bündnissen – waren schon in der Vergangenheit Ziel staatlicher Überwachung und Kriminalisierung. Das wird sich auf absehbare Zeit nicht ändern, zumal nicht auszuschließen ist, dass eines Tages auch eine gesichert rechtsextreme Partei in der Regierung sitzt. Und auch das Interesse großer Konzerne, unsere Daten zu erheben und weiterzuverarbeiten, wird nicht geringer werden. Umso wichtiger ist es schon heute, sich der eigenen digitalen Spur bewusst zu sein.

Politische Räume schützen!

Wer sich gegen Rechts, gegen Umweltzerstörung, gegen Patriarchat und Rassismus einsetzt, läuft Gefahr, beobachtet zu werden – von Unternehmen und von Behörden.

Vor allem junge Menschen brauchen daher Schutzrechte: für sich selbst, für die eigene Gruppe und die Vertretung der eigenen politischen Interessen. Digitale Räume sind politische Räume und sie dürfen nicht zu reinen Risikoräumen verkommen.

Einige Risiken können wir selbst mindern, indem wir Datennutzung widersprechen, Kommunikationskanäle wechseln und vor allem: indem wir nicht mehr von uns preisgeben als nötig.

Über die Autor:in Carla Siepmann

Carla schreibt seit 2022 frei für netzpolitik.org. Sie interessiert sich für Gewalt im Netz, Soziale Medien und digitalen Jugendschutz. Seit 2023 erscheint ihre monatliche Kolumne auf netzpolitik.org.

Kontakt: carla_siepmann@mailbox.org, @CarlaSiepmann

04/28/25

Assange FOIA-Informationsfreiheit

Ein Gewinn für die Informationsfreiheit (Wau-Holland-Stiftung)

Julian Assange hat zwar im Sommer 2024 seine Freiheit erlangt haben [1] und wurde sogar vom Europarat offiziell als politischer Gefangener anerkannt [2], doch unser Verständnis dessen, was sich während seines langwierigen Rechtsstreits ereignet hat, ist noch immer unvollkommen.

Aus diesem Grund hat die italienische Investigativjournalistin Stefania Maurizi [3] die letzten zehn Jahre damit verbracht, Anträge gemäß Informationsfreiheitsgesetz (FOIA) zu stellen, um die Korrespondenz zwischen der britischen Staatsanwaltschaft (Crown Prosecution Service, CPS) und Behörden in den Vereinigten Staaten, Schweden und Ecuador im Fall Assange zu erhalten. Ihre Antworten können Aufschluss darüber geben, welche Rolle politische Voreingenommenheit und Einflüsse gespielt haben könnten, und welche Fehler in einem ordnungsgemäßen Verfahren aufgetreten sind.

Das Buch von Frau Maurizi über ihre Arbeit, das ursprünglich auf Italienisch [4] erschien und dann ins Englische übersetzt wurde [5], ist kürzlich auch auf Deutsch erschienen: “Secret Power: Der Angriff auf WikiLeaks und Julian Assange” [6].

Auch wenn einige Aktivitäten dieser Staaten im Laufe der Jahre aufgedeckt wurden – freiwillig durch Enthüllungen oder unfreiwillig durch Leaks und Whistleblowing -, tappen wir immer noch im Dunkeln im Vergleich zu der Menge an Dokumenten und Wissen, das vermutlich bis heute nicht bekannt wurde.

Auf den Kongressen 2019 [7], 2020 [8], und 2021 [9] sprach Andy Müller-Maguhn über Überwachungstaktiken und -operationen, die sich von bloßen ‘Verdachtsmomenten’ zu ernsthaft und offiziell untersuchten Angelegenheiten eines Strafgerichts in Spanien, einer Klage vor einem US-Bezirksgericht [10] und Zeugenaussagen [11][12] vor britischen Gerichten entwickelten. Nicht lange bevor das Asyl von Julian Assange widerrufen wurde und die britischen Behörden ihn im April 2019 verhaftet hatten, wurde eine Verschwörung zwischen den ecuadorianischen Behörden, den US-Geheimdiensten und der spanischen Sicherheitsfirma “UC Global” aufgedeckt. Sie hatte das Ziel, Herrn Assange und seine Familie, Anwälte, Ärzte, Kollegen, Journalisten und viele andere Besucher jahrelang zu überwachen. Gegen den ehemaligen Eigentümer und CEO von UC Global wird nun wegen angeblicher Fälschung offizieller Dokumente und Verfahrensbetrug‘ [13] ermittelt. Da sich die US-Geheimdienste immer wieder auf das “Staatsgeheimnis” berufen oder bei gerichtlichen Ersuchen einfach nicht reagieren, sind die Versuche, diese Akteure vor Gericht zu bringen, weitgehend zum Stillstand gekommen.

Der amtierende WikiLeaks-Chefredakteur Kristinn Hrafnsson sagte kürzlich in einem Interview mit Big Brother Watch, dass diese jahrzehntelange Tortur der koordinierten Überwachung und finanziellen Zensur in vielerlei Hinsicht beispiellos [14] gewesen sei.

Es gibt jedoch eine positive Entwicklung in Bezug auf die FOIA-Anfragen an das UK: gemäß einer Anordnung des Londoner First-Tier-Tribunals [15] vom 2. Januar müssen die CPS-Behörden “bestätigen, ob die Dienststelle über Informationen darüber verfügt, wie, wann und warum sie wichtige Dokumente zum Fall Julian Assange gelöscht haben, und wenn sie über solche Informationen verfügt, müssen sie uns diese entweder zur Verfügung stellen oder sie verweigern und angeben, aus welchen Gründen die Informationen zurückgehalten werden” [16]. Die Frist war am 21. Februar 2025.

Frau Maurizi und ihre Anwälte haben inzwischen wie angeordnet eine Antwort erhalten, und sie hat einen Artikel [17] veröffentlicht, in dem sie die Ergebnisse zusammenfasst, insbesondere in Bezug auf die E-Mail-Konten des führenden CPS-Anwalts Paul Close. Dieser hatte “den schwedischen Staatsanwälten davon abgeraten, Assange in London zu befragen”, und der “dazu beigetragen hat, die juristische Lähmung zu verursachen, die Assange über ein Jahrzehnt lang willkürlich gefangengehalten hat”. Der CPS hat ein sogenanntes “Leavers Process Document” offengelegt, ohne Metadaten über die Erstellung oder Änderungen dieses Dokuments, was es schwierig macht, zu überprüfen, ob es sich um ein echtes Verfahrensdokument handelt. Ein Leavers Process Document ist eine Checkliste bzw. ein Protokoll, wenn eine Person eine Organisation verlässt inklusive seiner Konten und Zugangspasswörter.

Wenn die Schließung des Kontos von Herrn Close wie behauptet nach einem Standardverfahren erfolgte, dann, fragt Frau Maurizi: “Warum hat sich der CPS jahrelang geweigert, Informationen zur Verfügung zu stellen? Und warum brauchte es zwei Urteile von zwei Richtern, um nach solchen Informationen zu suchen?”

Jeder sollte sich darüber im Klaren sein, dass ein abgeschlossener Fall nicht zwangsläufig bedeutet, dass die Operationen eingestellt wurden. Journalisten sollten FOIA-Anträge stellen. Regierungen, die ein Interesse daran haben, ihre Bürger vor solchen (ausländischen) Eingriffen zur Unterdrückung verfassungsrechtlich garantierter Rechte [18] zu schützen, sollten Maßnahmen zum Schutz derjenigen in Betracht ziehen, deren Rechte verletzt wurden.

Die Wau Holland Stiftung umterstützt und fördert an Initiativen für Informationsfreiheit und Transparenz [19] sowie Zivilcourage [20]. Wir hoffen, dass diese Entscheidung des Tribunals ein weiterer Schritt nach vorne sein wird, um endlich ans Licht zu bringen, was in den letzten fünfzehn Jahren geschehen ist, so dass die Zivilgesellschaft lernen kann, wie sie den nächsten Julian Assange besser unterstützen und verteidigen kann. Wie Ken Loach im Vorwort zu Frau Maurizis Buch schrieb:

“Im Mittelpunkt dieser Geschichte steht der furchtbare Preis, den ein Mann zahlen musste, der äußerst unnachgiebig behandelt wurde, weil er die Realität von unerklärter Macht, die sich hinter dem Anschein von Demokratie verbirgt, offengelegt hat.”

[1] https://wauland.de/de/news/2024/06/julian-assange-frei/

[2] https://wauland.de/de/news/2024/10/resolution-des-europarats-zum-fall-assange/

[3] https://stefaniamaurizi.it/en-idx.html

[4] https://www.chiarelettere.it/libro/il-potere-segreto-stefania-maurizi-9788832963878.html

[5] https://www.plutobooks.com/9780745347615/secret-power/

[6] https://shop.papyrossa.de/Maurizi-Stefania-Secret-Power

[7] https://media.ccc.de/v/36c3-11247-technical_aspects_of_the_surveillance_in_and_around_the_ecuadorian_embassy_in_london

[8] https://media.ccc.de/v/rc3-11512-cia_vs_wikileaks

[9] https://media.ccc.de/v/rc3-2021-chaoszone-409-when-wikileaks-bu

[10] https://www.courtlistener.com/docket/64891487/kunstler-v-central-intelligence-agency/

[11] https://www.tareqhaddad.com/wp-content/uploads/2020/10/2020.09.30-Assange-Extradition-Hearings-UC-Global-Anonymous-Witness-1.pdf

[12] https://www.tareqhaddad.com/wp-content/uploads/2020/10/2020.09.30-Assange-Extradition-Hearings-UC-Global-Anonymous-Witness-2.pdf

[13] https://english.elpais.com/spain/2025-03-13/former-spanish-military-man-who-spied-on-assange-for-the-cia-is-investigated-for-falsifying-evidence.html

[14] https://www.youtube.com/watch?v=3RP_p89rI6E

[15] https://st.ilfattoquotidiano.it/wp-content/uploads/2025/01/10/016-020125-Judge-Foss-final-decision.pdf

[16] https://www.ilfattoquotidiano.it/in-edicola/articoli/2025/01/10/british-judge-orders-the-crown-prosecution-service-to-shed-light-on-the-destruction-of-key-documents-regarding-julian-assange/7832107/

[17] https://www.computerweekly.com/news/366622234/UK-authorities-search-for-answers-over-deleted-Julian-Assange-emails-comes-too-late-to-retrieve-data

[18] https://www.wsws.org/en/articles/2019/07/31/assa-j31.html

[19] https://wauland.de/en/projects/enduring-freedom-of-information/

[20] https://wauland.de/de/projects/moral-courage/

Von WHS

04/28/25
CC - by Cyzen

Big Tech Konzern-Zerschlagung

Warum es für Alphabet, Meta & Co. eng werden könnte

Lange Zeit konnten Tech-Unternehmen wie Google oder Facebook schalten und walten, wie sie wollten. Doch ihre Monopole kommen zunehmend in Bedrängnis – selbst in den USA, wo derzeit die traditionell wirtschaftsfreundlichen Republikaner an der Macht sind. Was steckt dahinter?

Tomas Rudl 28.04.2025 aus Netzpolitik

Es sind schwierige Wochen für Alphabet. Erst im Vorjahr hatte ein US-Bundesgericht in Washington, D.C., nach einem langen Verfahren festgestellt, dass der Konzern seine unrechtmäßig erlangte Marktmacht missbraucht. Vor wenigen Tagen folgte der nächste Paukenschlag: Eine Bundesrichterin in Virginia kam zu dem Schluss, dass Google, die bekannteste Tochter des Tech-Konzerns, ein illegales Monopol bei bestimmten Online-Werbetechnologien errichtet hat.

Was vor wenigen Jahren noch kaum denkbar war, scheint in den USA immer näher zu rücken: Als Antwort auf die Dominanz großer Tech-Konzerne steht zunehmend ihre Aufspaltung zur Debatte. Alphabet könnte dabei nur der Anfang sein.

Ob es soweit kommt, dürfte schon bald entschieden sein. Vor allem das Verfahren zum Missbrauch von Marktmacht, das aus dem Jahr 2020 stammt, neigt sich langsam dem Ende zu. Am vergangenen Montag begann eine für drei Wochen angesetzte Verhandlung in der US-Hauptstadt. Sie wird darüber befinden, ob Google beispielsweise seinen Chrome-Browser abspalten und aus dem Unternehmen lösen muss, wie es das US-Justizministerium verlangt.

Entflechtung als Ultima Ratio

Bald 30 Jahre ist es her, seit Google als einst kleines Start-up die Online-Suche revolutioniert hat. Dabei ist es nicht geblieben. Über die Jahre hat sich das Unternehmen in weiten Teilen des Internets breitgemacht und mit Hilfe von Firmenübernahmen das Geschäft mit Online-Werbeanzeigen unter seine Kontrolle gebracht – die mit Abstand wichtigste Cash-Cow des Unternehmens. Allein im letzten Quartal 2024 hat Alphabet insgesamt 96,5 Milliarden US-Dollar umgesetzt, rund 72 Milliarden davon stammten aus dem Werbegeschäft. Insgesamt fuhr der Konzern in dem Jahr einen gigantischen Gewinn von 100 Milliarden US-Dollar ein.

„Google hat eine umfassende, gestaffelte Monopolstellung und eine lange Geschichte des Machtmissbrauchs“, sagt Ulrich Müller von Rebalance Now. Die Nichtregierungsorganisation will die wachsende Monopolisierung der Wirtschaft zurückdrängen. Gerade Google sei ein Kandidat dafür, „entflechtet“ zu werden, wie eine Aufspaltung im Fachjargon heißt. Gepaart mit sogenannten Netzwerkeffekten, die bestehende Abhängigkeiten verstärken, habe die wettbewerbswidrige Unternehmensstrategie des kalifornischen Konzerns seine Monopolstellung gesichert, führte Müller im vergangenen Herbst in einem Gastbeitrag für netzpolitik.org aus.

Vor allem im Werbe-Bereich hielt Google bislang alle Fäden in der Hand, nun könnten sie nach und nach durchtrennt werden. Das Gericht in Washington hatte entschieden, dass Google ein Monopol in den Märkten für allgemeine Online-Suche sowie für allgemeine Text-Werbung neben Suchergebnissen habe. Diese Dominanz habe Google zudem mit unlauteren Mitteln gefestigt, indem es milliardenschwere Verträge mit Browser-Herstellern wie Apple und Mozilla, Smartphone-Herstellern wie Samsung und Motorola und großen US-Netzbetreibern abgeschlossen hat.

Für Google zahlt sich das aus: Einmal als Standard-Suchmaschine in praktisch allen führenden Browsern eingerichtet, rüttelt kaum jemand an der Einstellung und bleibt im Google-Ökosystem. Oder nutzt ohnehin Chrome, den Google-eigenen Browser, der im Laufe des vergangenen Jahrzehnts fast überall auf der Welt seine Konkurrenz hinter sich gelassen hat.

Online-Werbung fest im Griff

Ein anderes Standbein greift nun das jüngste Urteil aus Virginia an. Demnach besitze Google ein Monopol auf den Märkten für die Technologie, mit denen es täglich Abermilliarden an Werbeanzeigen vermittelt und ausliefert. Dahinter steckt eine gut geölte Maschine, die bei fast jedem Aufruf einer Website versucht, in Sekundenschnelle die richtige Werbeanzeige für das jeweilige Profil der Nutzer:in zu finden. Auch hier spiele Google unsauber, so das Gericht: Bei den Tools, mit denen beispielsweise Nachrichtenseiten freie Anzeigeplätze bereitstellen und umgekehrt Inserenten Werbeeinblendungen platzieren, habe Google seine Marktmacht missbraucht.

Verschont geblieben sind in diesem Verfahren lediglich die Übernahmen der AdTech-Unternehmen DoubleClick im Jahr 2007 und von Admeld vier Jahre später. Aus Sicht der Richterin hätten diese Zukäufe Google zwar dabei geholfen, eine Monopolstellung in zwei benachbarten Ad-Tech-Märkten zu erlangen. Isoliert betrachtet ließe sich jedoch nicht nachweisen, „dass Google diese Monopolstellung durch Verdrängungspraktiken erlangt oder aufrechterhalten hat“, heißt es im Urteil.

Ein Produkt des Neoliberalismus

Dass Google diese Übernahmen überhaupt durchführen konnte, ist dem neoliberalen Laissez-faire-Ansatz zu verdanken, der sich seit den 1970er-Jahren zunächst in den USA breitmachen konnte. Demnach sind Zusammenschlüsse selbst überragend großer Unternehmen unproblematisch, solange dies Verbraucher:innen nicht schädigt. Sogar grundsätzlich starke Gesetze und Richtlinien seien ab Mitte der 1980er-Jahre von Aufsichtsbehörden „größtenteils ignoriert“ worden, „weil sie davon ausgingen, dass staatliche Eingriffe die Dinge eher verschlimmern als verbessern würden“, so die ehemalige Chef-Juristin der Handelsbehörde FTC, Debra Valentine.

Entsprechend hat sich seitdem das Internet und seine Ökonomie entwickelt: Es ist von Zentralisierung und Monopolbildung bestimmt, von Kommerzialisierung und privatisierter Rechtsdurchsetzung, von durchleuchteten Verbraucher:innen, die mehr Produkt sind als Nutzer:innen auf Augenhöhe. Nicht von ungefähr lässt sich das derzeit dominierende Geschäftsmodell im Internet, von der Wirtschaftswissenschaftlerin Shoshana Zuboff „Überwachungskapitalismus“ getauft, auch ganz anders deuten: Genau die Werbemärkte, auf denen Google seine Dominanz ausspielt, seien „die Märkte, die ein offenes und freies Internet möglich machen“, argumentiert das US-Justizministerium.

Handlungsspielraum von Big Tech wird kleiner

Alphabet ist beileibe nicht der einzige Tech-Konzern, der zunehmend seine Grenzen aufgezeigt bekommt. US-Kartellverfahren laufen derzeit unter anderem gegen den iPhone-Hersteller Apple oder gegen den Online-Riesen Amazon. Beide sollen mit illegal aufgestellten Hürden den Wettbewerb behindert und somit den Markt geschädigt haben. Die juristischen Angriffe kommen hierbei von mehreren Seiten: Während in ersteren Fällen das Justizministerium Anklage erhoben hat, ist im Verfahren gegen Amazon die FTC federführend.

Angestrengt hatte die Regulierungsbehörde, gemeinsam mit fast allen Bundesstaaten, ein weiteres aufsehenerregendes Verfahren. Seit Mitte April muss sich der Werbekonzern Meta einem Prozess in Washington stellen. Demnach soll das Unternehmen vor rund einem Jahrzehnt die damals aufstrebenden Konkurrenten Instagram und WhatsApp aufgekauft haben – um laut FTC das eigene Platzhirschprodukt Facebook abzuschirmen. Trotz der berappten Milliardensummen habe man sich so vergleichsweise günstig die Vorherrschaft auf Zukunftsmärkten gesichert.

Bis zum letzten Moment war gar nicht klar, ob dieses Verfahren überhaupt durchgefochten wird. Zum einen hatte Meta eine Karte gezogen, die in der Vergangenheit meist funktioniert hat: Gegen Zahlung eines mehr oder weniger hohen Betrags, die Börsenlieblinge wie Meta oder Alphabet aus der Portokasse bezahlen, ließen sich solche Streitigkeiten außergerichtlich und ohne Schuldeingeständnis lösen. Medienberichten zufolge hatte Meta bis zu einer Milliarde US-Dollar angeboten, um einer Verhandlung zu entgehen.

Kniefall vor Trump

Zum anderen hatte wohl nicht nur Meta-Chef Mark Zuckerberg darauf vertraut, sich mit der Regierung von Donald Trump schon irgendwie einigen zu können. Wie viele andere Tech-Bosse, darunter Apple-Chef Tim Cook oder Google-Chef Sundar Pichai, hatte sich Zuckerberg bei den neuen Machthabern angedient: Moderationspraktiken wurden im Sinne der Republikaner umgebaut, mit Joel Kaplan ein in konservativen Kreisen bestens vernetzter Republikaner zum Politik-Chef bestellt und selbst unternehmensinterne Diversitätsinitiativen kurzerhand abgeschafft.

Dass der für Korruption sonst so anfällige Trump, von Zuckerberg wiederholt persönlich umgarnt, bislang nicht darauf eingestiegen ist, dürfte vor allem auf seine bis heute nicht verwundene Wahlniederlage im Jahr 2020 zurückzuführen sein. Ominöse Mächte hätten sich, so die Erzählung unter Trump-Getreuen, hinter den Kulissen zusammengerauft, um konservative Stimmen zum Verstummen zu bringen und den Demokraten zum Wahlsieg zu verhelfen.

Zu diesen Mächten sollen auch Big-Tech-Unternehmen zählen, so die MAGA-Fans. Deshalb werden sie derzeit auch von der neu besetzten FTC unter die Lupe genommen: Gleich nach seinem Amtsantritt hatte Behörden-Chef Andrew Ferguson, Nachfolger der progressiven Lina Khan, eine Untersuchung eingeleitet. Sie soll zutage fördern, „wie diese Firmen möglicherweise gegen das Gesetz verstoßen haben, indem sie Amerikaner zum Schweigen brachten und einschüchterten, weil sie ihre Meinung äußerten“, so Ferguson. Auch die nach dem Sturm des Kapitols zeitweise verhängten Accountsperren gegen Trump könnten auf geheime Absprachen innerhalb der Tech-Branche zurückzuführen sein, so Ferguson.

„Wir leben jetzt in anderen Zeiten“

Üblicherweise liegt der Fokus in Kartellrechtsverfahren auf wirtschaftlichen Aspekten. Offenkundig spielen die bei den aktuellen FTC-Untersuchungen eine nur untergeordnete Rolle. In dem Meta-Verfahren gehe es darum, die „Macht von Meta zu konfrontieren und sicherzustellen, dass die Situation, die wir im Jahr 2020 hatten, nie wieder auftreten kann“, ließ Ferguson unlängst durchblicken.

Ähnlich gelagert sind die Argumente des Vize-Präsidenten JD Vance, der seine politische Karriere nicht zuletzt dem libertären Monopol-Fan Peter Thiel zu verdanken hat. Vance scheint vor allem die vermeintliche Linkslastigkeit der Unternehmen zu stören: „Die monopolistische Kontrolle über Informationen in unserer Gesellschaft liegt bei einem explizit progressiven Tech-Unternehmen“, wetterte der sonst so wirtschaftsfreundliche Vance im Vorjahr gegen Google.

Liegen Monopole und Kontrolle jedoch in der Hand politischer Verbündeter, allen voran in jener des Trump-Vertrauten Elon Musk, scheinen die Bedenken nicht sonderlich stark ausgeprägt zu sein. So kündigte Anfang April die Sozialversicherungsbehörde an, lokale Büros zu schließen. Wie die meisten Bundesbehörden ist sie von einem beispiellosen Kahlschlag betroffen und wird deshalb auch keine Mitteilungen mehr auf ihrer Website veröffentlichen. Künftig soll die Öffentlichkeit stattdessen offenbar exklusiv über das soziale Netzwerk X von Musk informiert werden.

„Ich weiß, das klingt für Sie wahrscheinlich sehr fremd – mir ging es genauso – und nicht nach dem, was wir gewohnt sind, aber wir leben jetzt in anderen Zeiten“, sagte eine Sprecherin der Behörde.

Über die Autor:in tomas

Tomas ist in Wien aufgewachsen, hat dort für diverse Provider gearbeitet und daneben Politikwissenschaft studiert. Seine journalistische Ausbildung erhielt er im Heise-Verlag, wo er für die Mac & i, c’t und Heise Online schrieb.

Kontakt: E-Mail (OpenPGP), Bluesky

04/12/25

„Pall-Mall“-Prozess

Staaten wollen weiter hacken, aber mit Regeln

Constanze Kurz 11.04.2025

23 Staaten haben sich im Rahmen des „Pall-Mall“-Prozesses auf eine unverbindliche Vorschlagsliste geeinigt, um die Verbreitung von Schadsoftware wie Staatstrojanern und anderen Hacking-Werkzeugen einzudämmen. Experten bewerten die Ideenliste zwar positiv. Praktische Auswirkungen wird die Verabschiedung der Regeln aber nicht entfalten.

Dass Staatstrojaner um sich greifen, ist ein wachsendes Phänomen. Eine europäische diplomatische Initiative mit dem Namen Pall-Mall-Prozess, die von Großbritannien und Frankreich angestoßen wurde, widmet sich dem Problem. Das Ziel ist klar formuliert: Die „Verbreitung und unverantwortliche Nutzung kommerzieller Hacking-Werkzeuge“ wie Staatstrojaner soll bekämpft werden.

Vertreter von Staaten und internationalen Organisationen sowie von Industrie, Zivilgesellschaft und Wissenschaft entwickeln in dem Prozess einen „Verhaltenskodex“. Er ist allerdings freiwillig und vollkommen unverbindlich. Den Regeln sollen sich mitzeichnende Staaten freiwillig unterwerfen. Damit sollen die offenkundigen Probleme angegangen werden, die sich aus der Verbreitung kommerzieller Staatstrojaner und anderer Hacking-Werkzeugen ergeben. Er soll künftig auch weiteren Staaten angedient werden.

Vor einem Jahr traf sich die Pall-Mall-Initiative auf einer Konferenz in London und verabschiedete ein erstes Grundsatzpapier. 27 Staaten und internationale Organisationen haben die Erklärung unterschrieben, neben Großbritannien und Frankreich auch Deutschland und die Vereinigten Staaten.

Letzte Woche traf sich die Initiative erneut, diesmal in Paris. Dort haben sie eine zweite Version der Erklärung verabschiedet. Die neue Version wurde von 23 Staaten unterschrieben.

Wer mit Staatstrojanern ausspioniert wird

Das staatliche Hacken gefährdet die IT-Sicherheit insgesamt. Denn es basiert darauf, dass Sicherheitslücken ausgenutzt werden, um die Schadsoftware unbemerkt einschleusen zu können. Staaten, die solche Hacking-Werkzeuge kaufen oder einsetzen, investieren also hohe Beträge in eine Branche, die Unsicherheit und das Ausnutzen von Sicherheitslücken zum Geschäftsmodell gemacht hat.

Das Problem, das der Pall-Mall-Prozess angehen soll, ist also hausgemacht. Die Opfer der Staatstrojaner sind zwar überwiegend außerhalb Europas zu finden. Betroffen sind immer wieder auch Journalisten, Juristen und Aktivisten. Allerdings ist das Problem dennoch längst auch innerhalb der europäischen Grenzen angekommen. In Polen wurden schon 2019 Oppositionspolitiker mit dem Staatstrojaner Pegasus gehackt, was später polnische Staatsanwälte auf den Plan rief. 578 Menschen sollen in unserem Nachbarland in den Jahren 2017 bis 2023 mit Pegasus ausspioniert worden sein.

Die Hacking-Software Pegasus des israelischen Anbieters NSO Group soll zudem den Regierungschef und Verteidigungsminister von Spanien und das Umfeld des früheren britischen Regierungschefs Boris Johnson betroffen haben. Neue Recherchen zeigen, dass Spanien bisher insgesamt 21 Pegasus-Opfer zu verzeichnen hatte. Aber auch die Niederlande sind mit elf Pegasus-Spionageopfern, Frankreich mit sieben Hacking-Fällen und Belgien mit vier Opfern vertreten.

Von diesen Staaten haben sich nur Frankreich, Polen und die Niederlande den neuen Verhaltensvorschlägen des Pall-Mall-Prozesses angeschlossen. Spanien und Belgien hingegen nicht. Das Heimatland der NSO Group Israel fehlt ohnehin auf der Liste der Unterstützer.

Pegasus ist auch mitnichten der einzige Staatstrojaner, der große öffentliche Aufmerksamkeit und noch laufende gerichtliche Nachspiele erfahren hat. Auch die Predator-Staatstrojaner des europäischen Konkurrenten Intellexa waren oft in den Schlagzeilen. Zwar konnte nach der Berichterstattung ein erheblicher Rückgang der Predator-Aktivitäten verzeichnet werden, aber die dürften vor allem durch die beispiellosen Sanktionen der US-Regierung unter Joe Biden ausgelöst worden sein. Die Kunden von Predator – also staatliche Behörden – dürften nach der öffentlichen Berichterstattung und den Sanktionen deutlich höhere Preise serviert bekommen und teilweise ihre Zusammenarbeit mit dem Anbieter eingestellt haben. Die Geschäftstätigkeit von Intellexa wird vermutlich insgesamt stark beeinträchtigt sein.

Politische Maßnahmen zur Eindämmung der Verbreitung von Hacking-Software wie die Einleitung des Pall-Mall-Prozesses spielten dabei nur eine untergeordnete Rolle, obwohl die Staatstrojaner-Anbieter darauf sicher mit Sorge blicken. Wirkliche Angst um ihr Geschäftsfeld ist jedoch nicht angebracht, da die Liste der Unterstützer viel zu klein ist.

Rechenschaftspflichten und Kontrolle

Das Pall-Mall-Papier legt Leitlinien fest und listet recht detailliert politische Instrumente auf, die den Staaten Optionen aufzeigen sollen, wie man mit Fragen der eigenen Entwicklung, der Verbreitung und unkontrollierten Ausbreitung, des Kaufs oder der eigenen Nutzung von Staatstrojanern und anderen Hacking-Werkzeugen umgehen sollte.

Schwerpunkte der Pall-Mall-Verhaltensvorschläge sind Accountability, was man mit Zurechenbarkeit und Rechenschaftspflicht übersetzen könnte, und Kontrolle in einem weiten Sinne. Beides soll sicherstellen, dass staatliches Hacking rechtlich bewertet und geprüft werden kann. Um einen verantwortungsbewussten Einsatz sicherzustellen, sollen „Grundsätze wie Rechtmäßigkeit, Erforderlichkeit, Verhältnismäßigkeit und Angemessenheit“ gelten, die unter Beachtung des Völkerrechts, der Menschenrechte und unter der Maßgabe der Rahmenbedingungen der Vereinten Nationen (für verantwortungsbewusstes staatliches Handeln im Cyberspace von 2021) anzuwenden sind.

Politischer Instrumentenkasten

Vorgeschlagen ist dazu ein Kontrollregime bei der Ausfuhr von Staatstrojanern, das die Risiken einer unverantwortlichen Verwendung abschätzen und mindern soll. Die Regierungen sollen auch versuchen, Anreize für verantwortungsvolles Handeln in der gesamten Hacking-Branche setzen. Solche Anreize könnten etwa darin bestehen, dass Aufträge bevorzugt an solche Staatstrojaner-Anbieter vergeben werden, die sich zur „Achtung der Rechtsstaatlichkeit und des geltenden Völkerrechts, einschließlich der Menschenrechte und Grundfreiheiten“ bekennen. Wenn Anbieter das nicht tun, soll ihnen mit dem Ausschluss von Regierungsaufträgen signalisiert werden, dass eine öffentliche Auftragsvergabe mit „illegalen oder unverantwortlichen Aktivitäten“ unvereinbar und inakzeptabel ist.

Zudem könnten für Vertreter von in Ungnade gefallenen Staatstrojaner-Anbietern politische Instrumente in Stellung gebracht werden, etwa Strafverfahren, finanzielle Sanktionen oder Reisebeschränkungen. Das solle auch für Konkurrenten ein Zeichen setzen.

Zugleich soll Staatstrojaner-Opfern geholfen werden, empfiehlt das Pall-Mall-Papier. Wer einem hohen Risiko ausgesetzt sei, von Staatstrojanern ins Visier genommen zu werden, der könnte sensibilisiert und beraten werden, beispielsweise „Journalisten, Menschenrechtsverteidiger und Regierungsbeamte“.

Im Pall-Mall-Prozess geht es aber nicht darum, der Nutzung der Staatstrojaner gänzlich einzudämmen. Das steht in dem Prozess außer Frage, da ein rechtmäßiger Einsatz für legitime Zwecke als Möglichkeit angenommen wird. Allerdings wird der wachsende Markt klar als Bedrohung erkannt und zwar „für die Sicherheit, die Achtung der Menschenrechte und Grundfreiheiten und die Stabilität des Cyberspace“. Diese Bedrohungen „werden in den kommenden Jahren voraussichtlich zunehmen“, heißt es in dem Dokument.

Dahinter kommt bei den sogenannten Stakeholdern die klare Erkenntnis zum Vorschein, dass es ein massives und wachsendes Problem mit Staatstrojanern gibt. Ein Großteil der europäischen Länder – auch Deutschland – bringt durch das aktualisierte Dokument zum Ausdruck, dass sie das Problem angehen wollen. Das Ergebnis kann aber wegen der Unverbindlichkeit nur als Symbolpolitik eingeordnet werden.

Die Finanziers der Branche sind ja auch die Staaten, die den Pall-Mall-Prozess in Gang gesetzt haben. Sie sind als Verursacher des wachsenden Marktes der Hacking-Anbieter die wichtigsten Akteure, die zur praktischen Eindämmung der Staatstrojaner beitragen könnten. Ein paar mehr freiwillige Vorschläge für Kontrollmechanismen und rechtliche Regeln und das Erinnern an Menschenrechte dürften hier lange nicht ausreichend sein. Das Risiko bleibt also groß, dass in einigen Jahren ein noch größeren Anbieter-Markt existieren wird.

Gefahr für die IT-Sicherheit bleibt bestehen

Sven Herpig vom unabhängigen Verein interface bewertet die freiwilligen Verhaltensregeln des Pall-Mall-Prozesses als „ersten Schritt zur weiteren Konkretisierung“ grundsätzlich positiv. Er sagt jedoch: „Praktische, operative Auswirkungen erwarte ich mir von der Verabschiedung der Regeln nicht direkt.“ Grund für die geringe „normative Bedeutung“ sei vor allem, dass bisher mit 23 Staaten nur so wenige Unterstützer mitgezeichnet hätten.

Alexandra Paulus von der Stiftung Wissenschaft und Politik sieht den Pall-Mall-Prozess als „eine der spannendsten aktuell laufenden Cyberdiplomatie-Initiativen“. Sie bewertet den Vorteil vor allem darin, dass die Initiative so gestaltet sei, dass es ein „klar umgrenztes Thema“ gäbe.

Ob aber diese Verhaltensregeln eine Eindämmung der kommerziellen Hacking-Branche bewirken können, sieht Herpig skeptisch: „Langfristig könnte es als normativer Rahmen dienen, den Staaten nutzen, um sie einzudämmen.“ Dazu brauche es staatlichen Willen und entsprechende rechtliche Regeln, betont Herpig. „Und das in vielen Staaten, vor allem auch diejenigen, wie Israel oder Russland, die diese Verhaltensregeln bisher noch nicht mitgezeichnet haben.“

Auch Alexandra Paulus beantwortet die Frage danach, ob die Regeln eine Eindämmung bewirken können, eher zurückhaltend. Man müsse sich klarmachen, dass sich das verabschiedete Dokument an Staaten richte. „Um den Markt wirklich zu beeinflussen“, sei entscheidend, welche Regeln die Staaten für die Branche aufstellten. Das könne entweder eine „harte Regulierung, etwa Exportkontrollen“, sein oder „weiche Anreizsysteme, zum Beispiel Regeln für die öffentliche Beschaffung“ der Hacking-Werkzeuge. Zudem könnten Staaten Regeln für die eigene Nutzung von kommerzieller Hacking-Software aufstellen, „zum Beispiel eine unabhängige Aufsichts-Institution“. Die Frage sei, ob „Staaten das Dokument zum Anlass nehmen, tatsächlich ihre Politik zu verändern“.

Die Wissenschaftlerin sieht die Verhaltensregeln als Puzzleteile und sagt: „Wenn sie zusammengefügt werden, können sie einen großen Einfluss auf den Markt haben.“ Am wirkmächtigsten seien Exportkontrollen und Sanktionen. Auch andere Instrumente könnten wirken: die Staatstrojaner-Anbieter besser zu kennen sowie Regeln und Aufsichtsgremien für die staatliche Nutzung. „Würden die unterzeichnenden Staaten diese Instrumente flächendeckend ausrollen, wären wir schon ein großes Stück weiter“, sagt Paulus.

Das bisherige Ergebnis des Pall-Mall-Prozesses sei auch ein „Selbsteingeständnis der Staaten, dass sie eigentlich an der ‚Misere‘ schuld sind“, sagt Herpig, der bei interface den Bereich „Cybersicherheitspolitik und Resilienz“ leitet. Auch deswegen hätten nur so wenig Staaten unterzeichnet. In der Praxis werde sich „kurz- bis mittelfristig vermutlich rein gar nichts ändern“.

Das bisherige Ergebnis des Pall-Mall-Prozesses sei erst ein Anfang, betont Paulus von der Stiftung Wissenschaft und Politik. Das „härteste Stück Arbeit“ stünde noch bevor, „nämlich ein Code of Practice für die Wirtschaft“. Sie sei gespannt, ob es gelingen wird, „mit den diversen Unternehmen des Ökosystems ins Gespräch zu kommen“.

Das dürfte schwierig werden. Denn es liegt in der Natur der Branche, nicht allzu transparent zu sein. Denn ein Gutteil der schattigen Zwischenhändler und der Kunden – also die staatlichen Käufer der Staatstrojaner – bestehen schließlich darauf. Aus Netzpolitik

Über die Autor:in constanze

Constanze Kurz ist promovierte Informatikerin, Autorin und Herausgeberin von Büchern, zuletzt Cyberwar. Ihre Kolumne „Aus dem Maschinenraum“ erschien von 2010 bis 2019 im Feuilleton der FAZ. Sie lebt in Berlin und ist ehrenamtlich Sprecherin des Chaos Computer Clubs. Sie war Sachverständige der Enquête-Kommission „Internet und digitale Gesellschaft“ des Bundestags. Sie erhielt den Toleranz-Preis für Zivilcourage und die Theodor-Heuss-Medaille.

Kontakt: E-Mail (OpenPGP)