10/22/25

TikTok: Suicid Knocking (AI France)

TikTok erneut in der Kritik: Der Amnesty International-Bericht enthält sensible Inhalte, darunter Verweise auf Selbstverletzung und Selbstmord. (20.10.2025 von AI Frankreich)
Eine neue Untersuchung von Amnesty International hat ergeben, dass der „For You”-Feed von TikTok
französische Kinder und Jugendliche, die sich mit Inhalten zur psychischen Gesundheit beschäftigen,
in einen Kreislauf aus Depressionen, Selbstverletzung und Selbstmord treibt. Die Untersuchung mit dem Titel „Dragged into the Rabbit Hole“ (In den Kaninchenbau gezogen) zeigt, dass TikTok es weiterhin versäumt, seine systemischen Designrisiken anzugehen, die Kinder und Jugendliche betreffen.
„Unsere technische Untersuchung zeigt, wie schnell Teenager, die Interesse an Inhalten zum Thema psychische Gesundheit bekunden, in einen toxischen Kaninchenbau gezogen werden können. Innerhalb von nur drei bis vier Stunden nach der Nutzung des „For You”-Feeds von TikTok wurden die Testkonten von Teenagern Videos ausgesetzt, die Selbstmord romantisierten oder junge Menschen zeigten, die ihre Absicht zum Ausdruck brachten, sich das Leben zu nehmen, einschließlich Informationen über Selbstmordmethoden”, sagte Lisa Dittmer, Forscherin bei Amnesty International für die digitalen Rechte von Kindern und Jugendlichen.
Original bei AI Bericht als PDF erhältlich (39 S.)
Übersetzt mit DeepL.com (kostenlose Version)

France: Dragged into the rabbit hole: New evidence of TikTok’s risks to children’s mental health

Bringing together testimony from affected young people and parents in France as well as renewed technical research evidence, the briefing documents TikTok’s failure to address its systemic design risks for children and young people both under international business and human rights standards as well as under the company’s binding obligations under the EU’s Digital Services Act. It is an urgent appeal to the company itself, but also to EU and French regulators to take decisive action to force the company to respect children’s and human rights. (Bericht in englischer Sprache)

AI ist auf TikTok und gegen TikTok, Twitter/X etc. aktiv:

TikTok, X, Facebook & Co. – Bedrohung oder Chance für die Menschenrechte?

AI: „Die Tech-Konzernbesitzer Marc Zuckerberg und Elon Musk haben zu Beginn des Jahres die Spielregeln der digitalen Öffentlichkeit massiv verändert. So betrieb Musk wenige Wochen vor der Wahl des deutschen Bundestages Werbung für die AfD, bei einer nach eigenen Angaben weltweiten Reichweite von täglich rund 250 Millionen Nutzer*innen ein erheblicher Eingriff in die Meinungsbildung. Zuckerberg wiederum verkündete kurz vor dem Amtsantritt von Donald Trump als Präsident der USA für seinen Internetkonzern Meta das Ende von Faktenprüfungen und Beschränkungen bei politischen Äußerungen zu Migration und Geschlechterfragen. Betroffen sind davon, zunächst in den USA, die Plattformen Facebook, Instagram und Threads. So werden künftig menschenverachtende und diskriminierende Bezeichnungen etwa für Transpersonen nicht mehr gefiltert und gesperrt, sondern können ihren Weg durch die Algorithmen zu Milliarden Meta-Nutzer*innen weltweit finden. Das Recht auf freie Meinungsäußerung wird durch das Recht auf Hass und Hetze ersetzt.“ (von AI 2025)

AI wies schon 2023 auf Jugendgefährdung durch TikTok hin:

Das Geschäftsmodell und die Funktionsweise von TikTok stellen eine Gefahr für junge Nutzer*innen der Plattform dar, da ihnen aufgrund von Empfehlungen in ihrem Feed Inhalte über Depressionen und Suizid angezeigt werden, die bestehende psychische Probleme verschlimmern könnten. Dies geht aus zwei neuen Berichten von Amnesty International hervor. Die beiden Berichte Driven into the Darkness: How TikTok Encourages Self-harm and Suicidal Ideation und I Feel Exposed: Caught in TikTok’s Surveillance Web machen auf Menschenrechtsverstöße aufmerksam, denen minderjährige und jugendliche TikTok-Nutzer*innen ausgesetzt sind. Die Berichte zeigen auf, inwiefern diese Verstöße dem Geschäftsmodell und der Funktionsweise der Plattform geschuldet sind.

TikToks Geschäftsmodell als Gefahr für Kinder und Jugendliche

Zusammenfassung des AI-Berichts von 2023:

  • Fast die Hälfte aller Videos der Untersuchungstests enthielten potenziell schädliche Inhalte über geistige Gesundheit.
  • Weniger als eine Stunde nach der Einrichtung der Testkonten wurden Inhalte ausgespielt, die Suizid normalisierten oder romantisierten.
  • Das Geschäftsmodell von TikTok ist darauf ausgelegt, Nutzer*innen bei der Stange zu halten und immer mehr persönliche Daten zu sammeln.
10/16/25

25 Jahre BigBrotherAwards

25 Jahre BigBrotherAwards:

Alte Überwachungsfantasien, neue KI-Systeme und junge Unterstützung

Wir haben Grund zum Feiern, denn die diesjährigen BigBrotherAwards sind unser 25. Jubiläum! Wir haben diesen Anlass genutzt, um eine neue Generation mit ins Boot zu holen: In einer neuen Kategorie „jung und überwacht“ haben Kinder und Jugendliche der Gruppe Teckids eigenständig zwei Beiträge zu den den alltäglichen Datenschutzproblemen der Jugend vorgestellt. In den restlichen Kategorien gab es kein Mangel an Preisträgerkandidaten, allen voran mit Innenminister Alexander Dobrindt (CSU). Weitere Preisträger sind die Social-Media-Plattform TikTok, das Unternehmen Google für den KI-Assistenten Gemini, sowie das Verwaltungsgericht Hannover und das Bundesarbeitsgericht. Abschließend wird der Bürokratieabbau in der Kategorie „Was mich wirklich wüten macht“ für die unerlässlichen Anstrengungen im Dienste der Big-Tech-Unternehmen ausgezeichnet. https://bigbrotherawards.de/2025

Die (unglücklichen) Preisträger 2025

Google, Dobrindt, Bundesarbeitsgericht (Amazon), TikTok, „ Bürokratieabbau“, WhatsApp & iPad-Zwang in Schulen

Technik (2025) –Google

Der BigBrotherAward in der Kategorie Technik geht an Google für den KI-Assistenten Gemini, der ab jetzt unauffällig, aber zwangsweise auf Android Mobiltelefonen installiert wird. Gemini erhält Zugriff auf umfangreiche Nutzungs- und Kommunikationsdaten, die für das Training von Googles KI genutzt und auch von menschlichen Mitarbeitenden eingesehen werden. Darunter könnten komplette Chatverläufe fallen – ohne dass der Kommunikationspartner eingewilligt hat. Die Deaktivierung dieses KI-Assistenten erfordert komplexe Einstellungen in verschiedenen Menüs.

Behörden & Verwaltung (2025) –Bundesminister des Inneren Alexander Dobrindt

Der BigBrotherAward 2025 in der Kategorie „Behörden und Verwaltung“ geht an Bundes-Innenminister Alexander Dobrindt (CSU) für sein geplantes „Sicherheitspaket“, das den umfangreichen Einsatz von Gesichtersuchmaschinen vorsieht. Dobrindts Behörde will mit datenschutzwidrigen Anbietern wie Clearview AI und PimEyes zusammenarbeiten, die auf alle online zu findenden Bilder zugreifen – ganz gleich, ob sie mit oder ohne Einverständnis der Betroffenen eingestellt wurden. Der Entwurf des Innenministers zielt darauf, diese illegale Schnüffel-Praxis zu legitimieren. Zudem will Dobrindt die hochumstrittene Software Palantir des Anti-Demokraten Peter Thiel auf Bundesebene einführen.

Arbeitswelt (2025) –Verwaltungsgericht Hannover und das Bundesarbeitsgericht

Der BigBrotherAward in der Kategorie Arbeitswelt 2025 geht an das Verwaltungsgericht Hannover und das Bundesarbeitsgericht für krasse Fehlurteile in Sachen Amazon. Das Verwaltungsgericht hat die Totalüberwachung von Angestellten eines Amazon-Logistikzentrums abgesegnet. Das Bundesarbeitsgericht verweigerte einem Amazon-Betriebsrat das Mitbestimmungsrecht bei der Einführung einer Software, die Beschäftigtendaten rechtswidrig in den USA verarbeitet.

Social Media (2025) –TikTok

Den BigBrotherAward 2025 in der Kategorie „Social Media“ erhält die chinesische Plattform TikTok für Verletzungen des Datenschutzes, für die Verbreitung von Fake-News und Hatespeech, für die Manipulation von Menschen in Bezug auf ihre politischen Überzeugungen, ihre Wertvorstellungen und ihr Konsumverhalten durch undurchsichtige Algorithmen sowie für die Schaffung von Abhängigkeiten, insbesondere bei Minderjährigen.

Was mich wirklich wütend macht (2025) –Bürokratieabbau

Bürokratieabbau ist ein vergifteter Begriff. Er suggeriert, dass etwas für Bürger.innen einfacher wird. Tatsächlich aber geht es oft um Deregulierung und den Abbau von Gesetzen, die Verbraucher.innen schützen. Große US-Tech-Konzerne wollen die europäische Digitalgesetzgebung am liebsten komplett kippen. Die EU-Kommission und die deutsche Bundesregierung machen sich mitschuldig, wenn sie die Digitalgesetzgebung zur Verhandlungsmasse bei einem Deal um Strafzölle machen.

Aus der Laudatio: „Besonders engagiert beim Kampf gegen die Bürokratie sind Wirtschaftsunternehmen. Und ihre Vorfeldorganisationen wie die Lobbyisten von der „Initiative Neue Soziale Marktwirtschaft“. Die kriegen sich gar nicht wieder ein vor Eifer. Zumindest solange, wie es um staatliche Bürokratie geht. Aber ist Bürokratie ist wirklich per se eine staatliche Angelegenheit? Dann versuchen Sie mal, bei einem großen Konzern jemanden ans Telefon zu bekommen. Sobald es um ein Problem geht, wenn Sie Service brauchen, eine Frage haben, eine Beschwerde loswerden, ein Abo kündigen, eine Reparatur oder eine Rückerstattung haben wollen, wird jeder sinnvolle Kontakt planvoll erschwert und Sie werden durch kunstvoll orchestrierte Ermüdungsparcours geschickt. Um Amazon Prime oder Facebook zu kündigen, muss man sich durch komplizierte Navigationsmenüs durchklicken…“ Laudatorin Rena Tangens

NEU: Kategorie jung & überwacht (2025) -soziale Exklusion durch WhatsApp; iPad-Zwang in Schulen

In der Kategorie „jung & überwacht“ bei den BigBrotherAwards 2025 zeigt die Jugendorganisation Teckids zwei Probleme aus der digitalen Lebenswelt von Jugendlichen auf.

mehr siehe:

https://bigbrotherawards.de/2025

10/3/25

Grenzpolizist Big Brother: Migrations-Management-KI

Die folgende Erläuterung der regierungseigenen Bundeszentrale für politische Bildung (bpb) für KI im Einsatz gegen Migration (euphemistisch: „Migrationsmanagement“), erläutert einige Aspekte dieser Problematik. Seit 9/11 führen nicht nur die USA, sondern offenbar „der Westen“, also auch wir, einen „Krieg gegen den Terror“, der eine Einschränkung von Bürgerrechten beinhaltet. Kontrolliert wird dabei prinzipiell jeder von uns, speziell aber die Gruppe der sogenannten „Gefährder“, die sich offenbar insbesondere bei Migranten finden lässt; ihr Merkmal ist „eine nicht näher konkretisierbare Gefährlichkeit, die sich in der Zukunft ausbilden könnte. (…) Ziel ist hierbei, schwer bestimmbare konkrete Zeitpunkte und Formen eines terroristischen Anschlags zu kontrollieren und damit auch aufsteigende Ängste in der Bevölkerung zu reagieren.“ Siehe: „Gefährder“: Der Migranten-Minority Report.

Ängste der Bevölkerung sollen also „reagiert werden“ (nicht auf sie reagieren!); ein typischer Freudscher Versprecher, bei dem die wahre Intention entschlüpfte? Sollen unsere Ängste „reagiert werden“, also reaktiviert, abreagiert oder agitiert werden? Ängste helfen Machthabern, Bevölkerungen zu kontrollieren und in ihrem Sinne zu manipulieren. Ängste machen Menschen bereit zum Hass, zur Blindheit für vernünftige Lösungen, zur fanatischen Aufrüstung und Militarisierung. Andersartige, Andersfarbige, Migranten sind dafür die naheliegenden Sündenböcke, vor denen im Sinne reaktionärer und rechtsextremer Ideologien Angst geschürt werden soll. Wo Multi-Milliarden und Billionen für Rüstung (statt für die Menschen) ausgegeben werden, fällt auch für BigTech und KI einiges ab: Die gleich genannte Überwachungsfirma ANDURIL klingt nicht zufällig ähnlich wie Peter Thiels PALANTIR. Projekte zur Emotionserkennung, KI-Lügendetektoren und vorausschauender Polizeiarbeit (engl. predictive policing) laufen bereits.

Wie dabei KI gegen Migranten eingesetzt wird erläutert für die Bundesregierung das bpb im jetzt folgenden Text von Petra Molnar. KI dient dabei für Prognosen zum Migrationsgeschehen, für Grenz- und Fernüberwachung, für Identitäts- und biometrische Systeme, Gesichtserkennung, Asyl- und Visumsbearbeitung, für die Steuerung von „Alternativen zur Inhaftierung“, die auf ständige Überwachung hinauslaufen. KI bildet den digitalen Stacheldrahtverhau auf den künftigen „smart borders“, die sozial benachteiligten Migranten jene Freizügigkeit rauben, die wohlhabenden Touristen (einstweilen noch) offensteht. Das völkerrechtlich gebotene (!) Asylrecht bleibt dabei auf der Strecke, wenn automatisierte Entscheidungen mit digitalem racial Bias oder ähnlichem Unrecht fallen. (T.Barth) Folgender Text übernommen von bpb:

Künstliche Intelligenz im Migrationsmanagement: Chancen, Herausforderungen und Risiken

Petra Molnar (bpb) 04.09.2025 / 9 Minuten zu lesen

Weltweit wird künstliche Intelligenz zunehmend im Migrationsmanagement eingesetzt – auch in der EU und in Deutschland. Welche Entwicklungen, Chancen und Risiken gehen damit einher?

Überwachungsturm von Elbit Systems, Arizona, USA. Solche Überwachsungstürme entlang der Grenze zu Mexiko erkennen mithilfe von KI-Überwachung Bewegungen und sollen so dabei helfen, Personen in der Sonora-Wüste im Südwesten der USA abzufangen. (© Petra Molnar, Abbildungen fehlen hier aufgrund urheberrechtlicher Gründe)

Künstliche Intelligenz (KI)

verändert in rasanter Geschwindigkeit die Art und Weise, wie Regierungen Migration steuern und Grenzen kontrollieren. Von prognosebasierter Datenanalyse und Identitätsprüfung bis hin zu Grenzüberwachung und Asylentscheidungen – KI-Technologien werden zunehmend in die Infrastruktur der Migrationskontrolle in Europa und weltweit integriert. Dabei wird argumentiert, dass neue Technologien wie KI die Steuerungssysteme im Migrationsmanagement effizienter, sicherer und kostengünstiger machen können. Angesichts der aktuellen Entwicklungen im Bereich der digitalen Technologien bestehen jedoch auch ernsthafte Risiken für die Menschenrechte, die Privatsphäre und die Grundsätze des Asylrechts. Dieser Artikel basiert auf jahrelangen Forschungsarbeiten an verschiedenen Grenzen weltweit und gibt einen Überblick darüber, wie KI im Migrationsmanagement in Europa und weltweit eingesetzt wird. Wichtige Debatten über die Auswirkungen dieser Entwicklung auf Recht, Ethik und Gesellschaft werden dabei ebenfalls in den Blick genommen.

Wo und wie wird KI eingesetzt?

Weltweit und in der gesamten Europäischen Union (EU) wird KI mittlerweile in verschiedenen Phasen des Migrationsmanagements eingesetzt. Zu den wesentlichen Feldern gehören:

Grenzüberwachung: KI-gestützte Systeme werden zur Überwachung von Grenzen eingesetzt. Beispielsweise integriert das Europäische Grenzüberwachungssystem (Eurosur) Satellitenbilder, Drohnen und andere Sensordaten, die mit KI analysiert werden, um die Außengrenzen zu überwachen – insbesondere im Mittelmeerraum. An Landgrenzen und Flughäfen werden Algorithmen zur Gesichtserkennung und Objekterkennung eingesetzt, um Personen zu identifizieren, die irregulär einreisen oder als risikoreich gelten. In den Vereinigten Staaten stellen Unternehmen wie die US-amerikanische Firma Anduril autonome Überwachungstürme entlang der Südgrenze bereit, die mithilfe von KI-Überwachung Bewegungen erkennen und verfolgen und dabei helfen sollen, Personen in der Sonora-Wüste im Südwesten der USA abzufangen.

Identitäts- und biometrische Systeme: KI kann auch bei der Verarbeitung biometrischer Daten wie Fingerabdrücken, Iris-Scans und Gesichtsbildern zur Identitätsprüfung helfen. Eurodac, die EU-Datenbank, in der Fingerabdrücke von Asylbewerber:innen gespeichert werden, nutzt KI für einen effizienteren und genaueren Abgleich. In Deutschland hat das Bundesamt für Migration und Flüchtlinge (BAMF) eine Software zur Erkennung von Sprachen und Dialekten getestet, die die Herkunft von Personen, die einen Asylantrag gestellt haben, feststellen soll. Der Einsatz dieser Software hatte in der Folge Debatten darüber ausgelöst, wie genau und fair solche Systeme und ihre Ergebnisse sind. Die deutsche Bundespolizei setzt an wichtigen Verkehrsknotenpunkten und Grenzen biometrische und Gesichtserkennungstechnologien ein, darunter auch prognostische Komponenten. Gleichzeitig helfen automatisierte Dokumentenprüfsysteme dabei, gefälschte Reisedokumente zu identifizieren.

Asyl- und Visumsbearbeitung: KI-Anwendungen werden zunehmend zur Prüfung von Visums- und Asylanträgen eingesetzt. Einige Länder wie Kanada verwenden Algorithmen zum automatisierten Vorsortieren von Visumanträgen, während die Vereinigten Staaten Risikobewertungsalgorithmen einsetzen, die die Daten der Antragstellenden analysieren, um potenzielle Betrugs- oder Sicherheitsrisiken vorherzusagen, und dafür auch Daten verwenden, die aus sozialen Medien gesammelt wurden. Diese Systeme versprechen zwar Effizienz, werfen jedoch Bedenken hinsichtlich algorithmischer Verzerrungen, ordnungsgemäßer Verfahren und des Rechts auf individuelle Beurteilung auf. In Deutschland setzt das BAMF maschinelle Übersetzungsprogramme ein, um das Dolmetschen von Anhörungen im Asylverfahren und die automatisierte Dokumentenprüfung zu unterstützen. Fragen hinsichtlich ihrer Genauigkeit und möglichen Auswirkungen auf Asylentscheidungen bleiben hier bisher offen.

Prognosen zum Migrationsgeschehen: Regierungen und internationale Behörden wie die EU-Grenzschutzagentur Frontex nutzen KI zur Analyse großer Datensätze – darunter Daten aus sozialen Medien und Klimadaten –, um Migrationsmuster vorherzusagen. Diese zukunftsprognostizierenden Analysen sollen Frühwarnsysteme und die Ressourcenplanung unterstützen. Allerdings sind diese Modelle zur Vorhersage von Migrationsbewegungen oft nicht transparent. Befürchtet wird hierbei, dass sie zu präventiven Grenzschließungen oder Kontrollmaßnahmen sowie zu Aktivitäten wie dem Abfangen von Schutzsuchenden und illegalen Zurückweisungen ( Pushbacks) führen können.

Fernüberwachung und ‚Alternativen‘ zur Inhaftierung: Elektronische Fußfesseln, GPS-fähige Smartphones und Ortungsgeräte sowie KI-gesteuerte Check-in-Systeme werden als Alternativen zur Inhaftierung von Einwanderer:innen beworben, sind jedoch oft mit einer ständigen Überwachung verbunden. Diese Technologien werden in den USA, Großbritannien und anderen Ländern eingesetzt und manchmal an private Unternehmen ausgelagert.

Wer entwickelt und fördert diese Systeme?

An der Entwicklung von KI im Migrationsmanagement sind sowohl staatliche als auch privatwirtschaftliche Akteure beteiligt. Große Technologieunternehmen, Rüstungsfirmen und KI-Startups entwickeln und vermarkten Anwendungen für Regierungen. In Europa unterstützt die EU-Grenzschutzagentur Frontex technologische Innovationen, während die Finanzierung aus regionalen Forschungsprogrammen wie Horizon 2020 und dem Fonds für innere Sicherheit (ISF) stammt. Insbesondere Deutschland hat über das BAMF und die Bundespolizei in Identitätsfeststellungen anhand biometrischer Merkmale, Sprachanalyse und automatisierte Systeme zur Dokumentenanalyse investiert. An mehreren von der EU finanzierten Pilotprojekten waren auch deutsche Partner:innen beteiligt, darunter Universitäten und Forschungsinstitute.

Maritime Überwachungsdrohne auf der DEFEA-Konferenz in Athen, einer internationalen Fachausstellung für Verteidigung und Sicherheit. (© Petra Molnar)

Staaten wie die USA, Kanada und Australien sind ebenfalls führend im Bereich des Einsatzes von KI an ihren Grenzen und arbeiten häufig mit Technologieunternehmen wie den US-amerikanischen Firmen Palantir und Anduril oder der israelischen Firma Elbit Systems zusammen. Das Interesse des privaten Sektors ist Teil eines wachsenden und lukrativen, mehrere Milliarden Euro schweren „Industriekomplexes“ im Bereich der Grenzsicherung, in dem private Gewinninteressen und öffentliche Sicherheitsinteressen einander ergänzen.

Internationale Organisationen – darunter die Internationale Organisation für Migration (IOM) und das UN-Flüchtlingshilfswerk (UNHCR) – prüfen den Einsatz von KI-Anwendungen, um Menschen auf der Flucht zu registrieren, zu überwachen und Hilfsgüter zu verteilen, teilweise in Zusammenarbeit mit Partnern aus der Privatwirtschaft. Während diese Anwendungen als humanitäre Innovation dargestellt werden, werden gleichwohl oft sensible Daten unter ungleichen Machtverhältnissen gesammelt, die zwischen dem Globalen Norden und Süden oder zwischen Hilfsorganisationen und Menschen in Not bestehen.

Chancen und Versprechen

Akteur:innen, die den Einsatz von KI im Migrationsbereich befürworten, verweisen auf mehrere potenzielle Vorteile. So wird häufig Effizienz als einer der wichtigsten Treiber für den Einsatz von KI-Anwendungen genannt. Staaten, die KI einsetzen argumentieren, dass die Automatisierung von Routineaufgaben Rückstände bei der Bearbeitung von Asyl- und Visumsanträgen reduzieren, die Datenanalyse optimieren und die Koordination zwischen den Behörden verbessern kann. Ein weiterer wichtiger Treiber ist das Versprechen der Genauigkeit und die Tatsache, dass KI den biometrischen Abgleich und die Identitätsprüfung verbessern und damit Betrug und Verwaltungsfehler reduzieren kann. Im Kontext des derzeitigen Fokus auf Sicherheit, der die Politikgestaltung im Bereich des Migrationsmanagements prägt, zielen die KI-gestützte verbesserte Überwachung und Risikobewertung darauf ab, irreguläre Grenzübertritte oder gefälschte Dokumente aufzudecken. Schließlich ist auch die Vorhersagekraft der KI verlockend, da KI-gestützte Prognosen als Möglichkeit dargestellt werden, sich auf umfangreiche Migrationsbewegungen vorzubereiten, humanitäre Maßnahmen zu unterstützen und Ressourcen besser zu verteilen.

Mit solchen Vorteilen vor Augen werden von Staaten und der Privatwirtschaft Investitionen in KI begründet, mit dem Ziel sogenannter „intelligenter Grenzen“ (smart borders). Diese sollen sowohl sicher als auch technologisch fortschrittlich sein. In Deutschland werden solche Innovationen auch als Teil einer umfassenderen Digitalisierung des Migrationsmanagements angesehen, die mit den EU-Strategien für die digitale Transformation im Einklang steht.

Herausforderungen und Kritik

Trotz dieser Versprechen argumentieren Akteure aus der Zivilgesellschaft, Forschende und Betroffenen, dass der Einsatz von KI im Migrationsmanagement ernsthafte ethische und rechtliche Risiken birgt. Beispielsweise können KI-Systeme Diskriminierung und systemischen Rassismus verschärfen, da sie oft die Vorurteile in den Daten widerspiegeln, mit denen sie trainiert wurden. So ist etwa die Gesichtserkennung bei Menschen mit dunklerer Hautfarbe weniger genau, was das Risiko für Fehler bei ihrer Identifizierung erhöht. Risikobewertungssysteme können Angehörige bestimmter Nationalitäten oder ethnischer Gruppen unverhältnismäßig stark benachteiligen. Außerdem mangelt es erheblich an Transparenz bei der Entwicklung und dem Einsatz neuer Technologien. Bei vielen KI-Systemen weiß die Öffentlichkeit nur wenig darüber, wie sie ihre Entscheidungen treffen. Diese Undurchsichtigkeit untergräbt die Rechenschaftspflicht und macht es für Betroffene schwierig, schädliche Folgen anzufechten, wenn Fehler gemacht werden.

Hightech-Flüchtlingslager auf der griechischen Insel Kos. (© Petra Molnar)

Auch die Rechte auf Privatsphäre und Datenschutz sind betroffen: Werden biometrische und personenbezogene Daten gesammelt, gespeichert und analysiert, birgt dies erhebliche Risiken für die Privatsphäre, insbesondere wenn es um sensible Daten von marginalisierten Gruppen wie Menschen auf der Flucht geht. Die unbefugte Weitergabe von Daten und Hackerangriffe sind ebenfalls reale Bedrohungen. Zudem können Menschen auf der Flucht, die sich in einer prekären Lage befinden, oft keine sinnvolle Einwilligung in die Erfassung und den Umgang mit ihren Daten geben.

Rechtlich gesehen können KI- und Überwachungstechnologien, die Menschen daran hindern in Sicherheit zu gelangen, das bestehende Recht auf Asyl untergraben. Automatisierte Entscheidungen können außerdem dazu führen, dass Schutz überproportional verweigert wird oder es aufgrund fehlerhafter Risikobewertungen zu vermehrten Inhaftierungen kommt. Rechtliche Risiken dieser Art stünden im Widerspruch zum geltenden Völkerrecht, das eine individuelle Prüfung von Asylgesuchen und das Non-Refoulement-Prinzip

beinhaltet. Auch ist oft unklar, wer für durch KI verursachte Schäden verantwortlich ist und haftbar gemacht werden kann – der Staat, ein Auftragnehmer, der Softwareentwickler oder die Person bei der Einwanderungsbehörde, die die Anwendung verwendet? Oft ist der Rechtsschutz in diesem neueren Bereich wenig ausgeprägt, was das Einlegen von Rechtsmitteln erschwert – insbesondere in Grenzgebieten, die bereits von intransparenten und ermessensabhängigen Entscheidungen geprägt sind.

Rechtliche Rahmenbedingungen und Kontrolle

Derzeit ist die globale Regulierung im Bereich der KI noch schwach, wobei Innovationen Vorrang vor rechtsbasierten Ansätzen für digitale Grenzkontrolltechnologien haben. Allerdings gelten mehrere internationale und regionale Rechtsinstrumente für den KI-Einsatz im Migrationsbereich. So schützt beispielsweise der Internationale Pakt über bürgerliche und politische Rechte (ICCPR) das Recht auf Privatsphäre (Artikel 17) und das Recht auf Freiheit und Sicherheit (Artikel 9). Diese Rechte müssen im Migrationskontext auch bei der Anwendung von Technologien gewahrt werden. Die Genfer Flüchtlingskonvention von 1951 verpflichtet die Staaten zudem, Zugang zu Asyl zu gewähren und verbietet die Zurückweisung in Gebiete, in denen den betroffenen Personen Folter oder unmenschliche oder erniedrigende Behandlung drohen (Artikel 33). Automatisierte Entscheidungen, die den Zugang zum Asylbegehren blockieren, können gegen diese Schutzbestimmungen verstoßen. Nach EU-Recht regelt die Datenschutz-Grundverordnung (DSGVO) die Datenverarbeitung, einschließlich biometrischer Daten, und die EU-Grundrechtecharta garantiert das Recht auf Privatsphäre, Datenschutz und Nichtdiskriminierung. Vor kurzem hat die EU das Gesetz zur Regulierung künstlicher Intelligenz verabschiedet. Allerdings liegt hier nicht der Schutz der Rechte von Menschen auf der Flucht im Fokus.

Deutschland unterliegt als EU-Mitgliedstaat diesen rechtlichen Rahmenbedingungen, entwickelt jedoch auch eigene Durchführungsbestimmungen. Zivilgesellschaftliche Organisationen, die sich für die Rechte von Flüchtlingen und Migrant:innen einsetzen, haben mehr Transparenz hinsichtlich des Einsatzes von KI in der deutschen Migrationspolitik gefordert, darunter die Offenlegung von Verträgen und Folgenabschätzungen. Die Kontrolle in der Praxis bleibt jedoch begrenzt. Grenzgebiete unterliegen oft Notfall- oder Ausnahmeregelungen. Zudem können private Unternehmen Technologien durch Geschäftsgeheimnisse schützen. Unabhängige systematische Überprüfungen, Folgenabschätzungen und Kontrollmöglichkeiten sind jedoch für eine rechtskonforme Entwicklung und den Einsatz von Technologien an den Grenzen und zur Steuerung der Migration notwendig.

Ausblick

In einer von technologischem Fortschritt geprägten Welt, wird KI voraussichtlich eine immer wichtigere Rolle im Migrationsmanagement spielen. So werden beispielsweise das künftige Einreise-/Ausreisesystem (EES) der EU und das Europäische Reiseinformations- und -genehmigungssystem (ETIAS) KI für das Erstellen von Risikoprofilen und automatisierte Grenzkontrollen nutzen. Projekte zur Emotionserkennung, KI-Lügendetektoren und vorausschauender Polizeiarbeit wurden ebenfalls bereits getestet, allerdings auch weithin kritisiert.

Das ehemalige Flüchtlingslager auf Samos, Griechenland. (© Petra Molnar)

Wissenschaftler:innen und Menschenrechtsorganisationen fordern einen vorsorgenden Ansatz: gründliche Tests, um zu gewährleisten, dass Menschenrechte eingehalten werden, Transparenz und Kontrollmechanismen sowie eine breite öffentliche Debatte, bevor Technologien eingeführt werden. Einige Akteur:innen, darunter das Büro des Hochkommissars der Vereinten Nationen für Menschenrechte (OHCHR), schlagen ein vorübergehendes Aussetzen bestimmter Migrationstechnologien vor, insbesondere in Hochrisikosituationen. Vor allem aber werden die künftigen Entwicklungen der KI im Bereich Migration und an den Grenzen nicht nur von rechtlichen Garantien und demokratischer Rechenschaftspflicht abhängen, sondern auch davon, dass die menschlichen Kosten dieser Technologien anerkannt werden. KI-Systeme sind keine abstrakten Werkzeuge. Sie wirken sich auf reale Menschen aus, die sich oft in prekären und unsicheren Situationen befinden. Es ist wichtig, die Erfahrungen und Rechte von Menschen auf der Flucht in Diskussionen über den Einsatz von KI einzubeziehen.

KI-Anwendungen für das Migrationsmanagement werfen tiefgreifende rechtliche, ethische und soziale Fragen auf. Wenn Regierungen neue Technologien einführen, gilt es sicherzustellen, dass Effizienz und Sicherheit mit Menschenrechten, Würde und Gerechtigkeit vereinbar bleiben. Im Mittelpunkt dieser Debatten stehen Menschen, nicht nur Datenpunkte. Transparente Regeln, eine strenge Kontrolle und die Verpflichtung zu einem menschenzentrierten Design, das auch das Fachwissen der betroffenen Individuen und Communities berücksichtigt, sollten jede zukünftige Nutzung von KI im Migrationsbereich leiten.

Übersetzung aus dem Englischen: Vera Hanewinkel

Fussnoten/Quellen/Literatur

Petra Molnar, The Walls Have Eyes: Surviving Migration in the Age of Artificial Intelligence (2024)

Petra Molnar im Gespräch mit Benjamin Etzold über „intelligente Grenzen“: „Keines dieser KI-gestützten Instrumente ist neutral. Sie dienen einem bestimmten Zweck – der Ausgrenzung.“ (2025)

Mirca Madianou, Technocolonialism: When Technology for Good is Harmful (2024)

OHCHR, Digital Border Governance: A Human Rights Based Approach (2023)

The Migration and Technology Monitor Project

Lizenz

Dieser Text ist unter der Creative Commons Lizenz „CC BY-NC-ND 4.0 – Namensnennung – Nicht kommerziell – Keine Bearbeitungen 4.0 International“ veröffentlicht. Autor/-in: Petra Molnar für bpb.de. Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 4.0 und des/der Autors/-in teilen. Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.

Originalpublikation: https://www.bpb.de/themen/migration-integration/kurzdossiers/migration-und-sicherheit/570377/kuenstliche-intelligenz-im-migrationsmanagement/

09/22/25

App-Zwang-Deutschlandticket

Deutschlandticket ohne App-Zwang

Wer das Deutschlandticket kaufen möchte, wird von der Deutschen Bahn schnell auf ihren „DB Schnüffel-Navigator“ geleitet. Viele Verkehrsunternehmen bieten das Ticket aber auch datensparsamer über Chipkarte und Co. an.

Das Deutschlandticket ist ein weithin anerkannter Erfolg. Doch die Umsetzung dieses Angebots ist ein weiteres Beispiel für den fatal falschen Begriff von Digitalisierung, der sich hierzulande breitmacht. Um in dieser undurchsichtigen Lage nicht den Überblick zu verlieren, haben wir eine Liste mit Hinweisen zusammengestellt, bei welchen Verkehrsunternehmen das Deutschlandticket möglichst datenschutzfreundlich gekauft und genutzt werden kann. So können Sie sich über die Angebote informieren und sich nach Ihren Wünschen für eine datensparsamere Option entscheiden.

Bei der Auswahl sind Sie nicht auf Ihre lokalen Verkehrsunternehmen beschränkt, denn die meisten Unternehmen bieten ihre Deutschlandtickets online an und verlangen nicht, dass Sie in einer bestimmten Region wohnen. Wer das Deutschlandticket allerdings analog erwerben möchte, findet eine Vielzahl an Städten, wo das Abo vor Ort abgeschlossen werden kann – auch die Bestellung per Post ist möglich. Voller Artikel auf Digitalcourage

Digitalzwang

Das gute digitale Leben setzt voraus, dass wir Digitalisierung nicht mit Überwachung gleichsetzen und immer auch Wahlfreiheit haben, analog zu bleiben.

Symbol-Bild: DigitalcourageCC-BY 4.0

09/22/25

Die Reichweitenlüge

Instagram, TikTok und Co.

Leena Simon 09.09.2025 (von Digitalcourage.de)

Millionen Follower, null Wirkung: „Social Media“ verkauft uns ein volles Stadion – und schaltet dann das Mikro stumm.

Das riesige Fußballstadion ist vollbesetzt. Das Mikrofon liegt in Ihrer Hand. „Wenn Sie dort rein sprechen“ – so hat man es Ihnen immer wieder erklärt – „erreichen Sie besonders viele Menschen.“ In Wahrheit aber ist das Mikro nur für die Reihen eins bis drei freigeschaltet. Von den 80.000 Anwesenden hört Sie tatsächlich kaum jemand.

So funktioniert das bei allen sozialen Medien mit Algorithmus. Es gibt nur einen Unterschied: Sie merken nicht, dass Sie kaum jemand hört und denken, Sie hätten mordsmäßig viele Leute erreicht. Denn die Reichweitenlüge, ein Begriff, den unser Gründungsmitglied padeluun geprägt hat, ist tief in unseren Überzeugungen angelangt.

Follower sind nicht gleich Follower

In jeder Diskussion über die Probleme der giergetriebenen sozialen Medien kommt irgendwann das Reichweiten-Argument: Da sind halt alle und dort müsse man die Menschen abholen und man tue sich ja keinen Gefallen, wenn man im Fediverse in einer Nische hockt. Dabei passiert ein grundlegender Fehler: Man darf nämlich die Follower im Fediverse nicht mit jenen auf Instagram oder X gleichsetzen. Bei Letzteren sagt es nämlich gar nicht so viel aus, wie wir denken. Denn die eigenen Follower kriegen nicht alle eigenen Posts eingeblendet. Auch da entscheidet der Algorithmus mit. Deshalb spreche ich im Fediverse gerne von „Qualitätsfollowern“. Denn die kriegen ausnahmslos alle Nachrichten angezeigt. Vielleicht erklärt sich auch so, weshalb Digitalcourage dort mit viel weniger Boosts (so nennt man dort die Shares bzw. Retweets), so viel mehr Antworten erhält.

Als X noch Twitter hieß und Digitalcourage dort auch noch einen aktiven Account betrieb, haben wir das selbst erlebt: Während unsere Inhalte im Fediverse mit deutlich weniger Followern lebhaft geteilt und kommentiert wurden, versandeten die gleichen Beiträge unseres (damals) erheblich followerstärkeren Twitter-Accounts. Follower meldeten uns immer wieder: „Wir haben eure Posts gar nicht gesehen.“ Mit einem Viertel an Followern erhielten wir im Fediverse doppelt so viel Aufmerksamkeit. So viel zur angeblich ach so viel größeren Reichweite auf Twitter. Der Algorithmus hatte uns einfach ausgeblendet. Aber wie lässt sich das belegen oder sichtbar machen?
Was viele nicht bedenken: Wenn mir der Algorithmus bestimmte Inhalte zeigt, bedeutet das gleichzeitig, dass er mir andere unterschlägt.

Erfolg als Illusion

Außerdem sehen wir ja immer nur die wenigen Erfolgsstories, die von der manipulierten Öffentlichkeit profitieren. Wir blenden dann schnell aus, dass es sich um seltene Ausnahmen handelt – um die Überlebenden einer gigantischen Auslese. Was nach allgemeinem Erfolg aussieht, ist in Wahrheit nur der „Survivorship Bias“: Wir sehen die paar Accounts, die dank Algorithmen durch die Decke gehen, und vergessen die unzähligen, die im Schatten bleiben. Da wollen wir natürlich dazu gehören. Genau mit diesem Trick füttern uns die giergetriebenen sozialen Medien – sie zeigen uns die Stars, damit wir glauben, alle könnten so glänzen.

Unzumutbare Spielregeln

Das ist allerdings eine Lüge. Denn das Versprechen der großen Reichweite entpuppt sich bei näherem Hinsehen als Scheinriese. Eine große Reichweite erreichen Sie dort nur dann, wenn Sie bereit sind, sich den Spielregeln der Plattformen zu unterwerfen:

  • Wenn sich Ihre Inhalte gut kommerzialisieren lassen, also seicht, gefällig und bloß nicht zu intelligent sind.
  • Wenn Sie bezahlen – Reichweite gegen Geld geht immer.
  • Wenn Sie Inhalte auf Klick-Format eindampfen, bunt bebildern und dauernd Content rauspusten.
  • Wenn Sie besonders pointiert, polarisierend oder wutträchtig posten.
  • Wenn Sie alles bis zur Unkenntlichkeit verkürzen, keine Links setzen und sich an einer unkonstruktiven Diskussionskultur beteiligen.
  • Und wenn es Sie nicht stört, in rechtsextremer Gesellschaft zu posten, deren Inhalte stets viel mehr Reichweite kriegen werden.

Für alle anderen ist die Reichweite sehr viel kleiner, als es den Anschein hat. Lange, differenzierte oder ausgewogene Inhalte lassen sich nicht gut monetarisieren – und werden oft einfach nicht angezeigt. Das angeblich so große Reichweitenpotential steht Ihnen dann schlicht nicht zur Verfügung.

Retorten-Reichweite

Hinzu kommt: Die hohen Nutzendenzahlen dieser Plattformen sind vor allem Potential – aber nicht Realität. Wer tatsächlich viele Menschen erreicht, entscheidet allein der Algorithmus. Und in diesen Zahlen stecken ohnehin massenhaft Bots, Karteileichen, Spam-Accounts und Trolle, die Hassnachrichten verbreiten. Die schöne große Bühne ist in Wahrheit vollgestopft mit Geisterpublikum.

Das mit der Reichweite ist eine große Lüge. Wir lassen uns von Zahlen blenden, die genau gar nichts aussagen. Am Ende bleiben von Gier getriebene soziale Medien das, was sie sind: Manipulationsmaschinen, die uns glauben machen wollen, wir sprächen ins volle Stadion – während sie heimlich die Lautsprecher nur für bestimmte Reihen anschalten.

Die Reichweite ist nicht groß. Sie ist frisiert: abhängig von der Gnade jener Konzerne, die davon profitieren, uns gegeneinander aufzuhetzen.

Ehrliche Reichweite gibts im Fediverse

Dann doch lieber ins Fediverse: Da sind zwar in absoluten Zahlen aktuell noch weniger Leute unterwegs. Doch eine Community, die ich mir dort aufgebaut habe, wird mir erhalten bleiben und es gibt keinen Algorithmus, der sich zwischen mich und meine Leser.innen stellt und meine Nachrichten verschwinden lässt, weil sie nicht hasserfüllt genug sind.

Leena Simon Beitrag zuerst erschienen auf Digitalcourage.de

https://digitalcourage.de/blog/2025/die-reichweitenluege

Digitalcourage engagiert sich seit 1987 für Grundrechte, Datenschutz und eine lebenswerte Welt im digitalen Zeitalter. Wir sind technikaffin, doch wir wehren uns dagegen, dass unsere Demokratie „verdatet und verkauft“ wird. Seit 2000 verleihen wir die BigBrotherAwards. Digitalcourage ist gemeinnützig, finanziert sich durch Spenden und lebt von viel freiwilliger Arbeit. Mehr zu unserer Arbeit.

Info-Material zu Digitalter Mündigkeit bei Digitalcourage

In unserer Wissensreihe kurz&mündig werden komplexe Themen auf wenigen Seiten im kleinen Format herunter gebrochen, so dass alle sie verstehen können. Immer nach dem Motto: Man muss nicht alles wissen, aber man sollte wissen, wovon man keine Ahnung hat. „kurz&mündig“ entsteht als Zusammenarbeit von Digitalcourage und Art d’Ameublement. Wir nennen sie manchmal scherzhaft „Pixi-Bücher für Erwachsene“.

Sie sind Buchhändler.in? Fragen Sie nach unseren fertig bestückten Verkaufsständern!

Sie haben selbst ein Thema, das in unsere Reihe passen würde? Bieten Sie es uns an!

08/21/25

Peter Welchering: ARD & ZDF-Radikalreform-Bedarf – GEZ 5 Euro!

Thomas Barth

Den Freunden des Internet ist Peter Welchering ein Begriff, als Netzmedien-Fachredakteur begleitete er die Entwicklung des Internet und brachte es bis zum zum Presserat. Der altgediente SWR und DLF-Redakteur ist die kompetente Stimme der wöchentlichen Samstags-Sendung „Computer und Kommunikation“, war häufig auf Jahreskongressen des Chaos Computer Clubs vor Ort und berichtet seit Jahrzehnten gut informiert und unvoreingenommen. Er landete vor drei Tagen mit fundamentaler Kritik an den ÖRR (Öffentlich-rechtlichen Rundfunkanstalten) einen Paukenschlag in der Berliner Zeitung: Die ÖRR-Chefetagen streichen Luxusgehälter sowie üppige Pensionen ein und lassen immer weniger Geld übrig für die Programm-Produktion. Der ÖRR sei, so Welchering, ohne Radikalreform nicht überlebensfähig -und er liefert konkrete Lösungsvorschläge für die Rundfunkpolitik.

„Ich habe das mit einigen Rundfunkpolitikern diskutiert. Die zeigten sich dann jedes Mal erstaunt, weil ihnen die Hierarchen von ARD und ZDF doch immer anderes erzählen. Aber so richtig anpacken wollten sie das Problem der tickenden Zeitbombe namens ÖRR dann auch nicht. Sie fürchten, dass sie dann im öffentlich-rechtlichen Rundfunk nicht mehr vorkämen oder sogar publizistisch fertiggemacht würden, wenn sie sich solche medienpolitischen Vorschläge öffentlich zu eigen machen würden. Man muss es sagen, wie es ist: Dort geht die Angst um.“ (Welchering, Berliner Zeitung 18.8.2025)

ÖRR: Immer schlechteres Programm, immer einseitiger in der Berichterstattung

Die ÖRR liefern, so Peter Welchering, immer schlechteres Programm. Sie werden immer einseitiger in der Berichterstattung und senden immer öfter schlecht oder gar nicht recherchiertes Material sowie sogar falsche Tatsachenbehauptungen (womit sie im Medien-Mainstream allerdings nicht allein dastehen, wie der Relotius-Skandal belegt). Und die ÖRR benötigen immer mehr Geld für ihre immer lausigeren Leistungen -kein Wunder, dass einem hart arbeitenden Fachredakteur da der Kragen platzte.

Vor allen Dingen müssen nach Ansicht von Welchering die Kosten für das fest angestellte Personal deutlich herunter, die würden allein beim SWR (Südwestrundfunk), wo der ÖRR-Journalist sich gut auskennt, gut 400 Mio. Euro verschlingen. Die Bezüge lägen dabei erheblich über den im öffentlichen Dienst gültigen Tarifen. Dazu tobt sich dort die Bürokratie bis ins Absurde aus: Bei vielen geschaffenen Planstellen erinnerten sich, so der Kritiker, „nicht einmal mehr die ebenfalls sehr hoch dotierten Hauptabteilungsleiter daran, weshalb die eigentlich mal eingerichtet wurden und was dort gearbeitet“ würde. Ob sich dort quasi-feudale Clanstrukturen, von den ÖRR gerne im Migrantenmilieu angeprangert, bei Stellenbesetzungen durchgesetzt haben, diskutiert Welchering zwar nicht. Aber den unverschämten Griff der Führungsetagen in die öffentlichen Kassen, die unser GEZ-Zwangsobulus immer praller auffüllen soll, dokumentiert der Kritiker akribisch:

„Wenn wir uns mal vor Augen führen, dass der SWR allein fast 2,5 Milliarden Euro Rückstellungen für Pensionen und ähnliche Verpflichtungen (Stand 31.12.2024) gebildet hat, die Spitzengehälter der Senderchefs im Jahr 2024 mehr als 4,5 Mio. Euro und die Gesamtaufwendungen für Löhne und Gehälter gute 400 Mio. betragen, kommen wir allein hier auf erkleckliche Einsparmöglichkeiten. Der Intendant Kai Gniffke erhält laut Südkurier 403.146 Euro im Jahr, Clemens Bratzler, Programmdirektor Information, 246.898 Euro. Die Programmdirektorin Anke Mai bringt es auf satte 242.158 Euro. Macht allein für die Programmdirektion eine knappe halbe Million. Und die Programmdirektoren werden noch komplettiert durch zwei Landessendedirektorinnen. Stefanie Schneider, für das SWR-Programm in Baden-Württemberg zuständig, ging 2024 mit 286.461 im Jahr nach Hause, ihr rheinland-pfälzisches Gegenstück Ulla Fiebig mit 252.780 Euro. (…) Und das kostet die Chefetage nur einer regionalen ARD-Anstalt. Insgesamt gibt es neun davon. Aus dem Rundfunkbeitrag finanzierte öffentlich-rechtliche Rundfunkanstalten zählen wir elf in Deutschland.“ (Welchering, Berliner Zeitung 18.8.2025)

GEZ 5 Euro pro Monat möglich

Das gehe preisgünstiger, analysiert Peter Welchering, und zwar durch eine radikale Zentralisierung der föderal zersplitterten Senderlandschaft vor allem der ARD: Wenn man bundesweit von einem nationalen Fernsehprogramm ausginge. Dieses sollte Regionalfenster in die Bundesländer eröffnen, sowie ein Informationsradio senden, einen Kulturkanal und einen Jugend-Kanal. Alles sollte auch mittels einer einzigen sendereigenen sozialen Plattformen namens Mediathek distribuiert werden. So käme man laut Welchering für Programmaufwand und Verwaltung auf deutlich weniger als eine Milliarde Euro jährlichen Finanzbedarf. Seine sensationelle Folgerung: Die Absenkung des Rundfunkbeitrages je nach Beitragsmodellen auf fünf oder weniger Euro pro Monat sei dann kein Problem.

„ARD und ZDF sind ein Fass ohne Boden geworden. Mehr als 1,5 Milliarden Euro hatte der Sender aus Rundfunkbeiträgen eingenommen. In Ziffern: 1.550.741.130,20 Euro. Eine stolze Summe – zumal für einen Regionalsender. Aber das Geld reichte nicht. Der SWR schloss das Jahr 2024 mit einem Fehlbetrag von gut 33 Millionen Euro ab. In Ziffern: 33.329.215,33 Euro. Die Senderchefs feierten sich trotzdem. Hans-Albert Stechl, der mächtige Vorsitzende des Verwaltungsrats und somit eigentlich Herr der Finanzen, wollte das Ergebnis denn auch schönreden.“ (Welchering, Berliner Zeitung 18.8.2025)

Schon vor einigen Jahren hatte Peter Welchering für das Intendantengehalt die Stufe B3 bis höchstens B6 vorgeschlagen, üppige Saläre, wie sie Oberbürgermeister größerer Städte oder ein Brigadegeneral der Bundeswehr bekommen. Und viele Geschäftsprozesse des ÖRR könnten massiv verschlankt sowie die Versorgung altgedienter Parteisoldaten anderen Institutionen überlassen werden, so Welchering. „Legionen von Mitarbeitern“ seien damit beschäftigt, Power-Point-Folien zu produzieren, nur damit die sich dann die überbezahlten Senderchefs untereinander zeigen. Warum? Laut Welcherings stellenweise auch etwas süffisanter Analyse allein, um damit ihren Arbeitstag „mehr oder weniger strukturiert verbringen“ zu dürfen.

Aber was geschieht mit den Milliarden für Pensionen und Ruhegehälter, die längst zugesagt sind? Welchering schlägt in seinem Artikel mit der bezeichnenden, nur leicht polemischen Überschrift „ARD und ZDF: In Zukunft nur noch Pensionsanstalten mit angeschlossenem Sendebetrieb?“ dafür eine „Bad Bank“ vor, so Telepolis. In sie sollen alle Immobilien, Finanzanlagen und Rückstellungen überführt werden. Diese Bad Bank bedient weiterhin die Pensionsansprüche, während die neue Anstalt unbelastet neu starten könnte. Rein finanztechnisch, so Welchering, sei das machbar -aber auch rundfunkpolitisch? Eher nicht. Die ÖRR werden diesen für sie hochnotpeinlichen Reformvorschlag verbissen totschweigen -in gewohnter Lückenpresse-Manier. Der Begriff „Lückenpresse“ stammt von Professor Ulrich Teusch, einer der raren Medienkritiker in unserer akademischen Welt, und wird bei Wikipedia tendenziös auf den Begriff „Lügenpresse“ weitergeleitet. Teusch kam unter dem Topos Lückenpresse zu dem Schluss, bei manipulativer Nachrichtengestaltung werde gezielt gewichtet, unterdrückt und bewertet; eine wichtige Erkenntnis, die Wikipedia tief unten auf der Personen-Site von Teusch versteckt und damit selbst ein Beispiel für genau diese Manipulationstechnik liefert (deren breite Anwendung maßgeblich zu den von Welchering monierten Qualitätsverlusten der ÖRR beitragen dürfte).

Hoffen wir, dass die ÖRR einen ihrer fähigsten Redakteure nicht für seinen kreativen kritischen Geist abstrafen und seine Sendezeiten reduzieren oder ein Blacklisting verhängen. Welchering steht freilich ohnehin kurz vor der Rente, sein ökonomischer Schaden wäre in diesem Fall wenigstens überschaubar.

08/20/25

Digitale Sackgassen

Wie der Zwang zu Apps, Authentifizierung und Konten unsere Selbstbestimmung aushebelt

Artikel von Günther Burbach

Man wollte nur mal schnell seine Lohnabrechnung herunterladen. Ein paar Klicks, ein PDF, fertig – so die Vorstellung. Was man stattdessen bekommt, ist ein bürokratisch-technisches Hindernisrennen aus gesperrten Konten, nicht funktionierenden Apps, Zwei-Faktor-Hürden und digitalem Frust. Willkommen im deutschen Alltag 2025, wo die Digitalisierung nicht vereinfacht, sondern verkompliziert. Was nach „mehr Sicherheit“ klingt, ist in Wirklichkeit ein neuer Zwangspfad. Eine politische Regulierung wäre dringend nötig.

Günther Burbach analysiert auf den Nachdenkseiten.de „ein technisches System, das vorgibt, sicher und effizient zu sein, in Wahrheit aber viele Menschen ausschließt, frustriert und in Abo-Fallen treibt.“ (Voller Text)

Beitrag ist dort auch als Audio-Podcast verfügbar.

07/12/25

Geheimer Digitalausschuss?

CCC fordert: Keine verschlossenen Türen im Digitalausschuss!

9. Juli 2025, erdgeist (CCC)

Der Chaos Computer Club (CCC) fordert zusammen mit mehr als zwanzig Organisationen aus Zivilgesellschaft und Wissenschaft, dass der Digitalausschuss des Deutschen Bundestags von seinen Plänen abrückt, fortan im Geheimen zu tagen. Solche Sitzungen unter Ausschluss der Öffentlichkeit wären schlicht reaktionär, weil sie einen erheblichen Rückschritt bei Transparenz und Partizipation darstellen.

Der Ausschuss für Digitales und Staatsmodernisierung des Deutschen Bundestags plant in seiner Geschäftsordnung für die neue Legislaturperiode eine grundlegende Veränderung: Auf Initiative von Union und SPD sollen die Sitzungen des Ausschusses nun grundsätzlich nicht-öffentlich stattfinden. Die Öffentlichkeit soll nur auf besonderen Beschluss zugelassen werden.

In einer Zeit, in der Digitalisierung alle Lebensbereiche betrifft, ist eine öffentliche Diskussion unabdingbar. Digitale Angelegenheiten brauchen technische Expertise, inhaltliche Diskussion mit offenem Visier und gesellschaftliche Beteiligung, nicht aber Abschottung und Geheimniskrämerei.

Dass die schwarz-schwarz-roten Koalitionäre überhaupt auf die Idee kommen, im Jahr 2025 und gerade im Digitalausschuss die Möglichkeit der öffentlichen Teilnahme abzuschneiden, zeigt deren verkümmertes Demokratieverständnis. Denn nur wenn Informationen, Stellungnahmen und Argumente frei zugänglich sind, können wir alle die Kontrolle ausüben, die Prozesse begleiten und damit schlicht die Demokratie leben, die andauernd in Sonntagsreden besungen wird. Ohne öffentliche Einblicke fehlt jeder Anreiz, um digitale Zukünfte zu gestalten und mitzutragen.

Die als „Staatsmodernisierung“ mit Bürokratieabbau verniedlichte Agenda einer überaus wirtschaftsfreundlichen, aber sozial- und gemeinwohlfeindlichen Politik muss mit Argusaugen live beobachtbar sein, statt in nicht-öffentlichen Kungelrunden besprochen zu werden. Gerade bei digitalen Fragen muss das Gemeinwohl, die Kommerzfreiheit und die Transparenz mitbedacht und auch gelebt werden. Lasst uns also wenigstens zugucken.

Elina Eickstädt, Sprecherin des CCC: „Digitalpolitik hat Einfluss auf die Lebensrealität aller. Vertrauen braucht Transparenz und technische Expertise sowie fachliche Einordnung. Verhandlungen hinter verschlossenen Türen würde diese wichtige Expertise ausschließen und Akteurinnen in den Bereich des Reagieren statt kritischen Begleitens zurückdrängen.“ (von CCC)

Links

Offener Brief – Mut zu Transparenz: Öffentliche Sitzungen im Digitalausschuss

07/1/25

Julian Assange: Ein Jahr Freiheit

Ein Überblick & Update zu ‘Zivilcourage – Julian Assange’ (von Wau-Holland-Stiftung)

Wir freuen uns, dass sich in dieser Woche der erste Jahrestag der Freilassung [1] des Mitbegründers und ehemaligen Chefredakteurs von WikiLeaks, Julian Assange, begangen wird, nachdem er mehr als ein Jahrzehnt lang in verschiedenen Zuständen der Haft und des Gefängnisses in England gelebt hat.

Wie wir in unseren Transparenzberichten [2][3] ausführlich dargelegt haben, hat die Wau Holland Stiftung damit begonnen, Spenden für die juristische Verteidigung von Herrn Assange zu sammeln, nachdem dieser im April 2019 [4] aufgrund einer US-Anklage und eines Auslieferungsersuchens, die seine Arbeit mit WikiLeaks kriminalisieren [5], verhaftet wurde. Die Stiftung vertrat die Ansicht, dass der komplexe Prozess [6][7] gegen Herrn Assange als ein Musterfall für die Presse- und Informationsfreiheit angesehen werden sollte, die für unsere in der Satzung definierten Kernziele relevant sind. Dieses mehrjährige Spendenprojekt war äußerst erfolgreich und sogar innovativ [8], trotz drohender Gefahren und dokumentierter Fälle von Überwachung [9], politischem Druck [10] und finanzieller Zensur [11].

Seit der Freilassung von Herrn Assange in sein Heimatland Australien im vergangenen Jahr hat er vor der Parlamentarischen Versammlung des Europarats gesprochen und wurde daraufhin formell zum politischen Gefangenen erklärt [12]. Anfang dieses Jahres wurde in einem laufenden Informationsfreiheitsverfahren der italienischen investigativen Journalistin Stefania Maurizi ebenfalls ein wichtiger Sieg errungen: die britische Staatsanwaltschaft (Crown Prosecution Service/CPS) wurde schließlich angewiesen, relevante Dokumente über die ungewöhnliche Fallbearbeitung des Verfahrens gegen Herrn Assange zur Verfügung zu stellen [13].

Und letzten Monat besuchten Herr und Frau Assange persönlich die Premiere des neuen Dokumentarfilms von Regisseur Eugene Jarecki, „The Six Billion Dollar Man“, bei den 78. jährlichen Filmfestspielen von Cannes in Frankreich [14]. Der Film [15], der den jahrzehntelangen Kampf von Herrn Assange gegen seine Auslieferung an die USA zeigt, wurde mit dem Spezialpreis der Jury L’Œil d’or (Goldenes Auge / Golden Eye) und dem erstmals verliehenen Golden Globe für Dokumentarfilm ausgezeichnet. „Noch nie war es so gefährlich, Journalist zu sein wie heute, in einer Welt, in der die Verteidigung der Wahrheit von allen Seiten angegriffen wird“, heißt es auf der Seite der Jury [16].

Nach so vielen Jahren der Ungewissheit und des Zweifels, ob die soliden juristischen Argumente, das engagierte Unterstützungsnetzwerk und die zahlreichen öffentlichen Advocacy-Kampagnen erfolgreich sein würden, ist die Stiftung hoffnungsvoll, dass sich Herr Assange in Freiheit erholen wird, und erfreut über die internationale Anerkennung, die seine Akte der Zivilcourage weiterhin zu Recht erfahren.

[1] https://wauland.de/de/news/2024/06/julian-assange-frei/

[2] https://wauland.de/de/news/2024/07/vorlaufiger-transparenzbericht-fur-das-projekt-zivilcourage-julian-assange/

[3] https://wauland.de/de/news/2024/12/transparenzbericht-fur-das-projekt-julian-assange-stand-26-11-2024/

[4] https://wauland.de/de/news/2019/04/zivilcourage-julian-assange/

[5] https://wauland.de/de/news/2024/08/die-veroffentlichung-der-unredigierten-manning-leaks/

[6] https://wauland.de/de/news/2020/11/julian-assange-auslieferungsverfahren-gerichts-prozess-diagram/

[7] https://wauland.de/de/news/2022/07/auslieferungsverfahren-julian-assange/

[8] https://wauland.de/de/news/2022/02/spende-fur-das-projekt-zivilcourage-julian-assange/

[9] https://www.youtube.com/watch?v=5ChhAMubOPM

[10] https://archive.is/13Qli

[11] https://wikileaks.org/Banking-Blockade.html

[12] https://wauland.de/de/news/2024/10/resolution-des-europarats-zum-fall-assange/

[13] https://wauland.de/de/news/2025/04/ein-gewinn-fur-die-informationsfreiheit/

[14] https://deadline.com/2025/05/2025-cannes-film-festival-golden-eye-award-1236409438/

[15] https://www.imdb.com/title/tt34968474

[16] https://www.scam.fr/actualites-ressources/loeil-dor-2025-est-decerne-a-deni-oumar-pitsaev-et-le-prix-special-du-jury-a-eugene-jarecki/


05/25/25

Kontrollfantasien & Generation Z

Was immer ihr sagt, gebt nichts preis

Kolumne von Carla Siepmann – 25.05.2025 aus Netzpolitik

Wer politisch aktiv ist, organisiert sich oftmals online – und macht sich damit angreifbar. Tech-Konzerne horten unsere Daten, während der Staat immer noch mehr Überwachung will. Besonders oppositionelle und jugendliche Gruppierungen müssen sich vor dieser Ausspähung schützen.

Der Generation Z ist es gleichgültig, was mit ihren Daten im Netz geschieht. Wer sein Leben auf Instagram teilt, so das weitverbreitete Vorurteil, kann kein ernsthaftes Interesse am Schutz persönlicher Informationen haben.

Diese Behauptung geht nicht nur am eigentlichen Problem vorbei, sondern sie legitimiert den kommerziellen Datenklau der Konzerne und die Kontrollfantasien staatlicher Akteure.

Tatsächlich wächst derzeit eine Generation heran, die soziale Medien als Räume politischer Teilhabe begreift und nutzt. Jugendverbände, Bewegungsinitiativen oder autonome Gruppen – sie alle nutzen soziale Medien, um sich zu vernetzen, auszutauschen und andere zu mobilisieren.

Doch gerade wer das Netz für politische Zwecke nutzt, macht sich vulnerabel. Zum einen gegenüber Big-Tech-Konzernen, die Daten sammeln und für kommerzielle Zwecke nutzen. Zum anderen gegenüber einem Staat, der ebenfalls gerne mehr darüber wissen möchte, was online ausgetauscht wird.

Eine neue Qualität der Ausspähung

Um politischen Einfluss auszuüben, ist Sichtbarkeit in sozialen Medien wichtig. Besonders Jugendliche verwenden Online-Netzwerke, um sich politisch zu organisieren. Instagram etwa nutzten 2023 rund 80 Prozent der unter 29-Jährigen, während es bei Menschen über 70 nur fünf Prozent waren. Doch Plattformen wie TikTok, Instagram oder WhatsApp verlangen Daten als Preis für Reichweite.

Die ökonomische Logik dahinter ist klar: Je mehr Daten gesammelt werden, desto besser lassen sich Verhaltensmuster analysieren, Vorlieben verkaufen und – in einem nächsten Schritt – möglicherweise politisch instrumentalisieren.

Die Ausspähung durch die Konzerne erreicht nun sogar eine neue Qualität. Meta hat angekündigt, seine KI-Modelle mit öffentlich zugänglichen Inhalten auf Facebook und Instagram zu trainieren – ohne dass Nutzer*innen dem ausdrücklich zustimmen müssen. Die Betroffenen müssen dem stattdessen aktiv widersprechen.

Politische Gruppen machen sich angreifbar

Gerade progressive, queere, migrantische oder feministische Gruppen, die soziale Medien nutzen, machen sich damit angreifbar. Denn sie verlassen sich auf Systeme, die nicht für sie gemacht wurden – sondern die gegen sie arbeiten können. TikTok, WhatsApp, Instagram und Co werden nicht kostenfrei bereitgestellt, um politische Partizipation zu ermöglichen. Der Zweck der Plattformen ist die Gewinnmaximierung. Und der Preis dafür sind eben allzu oft die Daten der Nutzer*innen.

Das ist kein abstraktes Problem, mit dem sich doch bitte Datenschützer*innen und Bürgerrechtler*innen beschäftigen sollen. Die Plattformen erheben Nutzungs-, Standort- und Gerätedaten der Nutzer*innen, damit sind die allermeisten Online-Aktivitäten einer Person nachverfolgbar. Wer dabei Zugriff auf welche Daten erlangt und an wen sie weitergegeben werden – ob an andere Konzerne oder staatliche Institutionen – bleibt dabei oft unklar. Mit dem Einsatz von KI-Technologien drohen sich diese Risiken zu verschärfen. Denn sie erleichtern es, Personen automatisiert zu identifizieren, soziale Netzwerke zu analysieren und potenziell „auffällige“ Inhalte zu klassifizieren.

Wenn Inhalte, die aus politischer Überzeugung gepostet werden – ein Banner auf einer Demo, ein politischer Aufruf oder der Like für einen regierungskritischen Post –, in KI-Systeme eingespeist werden, bedeutet das zweierlei: Erstens werden die Daten mit anderen Datensätzen in Verbindung gebracht, um bestimmte Muster aus ihnen abzuleiten. Zweitens weiß niemand, was mit den Daten später geschieht – an wen sie weitergegeben und für welche Zwecke sie verwendet werden.

In autoritären Staaten ist der Einsatz derartiger Instrumente bereits Realität. Und auch in Europa wird dieser zunehmend diskutiert, etwa die automatisierte Auswertung sozialer Medien für die Polizeiarbeit oder für die Migrationskontrolle.

Datenschutz als Selbstverteidigung

Insbesondere für oppositionelle politische Akteur:innen ist Datenschutz damit längst keine individuelle Entscheidung mehr, sondern wird schlichtweg zur politischen Notwendigkeit: Wer online politisch sichtbar sein will, muss sich technisch schützen. Nicht aus Paranoia, sondern aus Vorsicht. Und um langfristig handlungsfähig zu bleiben.

Diese sieben Schritte können konkret dabei helfen:

  1. Meta-KI widersprechen: Noch bis zum 26. Mai 2025 kann man der Verwendung der eigenen Daten für das KI-Training bei Meta widersprechen. Das sollten alle tun, die auf den Plattformen des Konzerns politische Inhalte teilen oder mit Accounts interagieren, die von Repressionen betroffen sein könnten. Vor allem all jene, die solche Accounts für Organisationen betreuen, sollten diesen Widerspruch einlegen. Eine einfache Anleitung, wie das geht, gibt es hier.
  2. Signal statt WhatsApp: So nervig es auch ist, immer wieder zwischen WhatsApp und Signal zu wechseln, weil die Oma entgegen vieler Anderer immer noch auf WhatsApp schreibt – es lohnt sich, den politischen Austausch auf Signal zu verlagern. Signal bietet Ende-zu-Ende-Verschlüsselung und gibt keine Metadaten an Werbekonzerne weiter. Gerade für die interne Kommunikation politischer Gruppen ist die App die bessere Wahl.
  3. Nur notwendige Daten teilen: Immer wieder verbreiten politische Gruppen allzu freizügig die Adressen ihrer Treffpunkte oder die Klarnamen der Teilnehmer*innen über Social Media. Diese Daten sollten nicht geteilt werden, solange das nicht unbedingt notwendig ist. Auch sollten Online-Formulare, Mitgliederlisten oder Kampagnen-Tools aufs Nötigste reduziert werden.
  4. Keine Gesichter zeigen: Fotos von der politischen Demo, dem Sommerfest im besetzten Haus oder von der Ferienfreizeit zeigen, an welchen Orten sich wer wann aufgehalten hat. Wenn diese Bilder veröffentlicht werden, sollten die abgebildeten Gesichter verpixelt werden. Die schwarz-rote Koalition will die biometrische Internetfahndung einführen und dafür eine riesige biometrische Datenbank einrichten. Je weniger Bilder von Gesichtern also online zu finden sind, desto geringer ist die Wahrscheinlichkeit, mit Hilfe einer solchen Software identifiziert zu werden.
  5. Cookies ablehnen: Bei der Recherche im Netz ist es wichtig, Tracking zu unterbinden. Erst vor wenigen Wochen urteilte das Verwaltungsgericht Hannover, dass Webseiten ihren Besucher:innen auch eine „Alles ablehnen“-Schaltfläche für Cookies anbieten müssen. Eine solch eindeutige Ablehnung ist sinnvoll, um möglichst wenig Datenspuren im Netz zu hinterlassen.
  6. Digitale Schutzräume aufbauen: Aufklärung in der eigenen Gruppe, Schulungen zu sicherer Kommunikation, gemeinsame Strategien zur Datensparsamkeit – all das stärkt die kollektive Sicherheit. Es sollten gemeinsame Absprachen getroffen werden: Welche Kommunikationskanäle werden genutzt? Was wird auf Social Media geteilt? Über welche Accounts wird auf welche Informationen zugegriffen?
  7. Im Zweifel gilt: Shut the f*ck up.

Der Staat will mehr, viel mehr Überwachung

Doch nicht nur Big-Tech will an unsere Daten: Derzeit wird der Wind rauer und der Ruf nach noch mehr Überwachung immer lauter. Union und SPD wollen auch die Vorratsdatenspeicherung neu auflegen, Staatstrojaner einsetzen und die Videoüberwachung ausbauen. Und erst kürzlich entschied der Bundesgerichtshof, dass Polizist*innen Beschuldigte unter bestimmten Bedingungen dazu zwingen dürfen, ihr Smartphone mit dem Fingerabdruck zu entsperren.

Gerade linke Organisationen – von Klimabewegungen über migrantische Selbstorganisation bis zu antifaschistischen Bündnissen – waren schon in der Vergangenheit Ziel staatlicher Überwachung und Kriminalisierung. Das wird sich auf absehbare Zeit nicht ändern, zumal nicht auszuschließen ist, dass eines Tages auch eine gesichert rechtsextreme Partei in der Regierung sitzt. Und auch das Interesse großer Konzerne, unsere Daten zu erheben und weiterzuverarbeiten, wird nicht geringer werden. Umso wichtiger ist es schon heute, sich der eigenen digitalen Spur bewusst zu sein.

Politische Räume schützen!

Wer sich gegen Rechts, gegen Umweltzerstörung, gegen Patriarchat und Rassismus einsetzt, läuft Gefahr, beobachtet zu werden – von Unternehmen und von Behörden.

Vor allem junge Menschen brauchen daher Schutzrechte: für sich selbst, für die eigene Gruppe und die Vertretung der eigenen politischen Interessen. Digitale Räume sind politische Räume und sie dürfen nicht zu reinen Risikoräumen verkommen.

Einige Risiken können wir selbst mindern, indem wir Datennutzung widersprechen, Kommunikationskanäle wechseln und vor allem: indem wir nicht mehr von uns preisgeben als nötig.

Über die Autor:in Carla Siepmann

Carla schreibt seit 2022 frei für netzpolitik.org. Sie interessiert sich für Gewalt im Netz, Soziale Medien und digitalen Jugendschutz. Seit 2023 erscheint ihre monatliche Kolumne auf netzpolitik.org.

Kontakt: carla_siepmann@mailbox.org, @CarlaSiepmann