10/3/25

Grenzpolizist Big Brother: Migrations-Management-KI

Die folgende Erläuterung der regierungseigenen Bundeszentrale für politische Bildung (bpb) für KI im Einsatz gegen Migration (euphemistisch: „Migrationsmanagement“), erläutert einige Aspekte dieser Problematik. Seit 9/11 führen nicht nur die USA, sondern offenbar „der Westen“, also auch wir, einen „Krieg gegen den Terror“, der eine Einschränkung von Bürgerrechten beinhaltet. Kontrolliert wird dabei prinzipiell jeder von uns, speziell aber die Gruppe der sogenannten „Gefährder“, die sich offenbar insbesondere bei Migranten finden lässt; ihr Merkmal ist „eine nicht näher konkretisierbare Gefährlichkeit, die sich in der Zukunft ausbilden könnte. (…) Ziel ist hierbei, schwer bestimmbare konkrete Zeitpunkte und Formen eines terroristischen Anschlags zu kontrollieren und damit auch aufsteigende Ängste in der Bevölkerung zu reagieren.“ Siehe: „Gefährder“: Der Migranten-Minority Report.

Ängste der Bevölkerung sollen also „reagiert werden“ (nicht auf sie reagieren!); ein typischer Freudscher Versprecher, bei dem die wahre Intention entschlüpfte? Sollen unsere Ängste „reagiert werden“, also reaktiviert, abreagiert oder agitiert werden? Ängste helfen Machthabern, Bevölkerungen zu kontrollieren und in ihrem Sinne zu manipulieren. Ängste machen Menschen bereit zum Hass, zur Blindheit für vernünftige Lösungen, zur fanatischen Aufrüstung und Militarisierung. Andersartige, Andersfarbige, Migranten sind dafür die naheliegenden Sündenböcke, vor denen im Sinne reaktionärer und rechtsextremer Ideologien Angst geschürt werden soll. Wo Multi-Milliarden und Billionen für Rüstung (statt für die Menschen) ausgegeben werden, fällt auch für BigTech und KI einiges ab: Die gleich genannte Überwachungsfirma ANDURIL klingt nicht zufällig ähnlich wie Peter Thiels PALANTIR. Projekte zur Emotionserkennung, KI-Lügendetektoren und vorausschauender Polizeiarbeit (engl. predictive policing) laufen bereits.

Wie dabei KI gegen Migranten eingesetzt wird erläutert für die Bundesregierung das bpb im jetzt folgenden Text von Petra Molnar. KI dient dabei für Prognosen zum Migrationsgeschehen, für Grenz- und Fernüberwachung, für Identitäts- und biometrische Systeme, Gesichtserkennung, Asyl- und Visumsbearbeitung, für die Steuerung von „Alternativen zur Inhaftierung“, die auf ständige Überwachung hinauslaufen. KI bildet den digitalen Stacheldrahtverhau auf den künftigen „smart borders“, die sozial benachteiligten Migranten jene Freizügigkeit rauben, die wohlhabenden Touristen (einstweilen noch) offensteht. Das völkerrechtlich gebotene (!) Asylrecht bleibt dabei auf der Strecke, wenn automatisierte Entscheidungen mit digitalem racial Bias oder ähnlichem Unrecht fallen. (T.Barth) Folgender Text übernommen von bpb:

Künstliche Intelligenz im Migrationsmanagement: Chancen, Herausforderungen und Risiken

Petra Molnar (bpb) 04.09.2025 / 9 Minuten zu lesen

Weltweit wird künstliche Intelligenz zunehmend im Migrationsmanagement eingesetzt – auch in der EU und in Deutschland. Welche Entwicklungen, Chancen und Risiken gehen damit einher?

Überwachungsturm von Elbit Systems, Arizona, USA. Solche Überwachsungstürme entlang der Grenze zu Mexiko erkennen mithilfe von KI-Überwachung Bewegungen und sollen so dabei helfen, Personen in der Sonora-Wüste im Südwesten der USA abzufangen. (© Petra Molnar, Abbildungen fehlen hier aufgrund urheberrechtlicher Gründe)

Künstliche Intelligenz (KI)

verändert in rasanter Geschwindigkeit die Art und Weise, wie Regierungen Migration steuern und Grenzen kontrollieren. Von prognosebasierter Datenanalyse und Identitätsprüfung bis hin zu Grenzüberwachung und Asylentscheidungen – KI-Technologien werden zunehmend in die Infrastruktur der Migrationskontrolle in Europa und weltweit integriert. Dabei wird argumentiert, dass neue Technologien wie KI die Steuerungssysteme im Migrationsmanagement effizienter, sicherer und kostengünstiger machen können. Angesichts der aktuellen Entwicklungen im Bereich der digitalen Technologien bestehen jedoch auch ernsthafte Risiken für die Menschenrechte, die Privatsphäre und die Grundsätze des Asylrechts. Dieser Artikel basiert auf jahrelangen Forschungsarbeiten an verschiedenen Grenzen weltweit und gibt einen Überblick darüber, wie KI im Migrationsmanagement in Europa und weltweit eingesetzt wird. Wichtige Debatten über die Auswirkungen dieser Entwicklung auf Recht, Ethik und Gesellschaft werden dabei ebenfalls in den Blick genommen.

Wo und wie wird KI eingesetzt?

Weltweit und in der gesamten Europäischen Union (EU) wird KI mittlerweile in verschiedenen Phasen des Migrationsmanagements eingesetzt. Zu den wesentlichen Feldern gehören:

Grenzüberwachung: KI-gestützte Systeme werden zur Überwachung von Grenzen eingesetzt. Beispielsweise integriert das Europäische Grenzüberwachungssystem (Eurosur) Satellitenbilder, Drohnen und andere Sensordaten, die mit KI analysiert werden, um die Außengrenzen zu überwachen – insbesondere im Mittelmeerraum. An Landgrenzen und Flughäfen werden Algorithmen zur Gesichtserkennung und Objekterkennung eingesetzt, um Personen zu identifizieren, die irregulär einreisen oder als risikoreich gelten. In den Vereinigten Staaten stellen Unternehmen wie die US-amerikanische Firma Anduril autonome Überwachungstürme entlang der Südgrenze bereit, die mithilfe von KI-Überwachung Bewegungen erkennen und verfolgen und dabei helfen sollen, Personen in der Sonora-Wüste im Südwesten der USA abzufangen.

Identitäts- und biometrische Systeme: KI kann auch bei der Verarbeitung biometrischer Daten wie Fingerabdrücken, Iris-Scans und Gesichtsbildern zur Identitätsprüfung helfen. Eurodac, die EU-Datenbank, in der Fingerabdrücke von Asylbewerber:innen gespeichert werden, nutzt KI für einen effizienteren und genaueren Abgleich. In Deutschland hat das Bundesamt für Migration und Flüchtlinge (BAMF) eine Software zur Erkennung von Sprachen und Dialekten getestet, die die Herkunft von Personen, die einen Asylantrag gestellt haben, feststellen soll. Der Einsatz dieser Software hatte in der Folge Debatten darüber ausgelöst, wie genau und fair solche Systeme und ihre Ergebnisse sind. Die deutsche Bundespolizei setzt an wichtigen Verkehrsknotenpunkten und Grenzen biometrische und Gesichtserkennungstechnologien ein, darunter auch prognostische Komponenten. Gleichzeitig helfen automatisierte Dokumentenprüfsysteme dabei, gefälschte Reisedokumente zu identifizieren.

Asyl- und Visumsbearbeitung: KI-Anwendungen werden zunehmend zur Prüfung von Visums- und Asylanträgen eingesetzt. Einige Länder wie Kanada verwenden Algorithmen zum automatisierten Vorsortieren von Visumanträgen, während die Vereinigten Staaten Risikobewertungsalgorithmen einsetzen, die die Daten der Antragstellenden analysieren, um potenzielle Betrugs- oder Sicherheitsrisiken vorherzusagen, und dafür auch Daten verwenden, die aus sozialen Medien gesammelt wurden. Diese Systeme versprechen zwar Effizienz, werfen jedoch Bedenken hinsichtlich algorithmischer Verzerrungen, ordnungsgemäßer Verfahren und des Rechts auf individuelle Beurteilung auf. In Deutschland setzt das BAMF maschinelle Übersetzungsprogramme ein, um das Dolmetschen von Anhörungen im Asylverfahren und die automatisierte Dokumentenprüfung zu unterstützen. Fragen hinsichtlich ihrer Genauigkeit und möglichen Auswirkungen auf Asylentscheidungen bleiben hier bisher offen.

Prognosen zum Migrationsgeschehen: Regierungen und internationale Behörden wie die EU-Grenzschutzagentur Frontex nutzen KI zur Analyse großer Datensätze – darunter Daten aus sozialen Medien und Klimadaten –, um Migrationsmuster vorherzusagen. Diese zukunftsprognostizierenden Analysen sollen Frühwarnsysteme und die Ressourcenplanung unterstützen. Allerdings sind diese Modelle zur Vorhersage von Migrationsbewegungen oft nicht transparent. Befürchtet wird hierbei, dass sie zu präventiven Grenzschließungen oder Kontrollmaßnahmen sowie zu Aktivitäten wie dem Abfangen von Schutzsuchenden und illegalen Zurückweisungen ( Pushbacks) führen können.

Fernüberwachung und ‚Alternativen‘ zur Inhaftierung: Elektronische Fußfesseln, GPS-fähige Smartphones und Ortungsgeräte sowie KI-gesteuerte Check-in-Systeme werden als Alternativen zur Inhaftierung von Einwanderer:innen beworben, sind jedoch oft mit einer ständigen Überwachung verbunden. Diese Technologien werden in den USA, Großbritannien und anderen Ländern eingesetzt und manchmal an private Unternehmen ausgelagert.

Wer entwickelt und fördert diese Systeme?

An der Entwicklung von KI im Migrationsmanagement sind sowohl staatliche als auch privatwirtschaftliche Akteure beteiligt. Große Technologieunternehmen, Rüstungsfirmen und KI-Startups entwickeln und vermarkten Anwendungen für Regierungen. In Europa unterstützt die EU-Grenzschutzagentur Frontex technologische Innovationen, während die Finanzierung aus regionalen Forschungsprogrammen wie Horizon 2020 und dem Fonds für innere Sicherheit (ISF) stammt. Insbesondere Deutschland hat über das BAMF und die Bundespolizei in Identitätsfeststellungen anhand biometrischer Merkmale, Sprachanalyse und automatisierte Systeme zur Dokumentenanalyse investiert. An mehreren von der EU finanzierten Pilotprojekten waren auch deutsche Partner:innen beteiligt, darunter Universitäten und Forschungsinstitute.

Maritime Überwachungsdrohne auf der DEFEA-Konferenz in Athen, einer internationalen Fachausstellung für Verteidigung und Sicherheit. (© Petra Molnar)

Staaten wie die USA, Kanada und Australien sind ebenfalls führend im Bereich des Einsatzes von KI an ihren Grenzen und arbeiten häufig mit Technologieunternehmen wie den US-amerikanischen Firmen Palantir und Anduril oder der israelischen Firma Elbit Systems zusammen. Das Interesse des privaten Sektors ist Teil eines wachsenden und lukrativen, mehrere Milliarden Euro schweren „Industriekomplexes“ im Bereich der Grenzsicherung, in dem private Gewinninteressen und öffentliche Sicherheitsinteressen einander ergänzen.

Internationale Organisationen – darunter die Internationale Organisation für Migration (IOM) und das UN-Flüchtlingshilfswerk (UNHCR) – prüfen den Einsatz von KI-Anwendungen, um Menschen auf der Flucht zu registrieren, zu überwachen und Hilfsgüter zu verteilen, teilweise in Zusammenarbeit mit Partnern aus der Privatwirtschaft. Während diese Anwendungen als humanitäre Innovation dargestellt werden, werden gleichwohl oft sensible Daten unter ungleichen Machtverhältnissen gesammelt, die zwischen dem Globalen Norden und Süden oder zwischen Hilfsorganisationen und Menschen in Not bestehen.

Chancen und Versprechen

Akteur:innen, die den Einsatz von KI im Migrationsbereich befürworten, verweisen auf mehrere potenzielle Vorteile. So wird häufig Effizienz als einer der wichtigsten Treiber für den Einsatz von KI-Anwendungen genannt. Staaten, die KI einsetzen argumentieren, dass die Automatisierung von Routineaufgaben Rückstände bei der Bearbeitung von Asyl- und Visumsanträgen reduzieren, die Datenanalyse optimieren und die Koordination zwischen den Behörden verbessern kann. Ein weiterer wichtiger Treiber ist das Versprechen der Genauigkeit und die Tatsache, dass KI den biometrischen Abgleich und die Identitätsprüfung verbessern und damit Betrug und Verwaltungsfehler reduzieren kann. Im Kontext des derzeitigen Fokus auf Sicherheit, der die Politikgestaltung im Bereich des Migrationsmanagements prägt, zielen die KI-gestützte verbesserte Überwachung und Risikobewertung darauf ab, irreguläre Grenzübertritte oder gefälschte Dokumente aufzudecken. Schließlich ist auch die Vorhersagekraft der KI verlockend, da KI-gestützte Prognosen als Möglichkeit dargestellt werden, sich auf umfangreiche Migrationsbewegungen vorzubereiten, humanitäre Maßnahmen zu unterstützen und Ressourcen besser zu verteilen.

Mit solchen Vorteilen vor Augen werden von Staaten und der Privatwirtschaft Investitionen in KI begründet, mit dem Ziel sogenannter „intelligenter Grenzen“ (smart borders). Diese sollen sowohl sicher als auch technologisch fortschrittlich sein. In Deutschland werden solche Innovationen auch als Teil einer umfassenderen Digitalisierung des Migrationsmanagements angesehen, die mit den EU-Strategien für die digitale Transformation im Einklang steht.

Herausforderungen und Kritik

Trotz dieser Versprechen argumentieren Akteure aus der Zivilgesellschaft, Forschende und Betroffenen, dass der Einsatz von KI im Migrationsmanagement ernsthafte ethische und rechtliche Risiken birgt. Beispielsweise können KI-Systeme Diskriminierung und systemischen Rassismus verschärfen, da sie oft die Vorurteile in den Daten widerspiegeln, mit denen sie trainiert wurden. So ist etwa die Gesichtserkennung bei Menschen mit dunklerer Hautfarbe weniger genau, was das Risiko für Fehler bei ihrer Identifizierung erhöht. Risikobewertungssysteme können Angehörige bestimmter Nationalitäten oder ethnischer Gruppen unverhältnismäßig stark benachteiligen. Außerdem mangelt es erheblich an Transparenz bei der Entwicklung und dem Einsatz neuer Technologien. Bei vielen KI-Systemen weiß die Öffentlichkeit nur wenig darüber, wie sie ihre Entscheidungen treffen. Diese Undurchsichtigkeit untergräbt die Rechenschaftspflicht und macht es für Betroffene schwierig, schädliche Folgen anzufechten, wenn Fehler gemacht werden.

Hightech-Flüchtlingslager auf der griechischen Insel Kos. (© Petra Molnar)

Auch die Rechte auf Privatsphäre und Datenschutz sind betroffen: Werden biometrische und personenbezogene Daten gesammelt, gespeichert und analysiert, birgt dies erhebliche Risiken für die Privatsphäre, insbesondere wenn es um sensible Daten von marginalisierten Gruppen wie Menschen auf der Flucht geht. Die unbefugte Weitergabe von Daten und Hackerangriffe sind ebenfalls reale Bedrohungen. Zudem können Menschen auf der Flucht, die sich in einer prekären Lage befinden, oft keine sinnvolle Einwilligung in die Erfassung und den Umgang mit ihren Daten geben.

Rechtlich gesehen können KI- und Überwachungstechnologien, die Menschen daran hindern in Sicherheit zu gelangen, das bestehende Recht auf Asyl untergraben. Automatisierte Entscheidungen können außerdem dazu führen, dass Schutz überproportional verweigert wird oder es aufgrund fehlerhafter Risikobewertungen zu vermehrten Inhaftierungen kommt. Rechtliche Risiken dieser Art stünden im Widerspruch zum geltenden Völkerrecht, das eine individuelle Prüfung von Asylgesuchen und das Non-Refoulement-Prinzip

beinhaltet. Auch ist oft unklar, wer für durch KI verursachte Schäden verantwortlich ist und haftbar gemacht werden kann – der Staat, ein Auftragnehmer, der Softwareentwickler oder die Person bei der Einwanderungsbehörde, die die Anwendung verwendet? Oft ist der Rechtsschutz in diesem neueren Bereich wenig ausgeprägt, was das Einlegen von Rechtsmitteln erschwert – insbesondere in Grenzgebieten, die bereits von intransparenten und ermessensabhängigen Entscheidungen geprägt sind.

Rechtliche Rahmenbedingungen und Kontrolle

Derzeit ist die globale Regulierung im Bereich der KI noch schwach, wobei Innovationen Vorrang vor rechtsbasierten Ansätzen für digitale Grenzkontrolltechnologien haben. Allerdings gelten mehrere internationale und regionale Rechtsinstrumente für den KI-Einsatz im Migrationsbereich. So schützt beispielsweise der Internationale Pakt über bürgerliche und politische Rechte (ICCPR) das Recht auf Privatsphäre (Artikel 17) und das Recht auf Freiheit und Sicherheit (Artikel 9). Diese Rechte müssen im Migrationskontext auch bei der Anwendung von Technologien gewahrt werden. Die Genfer Flüchtlingskonvention von 1951 verpflichtet die Staaten zudem, Zugang zu Asyl zu gewähren und verbietet die Zurückweisung in Gebiete, in denen den betroffenen Personen Folter oder unmenschliche oder erniedrigende Behandlung drohen (Artikel 33). Automatisierte Entscheidungen, die den Zugang zum Asylbegehren blockieren, können gegen diese Schutzbestimmungen verstoßen. Nach EU-Recht regelt die Datenschutz-Grundverordnung (DSGVO) die Datenverarbeitung, einschließlich biometrischer Daten, und die EU-Grundrechtecharta garantiert das Recht auf Privatsphäre, Datenschutz und Nichtdiskriminierung. Vor kurzem hat die EU das Gesetz zur Regulierung künstlicher Intelligenz verabschiedet. Allerdings liegt hier nicht der Schutz der Rechte von Menschen auf der Flucht im Fokus.

Deutschland unterliegt als EU-Mitgliedstaat diesen rechtlichen Rahmenbedingungen, entwickelt jedoch auch eigene Durchführungsbestimmungen. Zivilgesellschaftliche Organisationen, die sich für die Rechte von Flüchtlingen und Migrant:innen einsetzen, haben mehr Transparenz hinsichtlich des Einsatzes von KI in der deutschen Migrationspolitik gefordert, darunter die Offenlegung von Verträgen und Folgenabschätzungen. Die Kontrolle in der Praxis bleibt jedoch begrenzt. Grenzgebiete unterliegen oft Notfall- oder Ausnahmeregelungen. Zudem können private Unternehmen Technologien durch Geschäftsgeheimnisse schützen. Unabhängige systematische Überprüfungen, Folgenabschätzungen und Kontrollmöglichkeiten sind jedoch für eine rechtskonforme Entwicklung und den Einsatz von Technologien an den Grenzen und zur Steuerung der Migration notwendig.

Ausblick

In einer von technologischem Fortschritt geprägten Welt, wird KI voraussichtlich eine immer wichtigere Rolle im Migrationsmanagement spielen. So werden beispielsweise das künftige Einreise-/Ausreisesystem (EES) der EU und das Europäische Reiseinformations- und -genehmigungssystem (ETIAS) KI für das Erstellen von Risikoprofilen und automatisierte Grenzkontrollen nutzen. Projekte zur Emotionserkennung, KI-Lügendetektoren und vorausschauender Polizeiarbeit wurden ebenfalls bereits getestet, allerdings auch weithin kritisiert.

Das ehemalige Flüchtlingslager auf Samos, Griechenland. (© Petra Molnar)

Wissenschaftler:innen und Menschenrechtsorganisationen fordern einen vorsorgenden Ansatz: gründliche Tests, um zu gewährleisten, dass Menschenrechte eingehalten werden, Transparenz und Kontrollmechanismen sowie eine breite öffentliche Debatte, bevor Technologien eingeführt werden. Einige Akteur:innen, darunter das Büro des Hochkommissars der Vereinten Nationen für Menschenrechte (OHCHR), schlagen ein vorübergehendes Aussetzen bestimmter Migrationstechnologien vor, insbesondere in Hochrisikosituationen. Vor allem aber werden die künftigen Entwicklungen der KI im Bereich Migration und an den Grenzen nicht nur von rechtlichen Garantien und demokratischer Rechenschaftspflicht abhängen, sondern auch davon, dass die menschlichen Kosten dieser Technologien anerkannt werden. KI-Systeme sind keine abstrakten Werkzeuge. Sie wirken sich auf reale Menschen aus, die sich oft in prekären und unsicheren Situationen befinden. Es ist wichtig, die Erfahrungen und Rechte von Menschen auf der Flucht in Diskussionen über den Einsatz von KI einzubeziehen.

KI-Anwendungen für das Migrationsmanagement werfen tiefgreifende rechtliche, ethische und soziale Fragen auf. Wenn Regierungen neue Technologien einführen, gilt es sicherzustellen, dass Effizienz und Sicherheit mit Menschenrechten, Würde und Gerechtigkeit vereinbar bleiben. Im Mittelpunkt dieser Debatten stehen Menschen, nicht nur Datenpunkte. Transparente Regeln, eine strenge Kontrolle und die Verpflichtung zu einem menschenzentrierten Design, das auch das Fachwissen der betroffenen Individuen und Communities berücksichtigt, sollten jede zukünftige Nutzung von KI im Migrationsbereich leiten.

Übersetzung aus dem Englischen: Vera Hanewinkel

Fussnoten/Quellen/Literatur

Petra Molnar, The Walls Have Eyes: Surviving Migration in the Age of Artificial Intelligence (2024)

Petra Molnar im Gespräch mit Benjamin Etzold über „intelligente Grenzen“: „Keines dieser KI-gestützten Instrumente ist neutral. Sie dienen einem bestimmten Zweck – der Ausgrenzung.“ (2025)

Mirca Madianou, Technocolonialism: When Technology for Good is Harmful (2024)

OHCHR, Digital Border Governance: A Human Rights Based Approach (2023)

The Migration and Technology Monitor Project

Lizenz

Dieser Text ist unter der Creative Commons Lizenz „CC BY-NC-ND 4.0 – Namensnennung – Nicht kommerziell – Keine Bearbeitungen 4.0 International“ veröffentlicht. Autor/-in: Petra Molnar für bpb.de. Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 4.0 und des/der Autors/-in teilen. Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.

Originalpublikation: https://www.bpb.de/themen/migration-integration/kurzdossiers/migration-und-sicherheit/570377/kuenstliche-intelligenz-im-migrationsmanagement/

10/2/20

„Gefährder“: Der Migranten-Minority Report

In der Verfilmung „Minority Report“ einer Dystopie des SF-Autors P.K.Dick werden Menschen nicht mehr nur für Verbrechen bestraft, die sie begangen haben, sondern auch für solche die sie begehen werden (nach Ansicht der Sicherheitsbehörden). Dies widerspricht den Grundsätzen des Rechtsstaates und der Bürgerrechte, wird aber immer mehr zur Realität -spätestens seit den 9/11-Anschlägen, die 2001 drei Türme des WTC in New York zerstörten (nicht nur zwei, wie in neueren Dokumentationen oft wahrheitswidrig suggeriert). Die folgende Erläuterung der regierungseigenen Bundeszentrale für politische Bildung für den (noch nicht legal definierten) Begriff „Gefährder“, bislang nur ein „polizeilicher Arbeitsbegriff“, erläutert einige Aspekte dieser Problematik. Seit 9/11 führen nicht nur die USA, sondern offenbar „der Westen“, also auch wir, einen „Krieg gegen den Terror“, der eine Einschränkung von Bürgerrechten beinhaltet. Kontrolliert wird dabei offenbar insbesondere bei Migranten, „eine nicht näher konkretisierbare Gefährlichkeit, die sich in der Zukunft ausbilden könnte. (…) Ziel ist hierbei, schwer bestimmbare konkrete Zeitpunkte und Formen eines terroristischen Anschlags zu kontrollieren und damit auch aufsteigende Ängste in der Bevölkerung zu reagieren.“ (So das bpb im jetzt folgenden Text, Anmerkung: ist es nur Zufall, dass in diesem Satz ein „auf“ zu fehlen scheint? T.Barth)

Migration und Sicherheit: „Gefährder“ Gefährder – dieser Begriff taucht in aktuellen sicherheitspolitischen Debatten immer wieder auf. Doch wer ist damit eigentlich gemeint?

Autoren/-innen: Daniela Hunold, Jan Raudszus für bpb.de (Bundeszentrale für politische Bildung)

13.01.2020 / 6 Minuten zu lesen

Ein Mann trägt eine elektronische Fußfessel (Symbolbild -aus urheberrechtl.Gründen hier entfallen). Gefährdern kann das Tragen einer elektronischen Fußfessel angeordnet und somit ihre Bewegungen überwacht werden.

Der Begriff des Gefährders ist innerhalb der letzten Jahre zu einer festen Größe im Sprachgebrauch der Sicherheitsbehörden avanciert.[1] Er findet z.B. als Bezeichnung für Personen Verwendung, von denen eine islamistisch motivierte Terrorgefahr ausgeht. Der Begriff erstreckt sich aber auch auf andere Phänomenbereiche der politisch motivierten Kriminalität. Der Gefährderbegriff ist allerdings nicht legal definiert. Er ist also nicht als Rechtsbegriff im Gesetz verankert. Vielmehr handelt es sich um einen polizeilichen Arbeitsbegriff[2], der insbesondere im Zusammenhang mit Terrorismus wird. 2004 wurde der Begriff des Gefährders durch die Arbeitsgemeinschaft der Landeskriminalämter und des Bundeskriminalamtes folgendermaßen definiert:

„Ein Gefährder ist eine Person, bei der bestimmte Tatsachen die Annahme rechtfertigen, dass sie politisch motivierte Straftaten von erheblicher Bedeutung, insbesondere solche im Sinne des § 100a der Strafprozessordnung (StPO), begehen wird.[3]

Hierbei sind vor allem besonders schwerwiegende Straftaten angesprochen, die sich gegen staatliche Interessen oder das Leben von Menschen richten. In der Regel sind mit der Definition Personen gemeint, bei denen die Behörden annehmen, dass diese extremistische Mitglieder des militanten Spektrums des jeweiligen Phänomenbereichs sind. Aufgrund von sicherheitsbehördlichen Erkenntnissen können sie als Gefährder eingestuft werden, auch wenn keine beweiskräftigen Tatsachen für eine zukünftige Straftat vorliegen.

Neben der Einstufung als Gefährder gibt es außerdem die Einstufung als „relevante Person“. Dabei handelt es sich um Personen, die nach Einschätzung der Polizeibehörden innerhalb des extremistischen bzw. terroristischen Spektrums eine Rolle als Führungsperson, Logistiker oder „Akteur“ einnehmen. Von diesen Personen wird daher davon ausgegangen, dass sie sich an einer der oben genannten Straftaten beteiligen bzw. diese unterstützen würden. Es kann sich auch um eine bedeutende Kontakt- oder Begleitperson eines Gefährders, Beschuldigten oder Verdächtigen einer politisch motivierten Straftat handeln. [4]

Zahl der Gefährder

Die Zahl der Gefährder wird von keiner offiziellen Stelle regelmäßig veröffentlicht und ist zum Beispiel auch nicht Teil des Bundesverfassungsschutzberichts. Aufschluss geben v.a. Anfragen der Parteien im Deutschen Bundestag und Abfragen der Presse beim Bundeskriminalamt (BKA).

Danach verteilen sich die aktuellen Zahlen der Gefährder und relevanten Personen wie folgt:

Das BKA listet 679 Personen als Gefährder und 509 Personen als relevante Personen im Bereich der politisch-motivierten Kriminalität mit religiösem Hintergrund – dabei dürfte es sich ausschließlich um Mitglieder der islamistischen Szene handeln (Stand: 01.11.2019).

Im Phänomenbereich Rechtsextremismus liegen die Zahlen bei 46 Gefährdern bzw. 126 relevanten Personen (Stand: 25.11.2019). Die wenigsten Gefährder und relevanten Personen listet das BKA im Bereich der politisch-motivierten Kriminalität – links -. Hier ist die Rede von fünf Gefährdern und 85 relevanten Personen (Stand: 15.10.2019). Der Bereich der sogenannten Ausländischen Ideologie (u.a. die kurdische Arbeiterpartei PKK) schlägt mit 21 Gefährdern bzw. 50 relevanten Personen zu Buche. [5]

Einstufung und Radar-iTE

Die Einstufung einer Person als Gefährder oder relevante Person erfolgt durch die Polizeien der Länder oder das BKA. Die Behörden bauen ihre Entscheidung dabei auf vorliegenden Informationen auf. [6] Das bedeutet auch, dass die Entscheidung zur Einstufung nach den Maßgaben des jeweiligen Bundeslandes geschieht. Um eine Vereinheitlichung herbeizuführen und eine höhere Genauigkeit der Gefährdungseinschätzung einer Person zu gewährleisten, wurde 2016/2017 vom BKA in Zusammenarbeit mit der Arbeitsgruppe Forensische Psychologie der Universität Konstanz für den Bereich des islamistischen Terrorismus das Risikobewertungsinstrument Radar-iTEeingeführt. Basierend auf biografischen Informationen, die das Verhalten einer Person priorisieren und nicht etwa die Gesinnung oder Religiosität einer Person, erstellen Sachbearbeiter eine Bewertung mit drei verschiedenen Ausprägungen: hohes Risiko, auffälliges und moderates Risiko. Nach Bewertung des BKA wird der Einschätzungsprozess damit transparent und überprüfbar. [7] Gleichzeitig erlaubt Radar-iTE eine Priorisierung vorzunehmen und damit auch bei begrenzten Ressourcen polizeiliche Maßnahmen fokussierter einzusetzen.

Maßnahmen

Die ergriffenen Maßnahmen zur Eindämmung der von Gefährdern und relevanten Personen ausgehenden Gefahr unterscheiden sich nach Bundesland, den dortigen gesetzlichen und dienstlichen Regelungen und nach dem betroffenen Individuum. Behörden äußern sich normalerweise nicht dazu, welche Maßnahmen sie jeweils ergreifen. Zu den möglichen Maßnahmen gehören Gefährderansprachen und verschiedene Formen der Informationsbeschaffung, zum Beispiel durch (punktuelle oder dauerhafte) Observation. Auch kann bei Gefährdern das Tragen einer elektronischen Fußfessel angeordnet und somit ihre Bewegungen überwacht werden.

Kritik des Begriffs

Die Anwendung des Begriffs, also die Einstufung einer Person als Gefährder, ist umstritten, da sie vor allem auf Annahmen und Erkenntnissen der Sicherheitsbehörden beruht, sich daraus aber intensivierte polizeiliche Maßnahmen und erweiterte Befugnisse ergeben. So wurden mit der Verabschiedung des neuen Polizeiaufgabengesetzes in Bayern im Jahr 2018 die polizeilichen Befugnisse gegen eine als Gefährder eingestufte Person deutlich ausgeweitet.

Viele Bundesländer streben die Abschiebung von Gefährdern an, sofern diese ausländische Staatsangehörige sind. Im Jahr 2018 wurden insgesamt 52 Gefährder und andere Personen aus der islamistischen Szene ausgewiesen.[8] Seit 2017 wird dazu u.a. die Möglichkeit des § 58a AufenthG genutzt. 2019 hat das Bundesverwaltungsgericht auf der Grundlage eines hängigen Falls in Bremen entschieden, dass nach dieser Bestimmung eine Abschiebungsanordnung erlassen werden kann „auf der Grundlage einer hinreichenden zuverlässigen Tatsachengrundlage einer vom Ausländer ausgehende Bedrohungssituation im Sinne eines beachtlichen Risikos“, welches sich jederzeit aktualisieren und dann in eine konkrete Gefahr umschlagen könne. Eine bereits vorhandene konkrete Gefahr im Sinne des Polizeirechts ist dafür aber ausdrücklich nicht notwendig.[9]

Mit der Einführung und Anwendung des Gefährderbegriffes verdeutlicht sich eine Verschiebung des sicherheitsbehördlichen Fokus von konkreten, strafbaren Handlungen oder einem konkreten Verdacht auf Verhaltensweisen, die „nicht in den Bereich der Strafbarkeit (auch im Vorbereitungs- oder Versuchsstadium)“ fallen.[10] Vielmehr gewinnt die Bewertung der Bedrohung – für die Indizien ausreichend sein können – durch das „kriminelle Potential“ an Gewicht, also eine nicht näher konkretisierbare Gefährlichkeit, die sich in der Zukunft ausbilden könnte. Dementsprechend gelten auch andere Beurteilungsmaßstäbe und Eingriffsschwellen, die sich eher an einer abstrakten anstatt an einer konkreten Gefahr orientieren.

Die beschriebene Vorverlagerung des Zeitpunktes staatlicher Interventionen in einen Bereich, in dem noch kein strafrechtlich relevantes Handeln konkret bestimmbar oder vorhersagbar ist, zeichnet sich spätestens seit den Terroranschlägen im September 2001 ab. So führen z.B. die nach 9/11 verabschiedeten Anti-Terror-Gesetze

zu einer Vorverlagerung von Strafbarkeit und Erweiterung des Sicherheitsbegriffs zur vorbeugenden Sicherheitsgewährleistung. Weniger das Erreichen eines Zustandes der Sicherheit ist hier handlungsleitend, sondern die Annahme verschiedener Unsicherheitszustände. Ziel ist hierbei, schwer bestimmbare konkrete Zeitpunkte und Formen eines terroristischen Anschlags zu kontrollieren und damit auch aufsteigende Ängste in der Bevölkerung zu reagieren. Im Rahmen des Vorsorge-Paradigmas sind Vorverlagerungen somit oftmals mit der „zu bekämpfenden terroristischen Gefährdungslage begründet, bei der sich noch nicht hinreichend konkret ablesen lässt, wie, wann und wo sich diese Gefahr realisieren wird“.[11]

Dieser Artikel ist Teil des bpb-Kurzdossiers Migration und Sicherheit.

Fussnoten

  1. Wegner, M. & Hunold, D. (2017): Die Transformation der Sicherheitsarchitektur – die Gefährdergesetze im Lichte des Vorsorge-Paradigmas. KriPoZ (6), S. 367-375.

Fußnote  [2] Wissenschaftlicher Dienst des Deutschen Bundestages (2017): Sachstand Legaldefinition des Begriffes „Gefährder“. WD 3 – 3000 – 046/17. Externer Link: https://www.bundestag.de/resource/blob/503066/8755d9ab3e2051bfa76cc514be96041f/wd-3-046-17-pdf-data.pdf (Zugriff: 9.8.2019).

  1. Fußnote  [3] BT-Drs. 18/7151. Antwort der Bundesregierung auf die Kleine Anfrage der Abgeordneten Ulla Jelpke, Christine Buchholz, Annette Groth, weiterer Abgeordneter und der Fraktion DIE LINKE – Drucksache 18/6959 – Sogenannte islamistische Gefährder. Externer Link: http://dip21.bundestag.de/dip21/btd/18/071/1807151.pdf (Zugriff: 9.8.2019).
  1. Fußnote  [4] Bundeskriminalamt: Politisch motivierte Kriminalität. Externer Link: https://www.bka.de/DE/UnsereAufgaben/Deliktsbereiche/PMK/pmk.html (Zugriff: 9.8.2019).
  1. Fußnote  [5] Diese Aufstellung beruht auf einer journalistischen Abfrage der Zahlen beim BKA, die auf Twitter veröffentlich wurde (Externer Link: https://twitter.com/FlorianFlade/status/1199697804886712323?s=20). Die Herkunft der Daten wurde durch Rücksprache mit dem Journalisten am 27.11.2019 bestätigt.
  1. Fußnote  [6] Bundeskriminalamt: Politisch motivierte Kriminalität. Externer Link: https://www.bka.de/DE/UnsereAufgaben/Deliktsbereiche/PMK/pmk.html (Zugriff: 9.8.2019).
  1. Fußnote  [7] Bundeskriminalamt (2017): Presseinformation: Neues Instrument zur Risikobewertung von potentiellen Gewaltstraftätern. 2. Februar. Externer Link: https://www.bka.de/DE/Presse/Listenseite_Pressemitteilungen/2017/Presse2017/170202_Radar.html (Zugriff: 9.8.2019).
  1. Fußnote  [8] Tagesspiegel (2019): Weiterhin um die 400 islamistische Gefährder in Deutschland. 6. März. Externer Link: https://www.tagesspiegel.de/politik/terrorgefahr-weiterhin-um-die-400-islamistische-gefaehrder-in-deutschland/24070206.html (Zugriff 11.11.19)
  1. Fußnote  [9] Bundesverwaltungsgericht (2017): Beschluss vom 13.07.2017 – BVerwG 1 VR 3.17. Externer Link: https://www.bverwg.de/130717B1VR3.17.0 (Zugriff 11.11.19)
  1. Fußnote  [10] Schwarz, K.-A. (2017): Sachverständige Stellungnahme zu dem Gesetzentwurf der Fraktionen CDU/CSU und der SPD für ein Gesetz zur Neustrukturierung des Bundeskriminalamtgesetzes (BT-Drs. 18/11163). Deutscher Bundestag. Ausschussdrucksache 18(4)806 G. Externer Link: https://www.bundestag.de/resource/blob/498694/76f82280dcc2c6f16722b181cada3b34/18-4-806-G-data.pdf (Zugriff: 16.12.2019).
  1. Fußnote  [11] Wegner, M. & Hunold, D. (2017): Die Transformation der Sicherheitsarchitektur – die Gefährdergesetze im Lichte des Vorsorge-Paradigmas. KriPoZ (6), S. 367-375, S. 327f.

Lizenz

Dieser Text ist unter der Creative Commons Lizenz „CC BY-NC-ND 3.0 DE – Namensnennung – Nicht-kommerziell – Keine Bearbeitung 3.0 Deutschland“ veröffentlicht. Autoren/-innen: Daniela Hunold, Jan Raudszus für bpb.de. Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 3.0 DE und der Autoren/-innen teilen. Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.

Originaltext hier