Europäische Außengrenzen Wie die EU in Sachen Migration auf Künstliche Intelligenz setzt
Hauptinhalt
30. Mai 2024, 10:28 Uhr
Die EU fördert KI-basierte Technologien für den Migrationsprozess. Diese werten biometrische Daten aus oder steuern Drohnenschwärme. Welches Potenzial liegt in diesen Technologien und welche Gefahren bergen sie?
Europas Außengrenze erstreckt sich über rund 14.000 Kilometer. In Anbetracht wachsender Herausforderungen wie illegale Einwanderung, Menschenhandel und Terrorismus gewinnt der Einsatz modernster Technologien zur Grenzkontrolle an Bedeutung. Dabei zeigt sich künstliche Intelligenz (KI) als ein Werkzeug, um schneller auf potenzielle Bedrohungen zu reagieren, die Arbeit der Grenzbeamten zu unterstützen und so die Sicherheit zu erhöhen.
Die Europäische Union fördert mit sogenannten Forschungs- und Innovationsprogrammen Projekte aus verschiedenen Bereichen von Kultur, über Raumfahrt bis hin zu Sicherheit. Dafür hatte die EU im Forschungs- und Innovationsprogramm Horizon 2020 knapp 80 Milliarden Euro investiert. Für das laufende Nachfolgeprogramm Horizon Europe wurden 1.6 Milliarden des Gesamtbudgets von 95.5 Milliarden Euro für den Bereich "Zivile Sicherheit" angesetzt. In diesen Bereich fällt etwa das Management der Außengrenzen. In vielen der geförderten Projekte in diesem Bereich kommt auch künstliche Intelligenz zum Einsatz.
Autonome Drohnenschwärme zur Absicherung der EU-Grenzen
Die Technologien, die in den Projekten erforscht werden, reichen von Drohnenschwärmen, die automatisiert an Grenzen patrouillieren, bis hin zu automatisierter Gesichts- oder Spracherkennung. Ein Beispiel ist das Projekt "autonomous swarm of heterogeneous RObots for BORDER surveillance" (ROBORDER). Dieses erforschte den Einsatz autonomer Drohnen zur effektiveren Überwachung von Grenzen.
Das Projekt zielt darauf ab, Menschenhandel, illegale Zuwanderung und Umweltverschmutzung von Gewässern effektiv zu bekämpfen. Über die Sensoren der eingesetzten Drohnen werden Lagebilder an die Kommandozentralen geschickt, die über ein weiteres Vorgehen entscheidet und ebenso den Grenzschutz informiert.
Wie dies aussehen könnte, wird auf der Website von ROBORDER beschrieben. In einem Szenario erkennen Drohnen zusammen mit Radaren an der Küste und Schiffen der griechischen Küstenwache illegale Einwanderer bei der Überquerung einer Seegrenze. Das Boot beginnt dann jedoch zu sinken und der Einsatz wandelt sich zu einer Seenotrettungsmission, um die Schiffbrüchigen zu retten.
Bislang kein Einsatz von Robotern an der EU-Außengrenze geplant
Dass die Technologie ebenso für militärische Zwecke verwendet werden könne, werfe hinsichtlich eines potenziellen Missbrauchs Bedenken auf. Das geht aus dem ethischen Bericht des Projekts hervor. Auf Anfrage von Sandra Pereira der linken Fraktion im Europäischen Parlament an die Kommission heißt es, dass das Projekt rein wissenschaftlichen Zwecken dienen solle und keine unmittelbare Anwendung an den europäischen Grenzen vorsehe.
Auch in der Vergangenheit gab es Kritik am Projekt. Noel Sharky, ein emeritierter Professor für Robotik und künstliche Intelligenz der Universität in Sheffield, sagte in einem Interview mit The Intercept 2019, dass der Schritt hin zu einer autonomen Drohne, die im schlimmsten Fall bewaffnet ist, nicht weit sei.
Identitätsprüfung mit KI: Automatisierte Kontrolle an der Grenze
Das Projekt "Detecting Document frauD and iDentity on the fly" (D4Fly) beschäftigte sich dagegen mit der Entwicklung einer Technologie zur schnellen Erkennung von Identitätsbetrug an Grenzen. Es wird eine Sensorhardware verwendet, die mittels einer 3D-Erfassung des Gesichts und der Iris, eines Wärmeprofils des Gesichts und der Körperform die Identität Reisender an den Grenzen verifiziert. Die Grundlage für die Software sollte eine innovative Lichtfeldkamera und neuartige Algorithmen sein. Die Identitätsprüfung sollte dabei "on-the-move" stattfinden, also in dem Moment, in dem die Person einen Grenzbereich passiert.
Automatisierte Gesichtserkennungstechnologien, wie sie auch in D4Fly zum Einsatz kommen, stehen in der Kritik, rassistische und geschlechtsspezifische Vorurteile zu reproduzieren und nicht-weiße Menschen öfter falsch zu identifizieren. Im D4Fly Ethics und Legal Advisory Group Report aus Juni 2022 wird auf diese Kritik eingegangen und darauf verwiesen, diverse Datensätze verwenden zu wollen. Das solle dabei helfen, potenzielle Vorurteile in Bezug auf Geschlecht und ethnische Zugehörigkeit im entwickelten System erkennen und abschwächen zu können.
Herkunftserkennung durch Dialekte: Was in Deutschland jetzt schon real ist
Inwieweit die in den Projekten erforschten und getesteten Technologien nach Projektende zum Einsatz kommen ist nicht transparent. Klar ist, dass in Deutschland schon heute ähnliche Technologien im Einsatz sind. Auf Anfrage von MDR WISSEN teilt das Bundesinnenministerium mit, dass das Bundesamt für Migration und Flüchtlinge (BAMF) unter anderem seit 2020 einen Dialektidentifizierungsassistenten verwendet.
Dieser funktioniere so, dass eine Person bei einer Asylbefragung ein Bild in ihrer Muttersprache beschreibt und eine künstliche Intelligenz analysiert, um welchen Dialekt es sich wahrscheinlich handelt. Dadurch soll festgestellt werden, woher die Person ursprünglich stammt, um BAMF-Mitarbeitenden bei Entscheidungen im Asylprozess zu assistieren. Das Bundesinnenministerium unterstreicht: "Alle Entscheidungen und Vorgangsabschlüsse erfolgen vollständig durch qualifiziertes Personal des BAMF." Für die Bundespolizei, die für den Grenzschutz zuständig ist, seien noch keine Technologien mit künstlicher Intelligenz im Einsatz.
Experten warnen vor KI beim Thema Migration
Die Herausforderungen von KI finden sich bereits in ihren Wurzeln wieder, erklärt Erik Buchmann. Der Professor für Data Privacy and Security an der Universität Leipzig erklärt: "Jede Art von Vorurteil, jede Art von Bias der Entwickler, wird man auch im Output wiederfinden." Für ihn ist klar, dass Algorithmen diskriminierend sind und KI nicht objektiv funktionieren kann, weil der Trainingsdatenbestand meist Stereotype und Vorurteile beinhalte.
Neben Diskriminierung und Datenschutzproblemen sei KI auch wenig transparent. Es sei nicht nachvollziehbar, wie der Algorithmus Entscheidungen trifft. Das könne auch zu sozialen oder wirtschaftlichen Nachteilen führen, sagt Buchmann: "Wenn man eine KI dazu benutzt, um herauszufinden, welche Personen einen Asylanspruch haben und welche nicht, so könnte die KI auf Grundlage des vorurteilsbehafteten Trainingsdatenbestands eine objektiv falsche Entscheidung treffen." Er ist der Ansicht, dass ein extrem vorsichtiger Umgang mit KI dann notwendig ist, wenn Menschen zu Schaden kommen könnten.
Hochkomplexe Ethik: KI an den Grenzen könnte Fluchtrouten gefährlicher machen
Ethische Bedenken werden teilweise in den Projektberichten selbst geäußert. In einem Report zur ethischen, sozialen und rechtlichen Folgenabschätzung von D4Fly aus dem Frühjahr 2021 wird die Frage gestellt, welche Auswirkungen die Technologie auf die Rechte von Geflüchteten haben könnten. Die ethischen Prüfer gehen darauf ein, dass zweifelhaft sei, dass strengere Grenzkontrollen den Rückgang irregulärer Migration bewirken. Häufig führe eine erhöhte Überwachung an den Grenzen nicht dazu, dass Migrationsströme gestoppt würden, sondern nur zur Nutzung gefährlicherer Fluchtrouten.
Wenn es auf Grund von Technologie zu einer falschen Entscheidung an der Grenze komme, seien die Geflüchteten in einer schwachen Position, rechtlichen Beistand zu bekommen, heißt es im Bericht weiter. "Diejenigen, die am meisten von der Grenzpolitik und neuen Technologien betroffen sind, sind nicht Bürger des Ziellandes, sondern kommen aus anderen Ländern." Zudem bestehe die Gefahr, dass die europäischen Grenzen als Testzentren für neue Technologien genutzt würden und Migranten dabei die Testpersonen sind. Es sei wichtig, dass sich mehr Akteure im Bereich der Grenzsicherheit dieser Probleme bewusst werden. Denn: "Es handelt sich um hochkomplexe ethische Fragen ohne klare Lösungen."
EU-Kommission verweist auf AI-Act als rechtliche Grundlage
Auf Anfrage von MDR WISSEN schreibt die Europäische Kommission, dass künstliche Intelligenz das Potenzial habe, eine Unterstützung an den europäischen Grenzen zu sein. Man müsse jedoch unterscheiden, ob es sich um ein Forschungsprojekt handele oder die Technologie schon im Einsatz sei. Die Forschung sei dazu da, neue Ideen und Lösungen zu finden und sei deshalb oft noch nicht durch den derzeitigen Rechtsrahmen abgedeckt. Bei Verstößen gegen ethische oder rechtliche Vorschriften könne die Kommission die Finanzierung des Projekts allerdings jederzeit aussetzen oder abbrechen.
Seit Anfang März ist zudem der AI-Act in Kraft, eine EU-Verordnung zur Regelung von Künstlicher Intelligenz. Die Europäische Kommission verweist darauf, dass die Verwendung von KI im Bereich von Asylverfahren und der irregulären Migration im AI-Act als "hochriskant" klassifiziert sei. Durch die Klassifizierung gelten zusätzliche Vorschriften, wie Transparenz oder die Verpflichtung zur Berichterstattung über etwaige Zwischenfälle.
EU plant KI-Gremium
In Bezug auf diskriminierende Algorithmen in "hochriskanten" Technologien schreibt die Europäische Kommission außerdem: "Solche Systeme müssen mit robusten und umfangreichen Datensätzen trainiert werden, um die Wirksamkeit zu erhöhen, Verzerrungen zu vermeiden und falsch-positive Ergebnisse zu verringern." Zur wirksamen Durchführung der Verordnung soll nun ein Gremium auf EU-Ebene eingeführt werden, das die Kommission und die zuständigen nationalen Behörden in spezifischen Fragen im Zusammenhang mit KI berät.
Dieser Beitrag entstand im Rahmen von “Crossborder Journalism Campus”, einem Erasmus+-Projekt der Universität Leipzig, der Universität Göteborg und des Centre deFormation des Journalistes in Paris. Unter Mitarbeit von: Daniel Ågren, Judith Dargère, Sandor Adam Gorni, Cleménce Martin, Frances Mills, Naomi Madlene Ott, Thomas Ribaud, Moa Ringvall, Daniel Thalhamer
Dieses Thema im Programm: MDR AKTUELL | 27. Februar 2024 | 12:20 Uhr