Sonntag, 15. September 2024

Wie kann künstliche Intelligenz in Zukunft Einfluss auf Migrationsprozesse nehmen?

,,Künstliche Intelligenz‘‘ ist momentan ein Schlagwort, das mit Innovation und Fortschritt verbunden wird. In vielen Lebensbereichen wird künstliche Intelligenz (KI) verstärkt in unterschiedliche Prozesse integriert, sei es z.B. beim autonomen Fahren oder in der Medizin. Während einige den völligen Kontrollverlust des Menschen über die KI befürchten, setzen andere ihre Hoffnungen auf eine digitale Revolution durch die große Bandbreite an Aufgaben, die KI-generierte Systeme in Zukunft übernehmen könnten. 

Auch im Bereich Migration gibt es eine Vielzahl neuer technologischer Entwicklungen, die mit künstlicher Intelligenz operieren. Durch sie soll die häufig als unübersichtlich und ineffizient wahrgenommene Migrationspolitik in Zukunft maßgeblich verändert werden. Menschenrechtsorganisationen warnen jedoch vor teilweise verheerenden Gefahren von künstlicher Intelligenz für Menschen auf der Flucht und Migrant*innen. Als besonders vulnerable Gruppe bräuchten sie den Organisationen zufolge mehr Schutz, weshalb zu großer Vorsicht und Zurückhaltung im Umgang mit KI an Grenzen aufgefordert wird. 

Doch wie sieht der Einsatz von KI im Politikfeld Migration konkret aus? Welche Chancen erhofft man sich davon und wie groß sind die Gefahren? Im Folgenden werden anhand von Beispielen fünf Bereiche vorgestellt, in denen auf künstlicher Intelligenz basierende Instrumente Einfluss auf Migrationsprozesse nehmen. Im Fokus stehen dabei Vorhersagetools, neue Möglichkeiten zur Grenzüberwachung, der Einsatz von KI bei Grenzkontrollen, in Asylverfahren und als Unterstützung im Alltag von Migrant*innen bzw. von Menschen auf der Flucht. Nach der näheren Betrachtung dieser fünf Bereiche wird eingeschätzt, welche Auswirkungen künstliche Intelligenz auf Migrationsprozesse hat und in Zukunft haben könnte. Zu Beginn wird außerdem der jüngst in Kraft getretene AI-Act der Europäischen Union (EU) und damit der rechtliche Rahmen von KI in der EU in Bezug auf Aspekte der Migration beleuchtet.

AI-Act

Seit dem 1. August 2024 ist der AI-Act in der EU in Kraft, eine Verordnung zum Umgang mit künstlicher Intelligenz. Global handelt es sich dabei um die bislang umfangreichste Verordnung zu diesem Thema, der vielfach eine Vorreiterrolle zugesprochen wurde (vgl. Born 2024). Insgesamt wurde drei Jahre lang am AI-Act gearbeitet, wobei die rasante Entwicklung von KI immer wieder neue Fragen und Überlegungen aufwarf (vgl. Köver 2024). Das Ziel des AI-Acts ist es, die ,,Nutzung und Entwicklung von künstlicher Intelligenz‘‘ (Born 2024) in der EU zu regulieren.

Ein Kernelement des AI-Acts ist die Einstufung von KI-Systemen in ein Risiko-Raster. Ein ,,unannehmbares Risiko‘‘ (Europäisches Parlament 2024) liegt bei ,,kognitive[r] Verhaltensmanipulation von Personen oder bestimmten gefährdeten Gruppen‘‘ (ebd.), ,,soziale[…][m] Scoring‘‘ (ebd.), ,,biometrischer Identifizierung und Kategorisierung natürlicher Personen‘‘ (ebd.) sowie bei ,,biometrische[n] Echtzeit-Fernidentifizierungssystemen‘‘ (ebd.) vor. Wenn ein unannehmbares Risiko vorliegt, ist das System dem AI-Act entsprechend in der EU unzulässig. In der ,,Strafverfolgung‘‘ (ebd.) oder bei ,,schwerwiegende[…][n] Fälle[n]‘‘ (ebd.) können jedoch einzelne Ausnahmen gemacht werden.

Die darauffolgende Stufe beinhaltet ,,Hochrisiko-KI-Systeme‘‘ (ebd.). Darunter fallen Systeme, ,,die ein hohes Risiko für die Gesundheit und Sicherheit oder für die Grundrechte natürlicher Personen darstellen‘‘ (ebd.). Hochrisiko-KI-Systeme werden wiederum in zwei Gruppen eingeteilt. Die erste Gruppe bezieht sich auf die Anwendung von KI in Produkten, die von Produktsicherheitsvorschriften der EU betroffen sind. Die zweite Gruppe umfasst den Gebrauch von KI in besonderen Bereichen, zu denen neben der kritischen Infrastruktur oder der Bildung unter anderem auch die ,,Verwaltung von Migration, Asyl und Grenzkontrollen‘‘ (ebd.) gehört. KI-Systeme, die in hochriskanten Bereichen eingesetzt werden, müssen dem AI-Act entsprechend vor und während des Einsatzes geprüft werden. Außerdem können Bürger*innen über derartige Systeme Beschwerden bei nationalen Behörden einreichen.

Das Risiko-Raster im AI-Act beinhaltet außerdem ,,Transparenzanforderungen‘‘ (ebd.). Systeme, die hiervon betroffen sind, gelten zwar nicht als riskant, müssen sich jedoch an Transparenzanforderungen und das Urheberrecht der EU halten. Zu Systemen, die Transparenzanforderungen erfüllen müssen, zählt z.B. ChatGPT. Bei anderen KI-basierten Systemen wie z. B. Spam-Filtern sind keine Regulierungen vorgesehen (vgl. Born 2024).

Einige Akteure, wie z.B. Firmen, die KI-basierte Tools entwickeln, sind durch den AI-Act und die neuen Regulierungen verunsichert. Sie befürchten einen Mehraufwand und wirtschaftliche Nachteile durch bürokratische Hürden bei der Entwicklung neuer Technologien (vgl. ebd.). Für andere Akteure gehen die Regulierungen im AI-Act nicht weit genug. Besondere Kritik betrifft in diesem Zusammenhang der Umgang des AI-Acts mit dem Thema Migration, welches im Regelwerk als hochriskantes Gebiet eingestuft wird.

Kritik am AI-Act

Diese Einordnung reicht nach Einschätzungen verschiedener Nichtregierungsorganisationen jedoch nicht aus, um Menschen auf der Flucht bzw. Menschen während eines Migrationsprozesses ausreichend vor den Gefahren künstlicher Intelligenz zu schützen (vgl. Amnesty International 2024b, S. 22). Das Bündnis ,,#ProtectNotSurveil‘‘ veröffentlichte ein dementsprechendes Statement (vgl. #ProtectNotSurveil 2024). Zu ,,#ProtectNotSurveil‘‘ gehören unter anderem Organisationen wie Amnesty International, Algorithm Watch, European Digital Rights und das European Network Against Racism.

Ein Kritikpunkt des Bündnisses ist, dass einige im Migrationskontext angewandte Systeme, die nach Einschätzung der Organisationen ein unannehmbares Risiko tragen, nicht in den Bereich des unannehmbaren Risikos aufgenommen wurden. Einzelne in anderen Bereichen verbotene Praktiken wie die KI-gesteuerte Emotionserkennung sind im Migrationskontext erlaubt. Außerdem bemängelt #ProtectNotSurveil, dass sich Datenbanken wie Eurodac, das Schengen Information System und das Europäische Reiseinformations- und -genehmigungssystem (ETIAS), die im Bereich Migration von hoher Bedeutung sind, erst nach mehreren Jahren an die im AI-Act vereinbarten Regelungen halten müssen. Ungeklärt ist außerdem, welche KI-Systeme in der EU entwickelt und aus der EU exportiert werden dürfen. Auch wenn sie in der EU verboten sind, könnten diese Systeme negative Auswirkungen auf Geschehnisse außerhalb der EU haben.

Zudem wird kritisiert, dass es einige im AI-Act dokumentierte Ausnahmen der Regeln des AI-Acts gibt, die den Missbrauch von KI im Kontext von Migration begünstigen können. Eigentlich beinhaltet der AI-Act eine Regel, dass öffentliche Akteure transparent mit dem Nutzen hochriskanter Systeme umgehen müssen. Die Öffentlichkeit muss einen Zugang zu Informationen über die genaue Verwendung der Systeme besitzen. Ausgenommen von dieser Pflicht zur Transparenz sind Behörden, die sich mit Strafverfolgung und Migration befassen. Obwohl Menschen- und Persönlichkeitsrechte in diesen Bereichen besonders gefährdet sind, herrscht hier keine Transparenz, sodass #ProtectNotSurveil zufolge der Gesamtbevölkerung und Journalist*innen die nötige Kenntnis über das Vorgehen der Behörden vorenthalten wird.

Weitere Ausnahmen von den Regeln im AI-Act können gemacht werden, wenn Nationalstaaten ihre nationale Sicherheit bedroht sehen und der Einsatz künstlicher Intelligenz für diese Sicherheit notwendig ist. Mit diesem Argument, das sich auch auf Migrationsprozesse beziehen kann, könne dem Bündnis entsprechend theoretisch jede Vereinbarung des AI-Acts gebrochen werden.

Einsatzmöglichkeiten von KI im Kontext von Migration

Bis der AI-Act gänzlich umgesetzt wird, dauert es noch einige Jahre. Während dieses Zeitraums ist absehbar, dass auch im Bereich Migration neue Technologien entwickelt werden, die dann möglicherweise neue Regeln fordern. Einige Entwicklungen, die heute schon in der Praxis angewandt oder getestet werden, werden im Folgenden vorgestellt. Ein Fokus liegt dabei auf Vorgängen innerhalb der EU und der Bundesrepublik.

Viele von ihnen verbindet, dass sie eine stärkere und strengere Kontrolle und Beschränkung von Migration bewirken sollen. Einer Umfrage der ARD aus dem Jahr 2023 entsprechend hielten damals 82% der Befragten eine ,,Verstärkung von Grenzkontrollen‘‘ (Ehni 2023) für richtig. Die ,,Integration in die Gesellschaft‘‘ (ebd.) sowie die ,,Integration in den Arbeitsmarkt‘‘ (ebd.) von Geflüchteten bewerteten dagegen jeweils 78% der Befragten eher schlecht oder sehr schlecht (vgl. ebd.). Es herrscht demnach Unzufriedenheit mit der momentanen Migrationspolitik, für die nach der Einschätzung von 64% der in der Studie befragten Personen auf europäischer Ebene Lösungen gefunden werden müssten (vgl. ebd.).

Insgesamt besitzt die EU eine ca. 12.000 km lange Land- sowie eine ungefähr 45.000 Kilometer lange Seegrenze (vgl. Rust 2020). Für das Passieren dieser Grenze nehmen jährlich Tausende eine lebensgefährliche Flucht auf sich. Wenn Grenzgebiete stärker kontrolliert und bewacht werden, so wählen viele Menschen noch gefährlichere Routen (vgl. Beiter/Ammicht/Klügel 2022). Nach Angaben der EU starben ,,zwischen 2015 und 2020 mehr als 13.000 Menschen bei dem Versuch, Europa über das Mittelmeer zu erreichen‘‘ (ebd.). Die Route über das Mittelmeer gilt daher als die ,,gefährlichste Fluchtroute der Welt‘‘ (Pesavento 2023).

Menschen auf der Flucht sind auf Schutz und Hilfe angewiesen, nach der UN-Menschenrechtskonvention besitzen sie ein Recht auf Asyl (vgl. Cremer 2016, S. 40). Die Notlage der betroffenen Menschen oder der Fachkräftemangel in vielen europäischen Staaten zählen zu einer Vielzahl an Argumenten, die eine allgemein weniger auf Grenzschutz und Abschottung ausgerichtete Migrationspolitik stützen. Bei der Betrachtung der nun aufgeführten Technologien sollte diese Grundsatzüberlegung mitgedacht werden. Begonnen wird mit der Verwendung künstlicher Intelligenz zur Vorhersage von Migration. Dieses Feld ist momentan im Aufschwung begriffen, da immer mehr Tools entwickelt und ihre Möglichkeiten erweitert werden.

Vorhersage von Migration

Tools zur Vorhersage bestimmter Prozesse werden in beinahe allen Bereichen des politischen Geschehens verwendet, z.B. in Anbetracht der Bevölkerungsentwicklung, ökonomischer Veränderungen oder des Klimawandels. Der Einsatz von KI für derartige Vorhersagen verspricht eine hohe Geschwindigkeit der Vorhersagen, eine schnelle Anpassungsfähigkeit an neue Entwicklungen und eine vermeintlich objektive Einschätzung der Lage.

Durch die Eingabe von Daten in KI-gesteuerte Vorhersagesysteme kann eine Vielzahl verschiedener Faktoren beachtet werden, aus denen dann Vorhersagen über Migrationsbewegungen, deren Routen und Ursachen getroffen werden sollen (vgl. Bither/Ziebarth 2020, S. 12). Dabei können beispielsweise Daten zur politischen Lage, zu klimatischen Veränderungen oder zu sozialen Situationen kombiniert und ausgewertet werden. Außerdem trägt das Erstellen digitaler Identitäten, z. B. durch die digitale Verfügbarkeit von persönlichen Daten und Bewegungsdaten zu einer leichteren Vorhersage von Migrationsbewegungen bei (vgl. Monroy 2022). Vor allem Daten aus Telefongesprächen, Suchmaschinenanfragen oder Bewegungsdaten, die in klassischen Prognosen noch nicht beachtet wurden, können Erkenntnisse aufzeigen, die aus tradierten Vorhersagen nicht gewonnen werden können (vgl. Angenendt/Koch/Tjaden 2023, S. 11).

Im Allgemeinen wird daran kritisiert, dass die Menschen, die sich z.B. auf der Flucht in einer Notsituation befinden, in solchen Vorhersagen als eine Zahl betrachtet werden, hinter der die Individuen, ihr Leid und ihre Not verblassen. Diese Zahl kann auch zu populistischen Zwecken genutzt werden, indem schutzbedürftige Menschen als Gefahr dargestellt werden und Hetze gegen sie betrieben wird (vgl. Langrand 2024).

Bei Migration handelt es sich zudem um ein sogenanntes ,,wicked problem[…]‘‘ (Angenendt/Koch/Tjaden 2023, S. 9), das sehr schwer durchschaubar ist. Einige politische Ereignisse, die für Migrationsprozesse entscheidend sind, können auch von künstlicher Intelligenz nicht exakt eingeschätzt werden (vgl. Angenendt/Koch/Tjaden 2023, S. 9).

Wie genau eine KI-generierte Prognose ausfallen kann, hängt außerdem von der Qualität und der Quantität der Daten ab. Ob diese Schwierigkeit durch eine genauere Datenerfassung bei Migrant*innen behoben werden sollte, ist jedoch umstritten. Der Gebrauch der Daten von Migrant*innen kann für diese gefährlich werden, wenn beispielsweise die Migrationsrouten verfolgter Menschen berechnet werden. Das Vorhandensein genauer Daten dieser Menschen könnte dazu führen, dass sie der Verfolgung nicht entkommen können (vgl. Bither/Ziebarth 2020, S. 13).

Wie in den meisten anderen Lebensbereichen auch, können unzureichend geschützte Daten ausgenutzt werden. So wird auch befürchtet, dass menschenrechtswidrige Pushbacks, also illegale Rückführungen von Menschen auf der Flucht, durch die Möglichkeit einer genauen Ortung betroffener Personen erleichtert werden (vgl. Langrand 2024). Selbst wenn eine hohe Datenmenge verfügbar ist, ist der Umgang mit dieser komplex. Schließlich nehmen auch höchst individuelle Aspekte wie Wünsche und Vorstellungen, die Familienzusammengehörigkeit oder spontane Begegnungen auf Migrationsverläufe Einfluss (vgl. Langrand 2024).

Trotz dieser Risiken ist die Forderung nach Vorhersagesystemen im Bereich Migration groß. Ein Grund dafür ist der wachsende Wunsch nach einer stärker evidenzbasierten Migrationspolitik (vgl. Beduschi 2021, S. 576). KI-generierte Prognosen könnten, obwohl sie bislang recht ungenau sind, von diesen Akteuren geforderte Daten liefern. Man erhofft sich außerdem, durch eine gemeinsame Datengrundlage zwischen am Migrationsprozess beteiligten Institutionen besser kooperieren und organisieren zu können.

Zum einen könnten bereits im Vorhinein Ressourcen zur Hilfe für schutzbedürftige Personen bereitgestellt werden, zum anderen könnten auch erweiterte Grenzkontrollen etabliert werden (vgl. Bither/Ziebarth 2020, S. 13). Der wohl größte Nutzen, der von Vorhersagetools erhofft wird, ist die Möglichkeit, durch langfristige Vorhersagen bereits Ursachen für Migration vorhersagen und verhindern zu können (vgl. Langrand 2024). Dieser Vorstellung nach müssten sich Menschen dann gar nicht erst auf die Flucht begeben.

Schlussendlich sind alle Chancen und Risiken der Vorhersage davon abhängig, wie politische Akteure auf die Prognosen reagieren und wie sie diese nutzen. Wie bei den meisten technischen Entwicklungen können sie positiv und negativ genutzt werden. Schon heute werden KI-gesteuerte Prognosesysteme für Migrationsprozesse in der EU angewandt. Die meisten dieser Systeme stehen jedoch noch am Anfang ihrer Entwicklung oder befinden sich in der Testphase.

Ein Beispiel für die zukünftige Verwendung KI-gesteuerter Vorhersagesysteme bietet die European Union Agency for Asylum (EUAA), eine Agentur der EU, welche die Mitgliedsstaaten bei der Umsetzung des Gemeinsamen Europäischen Asylsystems unterstützt. Für einen Monat im Voraus berechnet der DynENet-Algorithmus der EUAA die ,,Zahl neuer Asylgesuche in der EU‘‘ (Angenendt/Koch/Tjaden 2023, S. 29). Beim DynENet-Algorithmus handelt es sich um den bislang im Vergleich mit anderen Programmen in Europa am weitesten entwickelten Algorithmus. Dennoch ist er noch nicht in der Lage, Migrationsprozesse in ganz Europa für alle Mitgliedsstaaten und unter der Beachtung aller möglicher Routen und Ereignisse vorherzusagen.

Daneben wird ein KI-gesteuertes Prognoseinstrument der EU-Kommission namens ,,Forecasting and Early Warning Tool‘‘ entwickelt, welches ,,ungeregelte Wanderungsbewegungen in Richtung EU‘‘ (ebd.) für einen Zeitraum von bis zu drei Monaten prognostizieren soll. Auch die Bundesrepublik nutzt mit der vorausschauenden Migrationsanalyse ein Tool, das ,,ungeregelte Wanderungsbewegungen in Richtung Deutschland‘‘ (ebd.) für bis zu ein Jahr im Voraus vorhersagen soll. (vgl. ebd.)

Neben der EU und Nationalstaaten nehmen auch Hilfswerke wie das Flüchtlingswerk der Vereinten Nationen (UNHCR) oder Save The Children KI-generierte Vorhersagesysteme in Gebrauch. Diese Systeme sind meist auf einen bestimmten zeitlichen und räumlichen Kontext fokussiert. Das Vorhersageinstrument ,,Venezuela-Brazil Border Scenarios‘‘ der UNHCR versucht zum Beispiel, Migration aus Venezuela nach Brasilien vorherzusagen, um den Bedarf an humanitärer Hilfe besser einschätzen zu können. Da die wichtigen Einflussfaktoren hierbei begrenzt sind, fällt der KI das Lernen aus den Geschehnissen leichter. Dennoch benötigt auch die Installation eines solchen eher überschaubaren Programms nach Angaben der UNHCR Innovation Unit ca. ein Jahr, um funktionsfähig zu werden (vgl. Angenendt/Koch/Tjaden 2023, S. 29f.).

In der EU werden Prognoseinstrumente im Bereich Migration also bereits verwendet und weiterhin entwickelt. Mit ihnen sind Hoffnungen auf eine besser organisierte und vorbereitete Migrationspolitik verbunden. Vor den Gefahren dieser Systeme sind Menschen auf der Flucht momentan nach Einschätzungen der Menschenrechtsorganisation Amnesty International (2024b) unzureichend geschützt. Vorhersagesysteme stellen Zahlen und Daten bereit, die dann von politischen Akteuren in vielfältiger Weise genutzt werden könnten. Eine noch aktivere Rolle könnte KI in Zukunft bei der Überwachung von Grenzen übernehmen.

Überwachung der Grenzen 

Eine Flucht über das Mittelmeer ist riskant. Jährlich sterben dort tausende Menschen bei dem Versuch, Europa zu erreichen. Seenotrettungsorganisationen engagieren sich dafür, die Lage für Menschen auf der Flucht zu verbessern und sie zu retten. Andererseits werden immer wieder Fälle illegaler Pushbacks auf dem Mittelmeer bekannt. Unter einem Pushback versteht man ,,illegale Zurückweisungen von Geflüchteten‘‘ (Lehner 2023). Illegal sind sie deshalb, weil Menschen ein Recht auf Asyl haben und nicht in ein Gebiet zurückgeschickt werden dürfen, in dem ihnen ,,Verfolgung, Folter oder Lebensgefahr droht‘‘ (Lehner 2023).

In einer solchen Grenzregion am Mittelmeer in Griechenland wurden in der Vergangenheit Überwachungssysteme getestet, die mit KI operieren. Die Systeme sind jedoch im Allgemeinen nicht nur für die Grenzregion, sondern auch zur Überwachung des ,,Grenzvorbereichs‘‘ (Algorithm Watch/ZDF Magazin Royale 2024) angedacht. Dieser umfasst nach Einschätzungen einer Recherche des ZDF Magazins Royale und der Organisation Algorithm Watch (2024) auch noch Gebiete Nordafrikas und der Sahelzone.

ROBORDER und NESTOR – so nennen sich zwei der Forschungsprojekte, bei denen der Einsatz von künstlicher Intelligenz bei der Grenzüberwachung europäischer Außengrenzen erprobt wurde. Das ältere der beiden Projekte ist ROBORDER, eine Abkürzung für einen ,,autonomous swarm of heterogeneous RObots for BORDER surveillance‘‘ (ebd.). Dabei handelt es sich um ein System aus einem Schwarm autonomer Roboter, die eine automatische Grenzüberwachung vornehmen können. Sie bewegen sich an Land, in der Luft, auf und unter Wasser, und können dadurch große Gebiete überwachen.

Die Roboter erkennen Menschen als solche und bewerten eigenständig, ob diese für den Grenzschutz von Interesse sind (vgl. Lulamae 2022b). Wenn dies der Fall ist, geben die Roboter die Informationen an den Grenzschutz oder anderes Sicherheitspersonal weiter (vgl. Jäger/Klima/Lich/Streib 2024b). Im Rahmen des Programms Horizon 2020 wurden ca. acht Millionen Euro von der EU in das Projekt investiert. ROBORDER selbst gibt an, dass es gegen Kriminalität an Grenzen verwendet werden kann.

Der Professor für Robotik Noel Sharkey äußerte die Befürchtung, dass Systeme wie ROBORDER leicht mit Munition ausgestattet und dann zu militärischen Zwecken genutzt werden könnten. Außerdem könnten illegale Pushbacks durch Systeme wie ROBORDER deutlich erleichtert werden. Mittlerweile wurde das Projekt ROBORDER abgeschlossen, wobei es nun ein darauf aufbauendes Projekt namens REACTION gibt (vgl. Algorithm Watch/ZDF Magazin Royale 2024).

Ein weiteres in diesem Kontext relevantes System ist NESTOR, das ebenfalls von EU-Geldern finanziert wurde. Auch zu diesem Projekt recherchierten das ZDF Magazin Royale und die Nichtregierungsorganisation Algorithm Watch. Der Name NESTOR ist eine Abkürzung für ,,aN Enhanced pre-frontier intelligence picture to Safeguard The EurOpean boRders‘‘. Es funktioniert im Grundsatz ähnlich wie ROBORDER. Das Kernelement ist ein autonomer Schwarm an Robotern, der wieder weitläufige Regionen beobachten und selbst entscheiden kann, wann eine Beobachtung von Interesse ist. Die Roboter sind mit der Virtual-Reality-Brille eines Menschen verknüpft. Diese Person kann sich das von den Robotern übermittelte Bild der Lage in Echtzeit ansehen und die Informationen an weitere Personen übermitteln (vgl. ebd.).

Algorithm Watch und das ZDF Magazin Royale forderten Unterlagen bezüglich der beiden Projekte von der European Research Executive Agency (REA) an. In den dem Rechercheteam übermittelten Unterlagen zum Projekt NESTOR waren 169 von 177 Seiten geschwärzt. Im Rest des Textes wurden dennoch einige Gefahren niedergeschrieben. Dazu gehört der Missbrauch von NESTOR ,,für Kriminalität oder Terrorismus‘‘ (ebd.), um ,,Menschenrechte und bürgerliche Freiheiten zu beschneiden‘‘ (ebd.) und um ,,Menschen zu stigmatisieren, zu diskriminieren, zu belästigen oder einzuschüchtern‘‘ (ebd.).

Die Entwicklung und mögliche Etablierung der Technologien gehen also mit tiefgreifenden Risiken einher. Derartige Befürchtungen betreffen jedoch nicht nur die Überwachung von Grenzen, sondern auch die Vorgänge bei Grenzkontrollen.

Grenzkontrollen 

Die Digitalisierung der Grenzkontrollen ist auf Flughäfen und anderen Grenzübergängen heute schon Normalität. Biometrische Informationen von Menschen, die eine Grenze überqueren wollen, werden von Regierungen, aber auch beispielsweise von Fluggesellschaften erfasst und gespeichert (vgl. Beiter/Ammicht/Klügel 2022). Wie bei den Vorhersagesystemen ist auch hier der Schutz der Daten sehr wichtig. Sie können z.B. Aufschluss über gesundheitliche Schwierigkeiten oder die sexuelle Orientierung einer Person geben, was in bestimmten Zusammenhängen zum Verhängnis werden kann (vgl. Amnesty International 2024b, S. 20).

Auf Flügen wird teilweise durch biometrische Gesichtserkennung das Boarding automatisiert und kontrolliert. Außerdem ermöglicht die Erfassung biometrischer Daten in Zusammenhang mit künstlicher Intelligenz eine automatisierte Entscheidung darüber, ob ein Mensch eine Grenze passieren darf oder nicht. Die künstliche Intelligenz kann die biometrischen Daten mit anderen Daten z.B. bezüglich bestimmter Routen abgleichen und daraufhin eine Risikoeinschätzung vornehmen. Derartige Einschätzungen durch KI scheinen auf den ersten Blick objektiver als menschliche Entscheidungen.

Für die Digitalisierung der Grenzen in der EU von Bedeutung ist das System iBorderCtrl, das durch die EU finanziert wurde (vgl. Algorithm Watch/ZDF Magazin Royale 2024). IBorderCtrl bezeichnet ein umfangreiches Konzept zur Digitalisierung von Grenzen, welches an einigen Stellen mit KI arbeitet. Ein Teil von iBorderCtrl ist eine Art ,,Lügendetektor‘‘. Wie der Name bereits vermuten lässt, beruht dieser auf der Annahme, dass Menschen an Grenzübergängen lügen.

Im ,,Lügendetektor‘‘ von iBorderCtrl spricht ein als Polizist designter Avatar mit Menschen, die die Grenze passieren möchten. Je nach Geschlecht, Herkunft und Sprache wird der Avatar für die jeweiligen Gesprächspartner*innen personalisiert und kann freundlich oder streng sein (vgl. Beiter/Ammicht/Klügel 2022). Bevor der Lügendetektor zum Einsatz kommt, müssen die Migrant*innen ihre Unterlagen zur Verfügung stellen. Ergibt die Betrachtung der Unterlagen die Einschätzung eines höheren von der Person ausgehenden Risikos, so ist das Gespräch mit dem Lügendetektor umfassender und detaillierter als bei anderen Personen (vgl. Boffey 2018). Durch die Erfassung und Verarbeitung verschiedener Aspekte der Sprache und der Mimik soll das System Lügen erkennen und entsprechend auffällige Personen dürften dann nicht die Grenze passieren.

Gegenüber der niederländischen Zeitung ,,De Volskrant‘‘ bezweifelte Bruno Verschuere, ein forensischer Psychologe der Universität Amsterdam, die Funktionsfähigkeit des Lügendetektors. Non-verbale Äußerungen in der Mimik eines Menschen könnten keine Auskunft darüber geben, ob ein Mensch lüge oder nicht. Die Annahme, lügende Menschen würden Zeichen von Angst und Unsicherheit zeigen, sei falsch. Ihm zufolge habe das System von iBorderCtrl keine wissenschaftliche Grundlage (vgl. Boffey 2018).

In Tests erwies es sich bereits als fehleranfällig. So beantwortete eine Journalistin der Website ,,The Intercept‘‘ alle Fragen korrekt, dennoch wurden vier der 16 von ihr beantworteten Fragen von iBorderCtrl als Lügen eingestuft. Ihr wurde daraufhin von einem zuständigen Polizisten mitgeteilt, dass iBorderCtrl dem Sicherheitspersonal in ihrem Fall weitere Untersuchungen empfiehlt (vgl. Gallagher/Jona 2019).

Menschen, die traumatisiert sind oder sich in einer extremen Notlage befinden, reagieren zudem teilweise mit großer Angst auf den Avatar und sind im Gespräch nervös. Die Angst der Menschen, die sich auch in ihrer Mimik zeigt, wird von der künstlichen Intelligenz als Hinweis auf eine Lüge gewertet. In diesem Fall würde also bei psychisch besonders belasteten Menschen, die Angst haben und nervös sind, eine Abweisung empfohlen (vgl. Beiter/Ammicht/Klügel 2022).

Außerdem konnten dem System rassistische und sexistische Vorurteile nachgewiesen werden. Fehleinschätzungen geschahen in Tests häufiger bei People of Colour und Frauen (vgl. Lehner 2023). Die Beraterin für die Rechte von Geflüchteten und Migrant*innen bei Amnesty International, Charlotte Phillips, sieht das ,,Recht auf Nichtdiskriminierung und andere Menschenrechte‘‘ (Amnesty International 2024a) durch die neuen Technologien bedroht. Sie würden ,,Grenzregime, die sich unverhältnismäßig stark auf rassifizierte Menschen auswirken‘‘ (ebd.), verstärken. Die Annahme, KI-generierte Systeme seien objektiver und weniger rassistisch oder sexistisch als Menschen, teilt die Expertin in diesem Zusammenhang also nicht. Eher würde derartige Diskriminierung durch die KI verstärkt.

Ein ähnliches System wie der Lügendetektor von iBorderCtrl, das auf einem Flughafen in Rumänien getestet wurde, wurde von Frontex in Bezug auf die ,,Treffsicherheit‘‘ (Lehner 2023) als ,,zweifelhaft‘‘ (Lehner 2023) bezeichnet.

Von den Entwickler*innen von iBorderCtrl wird betont, dass die Entscheidung über Rückführungen bzw. das Passieren der Grenze nicht alleine dem Lügendetektor überlassen wird (vgl. Jäger/Klima/Lich/Streib 2024a). Dieser ist nur ein Teil in einem längeren Prozess, an dem Mensch und KI beteiligt sind. Die hohe Fehleranfälligkeit und die fragwürdige wissenschaftliche Grundlage des Lügendetektors sind jedoch starke Argumente gegen dessen Implementierung. Auch wenn betont wird, dass finale Entscheidungen immer einem Menschen und nicht der KI obliegen, so können Fehleinschätzungen der KI dennoch die Entscheidung von Menschen beeinflussen (vgl. Windelband 2018).

Asyl- und Visaverfahren 

Auch Asyl- und Visaverfahren werden vermehrt von künstlicher Intelligenz unterstützt. Die Zeitung NCR Handelsblad und die Organisation Lighthouse Reports haben aufgedeckt, dass in den Niederlanden bei Bewerbungen um Visa Risikobewertungen und ein Profiling durch KI-generierte Systeme vorgenommen werden. Auch in Großbritannien wurden solche Systeme bei der Visavergabe eingesetzt.

Alter, Geschlecht und Nationalität einer Person wurden von der KI als Kriterien für das von der Person ausgehende Risiko für den Staat und der daraus resultierenden Chance auf ein Visum verwendet. Hierbei wäre es wichtig, dass Menschen, die sich auf ein Visum bewerben, Transparenz über die Kriterien und das Vorgehen der künstlichen Intelligenz erhalten. Wenn jedoch auch Menschen nicht durchschauen können, wie die KI operiert, so liegt die Vermutung nahe, dass es sich um ein ungerechtes und diskriminierendes Verfahren handeln könnte (vgl. Lehner 2023).

Ähnliche Vorgehensweisen gibt es auch in Asylverfahren. Aufgrund der hohen Arbeitsbelastung bzw. des organisatorischen Aufwands von Behörden im Zusammenhang mit Asylverfahren soll in Deutschland vermehrt auf KI gesetzt werden (vgl. Kossakowski 2024). Das Bundesamt für Migration und Flüchtlinge (BAMF) greift so zum Beispiel schon seit längerem auf eine Software zur Dialektidentifikation zurück. Dabei soll eine künstliche Intelligenz anhand von Sprachproben einer Person erkennen, wo diese Person ihrem Dialekt entsprechend aufgewachsen ist. Das Ziel ist es, vermeintlich falsche Angaben von Asylsuchenden über ihre Herkunft aufdecken bzw. richtige Angaben bestätigen zu können. Dass derartige Systeme überhaupt Anwendung finden, basiert also wie bei dem Lügendetektor von iBorderCtrl auf der Unterstellung, Menschen würden in diesem Bereich lügen (vgl. Biselli 2020).

Auf Anfrage von Clara Bunger, einer Bundestagsabgeordneten der Partei DIE LINKE, wurde angegeben, dass das BAMF die Software seit 2022 zur Erkennung von Farsi, Dari-Persisch, Pashto, Irakisch-Arabisch, Maghrebinisch, levantinischem Arabisch, Golf-Arabisch und ägyptischem Arabisch einsetzt. Die Daten zur Erkennung dieser Sprachen bezieht das BAMF unter anderem aus dem Linguistic Data Consortium (LDC) der University of Pennsylvania. Der Leiter des LDC Mark Liberman bezweifelt, dass gesprochenes Farsi, Dari-Persisch und Pashto durch eine Software eindeutig voneinander unterschieden werden könnten (vgl. Lulamae 2022a).

Während sich einige Dialekte auch über die Grenzen von Nationalstaaten hinweg sehr ähneln und kaum zu unterscheiden sind, gibt es auch Dialekte und Sprachen, die sich stark voneinander unterscheiden, obwohl der Großteil der Sprecher*innen im gleichen Nationalstaat oder der gleichen Region wohnt. Hinzu kommt, dass individuelle Lebensgeschichten einen starken Einfluss auf den Sprachgebrauch haben, der dann unter Umständen nicht mit den von der KI verwendeten Daten übereinstimmt. Unter anderem aus diesen Gründen ist es recht schwierig, anhand eines Dialekts auf die genaue Herkunft einer Person schließen zu wollen (vgl. Biselli 2020).

Auch das BAMF selbst rechnet mit einer Fehlerquote des Systems von 15 Prozent. Es betont, dass Entscheidungen über Menschenleben nicht allein von den Auswertungen der Dialekterkennungssoftware getroffen werden, sondern immer noch von Menschen getätigt werden (vgl. Biselli/Meister 2019). Welche Auswirkungen die Einschätzungen der Dialekterkennung jedoch in Einzelfällen haben und wie kritisch die Ergebnisse hinterfragt werden, lässt sich schwer nachprüfen. Aufgrund der vielen Unsicherheiten und der hohen Fehlerquote der Dialekterkennungssoftware des BAMF steht dieses Vorgehen stark in der Kritik. Dennoch möchten immer mehr Staaten eine ähnliche Software entwickeln und orientieren sich dabei am in Deutschland eingesetzten Modell (vgl. Lulamae 2022a).

KI zur Unterstützung von Migrant*innen und Menschen auf der Flucht 

Die oben aufgeführten, mit künstlicher Intelligenz arbeitenden Systeme haben häufig zum Ziel, Migration zu begrenzen bzw. stärker zu kontrollieren und zu regulieren. Sie sollen also vorrangig Behörden und andere Akteure im Grenzschutz unterstützen. Neben diesen Systemen wird jedoch auch an einer Vielzahl an Tools gearbeitet, die für Migrant*innen und Menschen auf der Flucht im Alltag von Vorteil sein sollen. Ihnen soll durch derartige Angebote beispielsweise die Organisation ihrer Flucht, der Umgang mit Behörden und der Integrationsprozess erleichtert werden.

Allgegenwärtig sind in diesem Zusammenhang Tools zum Erwerb neuer Sprachen oder zum Übersetzen. Derartige Möglichkeiten werden auch von öffentlichen Institutionen wie Krankenhäusern vermehrt etabliert, so z.B. im Kehler Ortenau Klinikum (vgl. Veenstra 2024). Menschen, die eine Übersetzung benötigen, sind dann nicht mehr auf einen Dolmetscher angewiesen und haben die Möglichkeit, ihre Anliegen in eigenen Worten vorzutragen und verstanden zu werden.

Außerdem können Chatbots zur Rechtsberatung und zur psychotherapeutischen Erstversorgung für Menschen in Notsituationen sehr hilfreich sein. Der Chatbot ,,Free Robot Lawyers‘‘ bietet z.B. eine kostenlose Rechtsberatung für Menschen auf der Flucht oder während des Migrationsprozesses an (vgl. Bither/Ziebarth 2020, S. 9). Ein anderer Chatbot namens ,,Karim der Chatbot X2AI‘‘ wurde zu psychotherapeutischen Zwecken in einem Flüchtlingslager eingesetzt (vgl. Bither/Ziebarth 2020, S. 9).

Weitere Innovationen sollen Menschen im Integrationsprozess dabei helfen, mit der Unterstützung von KI schneller eine Arbeitsstelle zu finden oder bestimmte behördliche Vorgänge zu verstehen und begleiten zu können. Es gibt also auch eine Vielzahl an Tools und Angeboten, die mit künstlicher Intelligenz arbeiten, deren positiver Nutzen für Menschen auf der Flucht und Migrant*innen unumstritten ist.

Zusammenfassung und Fazit: Wie kann künstliche Intelligenz in Zukunft auf Migrationsprozesse Einfluss nehmen?

Systeme mit künstlicher Intelligenz sind im Bereich Migration in einer rasanten Entwicklung begriffen. So werden z.B. Vorhersagesysteme immer weiter ausgebaut. Sie können einerseits bei der Vorbereitung von Ressourcen für Geflüchtete helfen und im besten Fall sogar Ursachen für Migration vorhersehen und bekämpfen. Andererseits könnten die Daten aus Vorhersagesystemen missbraucht werden, und die Vorhersagen könnten z.B. bei der Durchführung illegaler Pushbacks genutzt werden.

Auch die Überwachung von Grenzen wird in Zukunft vermehrt mit KI durchgeführt werden. Die von der EU mitfinanzierten Drohnen- und Robotersysteme tragen ein hohes Risiko zum Missbrauch für militärische Aktionen und Pushbacks mit sich.

Beim Grenzübergang und während Asyl- bzw. Visaverfahren werden immer wieder KI-generierte Auswahlsysteme und ,,Lügendetektoren‘‘ eingesetzt. Auch wenn dies eine Arbeitserleichterung für die Behörden bedeutet, können derartige Systeme mit rassistischen und sexistischen Vorurteilen behaftet sein und diskriminierende Praktiken fortschreiben und verstärken. Die wissenschaftliche Grundlage von ,,Lügendetektoren‘‘ an Grenzübergängen ist außerdem höchst umstritten.

Positive Auswirkungen 
von KI für den Alltag von Geflüchteten und Migrant*innen zeigen sich beim Integrationsprozess, da die KI z.B. beim Erwerb einer neuen Sprache oder bei der Jobsuche behilflich sein kann.

Schon heute ist künstliche Intelligenz nicht mehr aus dem politischen Geschehen wegzudenken. Im AI-Act der EU, der ersten Verordnung dieser Art, wird betont, dass der Einsatz von KI-basierten Technologien im Bereich Migration ein hohes Risiko mit sich bringt. Das Bündnis #ProtectNotSurveil kritisierte dennoch einen Mangel an Schutz für Migrant*innen und geflüchtete Menschen vor den Gefahren der KI.

Ein Blick auf die Vielfalt an Einflussmöglichkeiten, die KI auf Migrationsprozesse nehmen kann, zeigt, dass die Sorge vor problematischen Aktionen durch KI nicht unberechtigt ist. Wie auch bei anderen Technologien zeigt sich bei KI-basierten Systemen, dass sie je nach Verwendung eine Chance aber auch eine Gefahr darstellen können. Bei der Bewertung von KI-gestützten Technologien kommt es also weniger auf die Systeme an sich an, sondern stärker darauf, wie verantwortungsbewusst mit ihnen umgegangen wird.

Quellen

Keine Kommentare:

Kommentar veröffentlichen