Wenn die Maschine über Asyl entscheidet: Uni-Graz-Projekt über Chancen und Risiken der KI
Erkennung der Sprache, Feststellung des Herkunftslandes, Länderberichte und Risikobewertungen: Migrant:innen sind im Asylverfahren zunehmend mit künstlicher Intelligenz (KI) konfrontiert. Ein Forschungsprojekt an der Universität Graz macht auf die Fehleranfälligkeit sowie Intransparenz der Technologie aufmerksam. Zur Unterstützung von Beratungsstellen haben Politikwissenschaftlerin Laura Jung und Rechtswissenschaftlerin Angelika Adensamer eine Orientierungshilfe erarbeitet.
Wenn zwar noch nicht weit fortgeschritten, sind KI-Tools etwa zur Spracherkennung in Österreich laut Regierungsprogramm schon vorgesehen. Andere werden aber bereits verwendet, bestätigen Angelika Adensamer und Laura Jung aufgrund einer Anfragebeantwortung des Innenministeriums. Im Zuge ihres Forschungsprojektes A.I.SYL haben sie erfahren, dass sowohl bekannte Werkzeuge wie zum Beispiel DeepL und Complexity als auch eigens entwickelte Systeme zum Einsatz kommen. "Dabei geht es um die Zusammenfassung von Informationen zu Staaten, um in Asylverfahren Verfolgungsrisiken, die Glaubwürdigkeit der Angaben und die Bewertung sicherer Herkunftsländer festzustellen", beschreibt Angelika Adensamer.
"Vor allem Large-Language-Modelle, die komplexe Fragestellungen verarbeiten, können in Form sogenannter Halluzinationen falsche Angaben liefern", warnt Laura Jung. Wenn Behörden über wenig Fakten verfügen, bestünde die Gefahr, dass neue Analysemethoden Wissen und Objektivität vortäuschen. Kostenersparnis und Effizienzsteigerung beurteilt Jung skeptisch: "Wenn komplexe Verfahren inkorrekt durchgeführt werden, zahlen wir durch die Gefährdung von Grundrechten und Rechtsstaat einen hohen Preis."
Ein ebenso hohes Risiko stellen Diskriminierung durch Technologie sowie Verletzungen der Grundrechte wie Privatsphäre und Datenschutz dar. Angelika Adensamer: "Nicht nur Asylwerbende, sondern alle Drittstaatsangehörigen sind von der Ausweitung der Datenverarbeitung durch Biometrie, Screenings an der Grenze und der Verknüpfung von Informationen betroffen."
Jung verweist in diesem Zusammenhang darauf, dass Geflüchtete und Ayslwerber:innen gleichsam zu Versuchskaninchen werden könnten: "An Ihnen werden Tools getestet, die Staatsbürger:innen so nicht akzeptieren würden."
Rechts- und Sozialberater:innen im Bereich der Migration, betonen die beiden Forscher:innen, müssen bei KI-Anwendungen also nicht nur auf die rechtlichen Bestimmungen, sondern auch auf Stärken und Schwächen der Maschine achten: "Ein automatisierte Übersetzung kann dann sinnvoll sein, wenn mögliche Fehlerquellen bekannt sind."
Veranstaltungstipp
Die Ergebnisse des Forschungsprojektes A.I.SYL, gefördert vom Zukunftsfonds Steiermark, kommende Woche bei einer öffentlichen Veranstaltung vorgestellt und diskutiert:
WANN: Montag, 12. Mai 2025, 18 Uhr
WO: Forum Stadtpark, Am Stadtpark 1, 8010 Graz
Infos und Anmeldung unter https://aisyl.uni-graz.at/de/
Kontakt für Rückfragen: Laura Jung, PhD Universität Graz Tel. 0316 380-6838 E-Mail: laura.jung@uni-graz.at