Digitale Grenzbeamte suchen Lügner
Künstliche Intelligenz soll Lügner bei der Einreise in die EU künftig auffliegen lassen. Eine freiwillige Testphase ist gestartet. Neben dem Datenschutz steht die geringe Erfolgsquote des Systems in der Kritik.
Von Philipp Schwartze
Innsbruck –Maschine statt Mensch: Per künstlicher Intelligenz (KI) sollen einreisende Schwindler beim EU-Projekt „iBorderCtrl“ künftig ertappt werden. Auf dem heute und morgen in Brüssel stattfindenden Security Research Event (SRE) wird das System vorgestellt, Freiwillige können sich bereits beurteilen lassen.
Bei der neuen Technik stellt ein virtueller Grenzbeamter per Video Fragen, während eine Kamera versucht, bei den Antworten winzige Veränderungen im Gesicht des Einreisenden zu erkennen – so genannte Mikroexpressionen. Sie sollen unwahre Aussagen auf typische Einreise-Fragen wie „Was befindet sich in Ihrem Koffer?“ verraten.
Wissenschaftlich ist die Aussagekraft dieser Mikroexpressionen aber umstritten. Im System gespeichert sind zudem Dokumente wie etwa Pass und Visum. Beamte aus Fleisch und Blut greifen nur noch dann ein, wenn ein Reisender von der KI als „bedrohlich“ eingestuft wurde, um diesen Menschen genauer zu überprüfen.
4,5 Millionen Euro lässt sich die EU das Projekt kosten. Die Argumente: Immer mehr Menschen reisen an den EU-Außengrenzen ein, mehr Grenzbeamte wären für eine effizientere Einreise nötig.
„Neun Monate, bis Ende August 2019, läuft das Pilotprojekt an Grenzen in Ungarn, Griechenland und Lettland“, erklärt Projektleiterin Anastasia Garbi. Dort soll es mit möglichst vielen Menschen getestet werden, zunächst bleibt der Video-Grenzbeamte allerdings freiwillig.
Kritik gibt es von Datenschützern und IT-Fachleuten. „Es ist bisher zu wenig bekannt, was mit Daten passiert, die dabei erhoben werden“, sagt Ines Janusch, Geschäftsführerin des Wiener Unternehmens Data Traction, das zum Thema Datenschutz und künstliche Intelligenz berät.
Fingerabdrücke abzugeben, sind viele Reisende inzwischen gewohnt, moderne Reisepässe, die biometrische Daten in einem Chip gespeichert haben, auch. Doch „iBorderCtrl“ sammelt mehr.
„Da kommt ein Handvenen-Scan dazu, und es ist geplant, Social-Media-Profile zu verknüpfen, um mehr über die Person zu erfahren“, sagt Janusch. Es ist das zweischneidige Schwert zwischen Sicherheit und Datenschutz, der digitale Grenzbeamte könnte einmal mehr dazu beitragen, dass der Mensch gläsern wird.
Die technische Seite ist nicht weniger besorgniserregend. „Wir verwenden bei den Maschinen jetzt Algorithmen, die wir als Menschen nicht mehr ganz nachvollziehen können, weil es zum Teil mathematisch nicht mehr möglich ist“, warnt Janusch vor der zunehmend undurchschaubaren Logik der künstlichen Intelligenz.
Damit diese überhaupt eine automatisierte Entscheidung treffen kann, muss man sie trainieren. „Das klassische Beispiel: Man zeigt dem System Hunde- und Katzenbilder“, erklärt Janusch. Das System lernt damit, welche Bilder Katzen und welche Hunde zeigen, und kann diese später unterscheiden. „Man weiß allerdings nicht, welche Regeln sich das System für die Unterscheidung sucht“, sagt Janusch. So kann ein Mensch die Ursache für Fehlentscheidungen kaum finden.
Bei bisherigen Tests mit nur 32 Individuen, die absichtlich logen oder die Wahrheit sagten, lag die Erfolgsquote des „iBorderCtrl“-Systems bei nur 76 Prozent – in vielen Fällen irrte sich die künstliche Intelligenz also noch. Doch selbst bei einer Erfolgsquote von 85 Prozent – einem angestrebten Ziel der am Projekt beteiligten Wissenschafter – würden viele Menschen falsch eingestuft. „2015 erhielten mehr als 520.000 Personen ein Schengen-Visum, kamen also zumeist an einer EU-Außengrenze an. Bei 85 Prozent Erfolgsquote wären 80.000 Menschen falsch klassifiziert worden“, sagt Janusch. Auch wenn diese nach Freigabe durch den menschlichen Beamten anschließend ganz normal einreisen könnten, eine unangenehme Situation wäre vorprogrammiert.
Dass das „iBorderCtrl“ technisch umsetzbar ist, glaubt Janusch schon. Dafür müssten aber banale Probleme – etwa das Erkennen von Brillen, Bärten, unterschiedliche Hautfarben oder wechselnde Lichtverhältnisse – ausgeschlossen werden. „Noch weiß man über das eingesetzte System für eine abschließende Beurteilung zu wenig“, sagt die IT-Expertin.