Das BAMF will seine Probleme mit Technik lösen – und macht alles noch schlimmer

Das Bundesamt für Migration und Flüchtlinge versucht mit immer mehr Technik, Asylanträge immer schneller abzuarbeiten. Doch wir dürfen nicht zulassen, dass das Schicksal von Schutzsuchenden von Software abhängt. Ein Kommentar.

|
20 August 2018, 9:42am

Geflüchtete warten im Jahr 2015 vor der BAMF-Außenstelle in Eisenhüttenstadt | Bild: imago | Christian Ditsch

Zwanzig Prozent von 9.883 – das sind 1.976. Das ist die geschätzte Anzahl Geflüchteter, bei denen das Bundesamt für Migration und Flüchtlinge, das BAMF, innerhalb eines halben Jahres eine Dialektanalyse durchführte und falsch lag. Denn die Fehlerquote für die Software lag bei etwa zwanzig Prozent. Anders ausgedrückt: Bei jedem fünften Geflüchteten lag sie falsch. Dabei sollte sie eigentlich helfen, die Herkunftsangaben der schutzsuchenden Menschen zu verifizieren, wenn es Zweifel gibt.

Dann sagt der Computer zum Beispiel: Mohammad aus Aleppo klingt wie ein Ägypter. Oder Farrah aus Herat in Afghanistan kommt eigentlich aus dem Iran. Oder die Kurdin Nazemin ist wohl eine Israelin. Der Computer unterstellt ihnen, dass sie lügen. Und bringt ihren Asylantrag in Gefahr, wenn er falsch liegt.

Der Entscheider oder die Entscheiderin entscheide immer in Anbetracht sämtlicher vorliegender Informationen, sagt das BAMF. Seit Februar 2018 sei auch die Fehlerquote auf etwa 15 Prozent gesunken, teilte die Behörde Motherboard mit. Ist es deshalb verschmerzbar, wenn der Computer mal falsch liegt? Nein. Unsere Recherchen haben gezeigt, dass manche Entscheider dem Computer mehr vertrauen, als sie sollten.


Lest hier unsere gesamte Recherche zur Sprachanalyse-Software des BAMF:


Falsche Software-Ergebnisse führen zu Aslyablehnungen

Wir haben Khalil getroffen, er soll kein Asyl bekommen, obwohl es außer der Sprachanalyse keine konkreten Anhaltspunkte dafür gibt, dass er nicht vor dem Krieg in Syrien geflohen ist. Wir haben Hajar getroffen, er musste eine Sprachanalyse machen, obwohl die Software seine Sprache überhaupt nicht kannte. Der BAMF-Entscheider Hajar wusste das offenbar nicht. Beide Asylanträge wurden abgelehnt – als "offensichtlich unbegründet".

"Offensichtlich unbegründet" ist die schwerwiegendste Form der Ablehnung, denn den Geflüchteten bleibt dann nur eine Woche Zeit, gegen die Entscheidung zu klagen. Und zusätzlich einen Eilantrag zu stellen. Das ist schon für Menschen, die sich im deutschen bürokratischen System auskennen, eine Herausforderung. Für jemanden, der gerade erst anfängt Deutsch zu lernen, bedeutet das in vielen Fällen wohl das Ende der Hoffnung, in Deutschland Schutz zu finden. Hätte Hajar nicht durch Glück schnell eine engagierte Anwältin gefunden und hätte Khalil keine Unterstützer – beide wären wohl längst aus Deutschland ausgewiesen worden. Zurück in Krisengebiete, in denen ihr Leben in Gefahr ist. Die Sprachanalyse-Software hatte daran einen großen Anteil.

Das BAMF bekommt einen Preis für ein System, das überhaupt nicht richtig funktioniert

Für dieses System hat das BAMF einen Preis bekommen, für das "Beste Digitalisierungsprojekt 2018" bei einem Wettbewerb zur Digitalisierung und Modernisierung der öffentlichen Verwaltung. Durch die Sprachbiometrie werde die "Prozesseffizienz weiter gesteigert, ohne Einbußen der Qualität bei Asylentscheidungen zu riskieren", teilt das BAMF in einer Pressemitteilung mit. Das ist zynisch. Menschen sind zu Vorgangsnummern geworden, die es so schnell wie möglich abzuarbeiten gilt. Das BAMF ist mehr und mehr zur Fabrik geworden.

Sicher, das Bundesamt war überfordert mit den vielen Menschen, die vor allem in den Jahren 2015 und 2016 nach Deutschland kamen. Es wäre weltfremd, zu verlangen, dass all das reibungslos ablaufen könnte. Es ist aber auch weltfremd zu glauben, dass Technik diese Problem lösen könnte. Aber genau das versuchte das BAMF: mehr Biometrie, mehr Daten, Handyauswertung, Sprachanalysen. Beschleunigung von Entscheidungen, ja auch zum Wohl der Antragsteller, die nicht selten mehr als ein Jahr auf das Ergebnis ihres Asylantrages warten mussten. Doch mit der Effizienzsteigerung wird ausgeblendet, dass hinter den Prozentzahlen Menschen stecken.

Es ist entmenschlichend, mit Technik soziale Probleme lösen zu wollen. Beim BAMF geht es nicht darum, Saure-Gurken-Gläser mit undichtem Deckel auf dem Fließband auszusortieren und wenn es schief geht, erwischt jemand ein gammliges Glas. Es geht darum, Menschen zu sortieren: guter Asylbewerber, schlechter Asylbewerber. Der Asylprozess verkümmert zum Computerprozess.

Wenn ihr Informationen über die IT-Systeme des BAMF habt oder selbst davon betroffen seid, könnt ihr die Autorin per E-Mail kontaktieren. Motherboard wird auch in Zukunft weiter zu dem Thema recherchieren.

Input: Sprachaufnahme. Output: Wahrscheinlichkeit für verschiedene Herkunftsregionen. Ein Papier mit statistischen Angaben und "wissenschaftlichen Maßen", das klingt vertrauenserweckend. Es suggeriert den BAMF-Mitarbeitenden Sicherheit, eine solide Grundlage für ihre Entscheidung. Auch wenn sie nicht einmal in der Lage sind, den Zettel richtig zu interpretieren.

Eine Wahrscheinlichkeit von 60 Prozent, wie bei Hajars Analyse, mag für Laien hoch klingen. Sie in eine Asylentscheidung überhaupt mit einzubeziehen, ist fahrlässig. Alles unter 75 Prozent bewertet etwa das BKA, das auch mit statistischen Analysen arbeitet, als "indifferent" – also unbrauchbar. Das als Grundlage für eine solche Entscheidung zu nehmen, wie es bei Hajar passierte, ist Irrsinn. Selbst wenn die Software fehlerfrei funktionieren würde – was sie nicht tut – ist das nahe am Würfeln. Das müsste der Entscheider erkennen, doch das tat er nicht. Man könnte es sich leicht machen und die Schuld bei den einzelnen BAMF-Mitarbeitenden suchen. Doch das ist nicht der Kern des Problems. Sie werden nur schlecht geschult, im Schnelldurchlauf sollen sie alle IT-Systeme verstehen und bedienen lernen. Wie die Ergebnisse zu interpretieren sind, wird kaum fundiert behandelt. Auf anderen Ämtern wird mehr Zeit in Powerpoint-Schulungen investiert als im BAMF in den richtigen Umgang mit sogenannten Assistenzsystemen für Asylverfahren.

Die Sprachanalysen sind eine zusätzliche Fehlerquelle

Es gibt zahlreiche Fehler bei Asylentscheidungen. Fast die Hälfte der Ablehnungen, die vor Gerichten landen, werden wieder einkassiert. Um zu einer fundierten Einschätzung zu kommen, brauchen die Entscheider Zeit und Wissen. Sie müssen Details über die Herkunftsländer der Personen kennen, über deren weiteres Leben sie entscheiden, um die richtigen Nachfragen stellen zu können. Sie müssen wissen, wie sie mit traumatisierten Menschen umgehen. Sie brauchen kompetente Dolmetscher an ihrer Seite, die mit den Geflüchteten reden können – ohne Sprachbarriere und ohne Beeinflussung dadurch, dass sie eventuell eine andere politische Auffassungen haben.

Das BAMF ist diese Probleme zumindest angegangen, hat Tausende Dolmetscher entlassen, die keine ausreichende Qualifikation hatten oder gegen den "Verhaltenskodex" des BAMF verstießen. Bei der Entscheiderausbildung liegt aber wohl immer noch einiges im Argen. Bis die aktuell skandalgeschüttelte Behörde das in den Griff bekommt, wird es noch eine Weile dauern. Statt sich darauf zu konzentrieren, holt sich das BAMF mit den automatisierten Sprachanalysen eine weitere Fehlerquelle ins Haus – und feiert sie als Innovation.

Das hilft nicht, bessere Entscheidungen zu treffen, es macht es nur vermeintlich einfacher, schlechte, übereilte Entscheidungen mit vermeintlich objektiven Ergebnissen zu legitimieren. Die Systeme nehmen dem Menschen scheinbar die Verantwortung ab, sich für seine Entscheidungen rechtfertigen zu müssen. Das darf nicht sein, denn Asylentscheidungen sind auch eine Entscheidung über Menschenleben. Oder ihr Ende.

Die Namen der Geflüchteten sind geändert, weil die Prozesse wegen ihrer Asylverfahren noch laufen.

Folgt Anna auf Twitter und Motherboard auf Facebook, Instagram, Snapchat und Twitter