Schau mir in die Augen, Terrorist!

Nach den Terroranschlägen von Paris, Istanbul und Brüssel forschen Wissenschaftler unter Hochdruck an Gesichtserkennungssystemen, die potenzielle Attentäter frühzeitig erkennen sollen. Der Markt boomt, aber ist die Technologie auch verlässlich?

In this Monday, May 10, 2010 photo U.S. Army Spc. Jordan Roebuck of Owensboro, Ky., photographs an Afghan traveler at a checkpoint near Forward Operating Base Frontenac in Shah Wali Kot district of Afghanistan. The photograph of the man's iris will be entered into a biometrics identification system. (AP Photo/Chris Torchia)

(Bild: Keystone/Chris Torchia)

Nach den Terroranschlägen von Paris, Istanbul und Brüssel forschen Wissenschaftler unter Hochdruck an Gesichtserkennungssystemen, die potenzielle Attentäter frühzeitig erkennen sollen. Der Markt boomt, aber ist die Technologie auch verlässlich?

Nach den Terroranschlägen auf den internationalen Flughafen und eine Metrostation in Brüssel kursierte in den Medien ein Fahndungsfoto. Es zeigte – etwas verpixelt – die Attentäter mit drei Kofferwagen. Zwei der Täter waren dunkel gekleidet, der dritte trug eine helle Jacke. Die Identifizierung dauerte einen Tag, was man je nach Blickwinkel als schnell oder langsam bezeichnen kann. Fakt ist: Alle drei Täter waren der Polizei bekannt. Man hätte also wissen können, dass sich mutmassliche Terroristen in einem öffentlichen Gebäude aufhalten.

Geht es nach den Sicherheitsbehörden, sollen an neuralgischen Punkten der Infrastruktur wie Flughäfen, Bahnhöfen oder öffentlichen Plätzen künftig Gesichtserkennungssysteme eingerichtet werden, die Aufnahmen von allen Personen machen und mit einer Datenbank abgleichen. Wäre eine solche Technik in Brüssel zum Einsatz gekommen, hätte das System Alarm geschlagen und die Sicherheitskräfte am Flughafen gewarnt. «Achtung, verdächtige Person hält sich in Sektor X auf.» 

Zum anderen müsste die Person in einer Datenbank gespeichert und in Echtzeit gefunden werden. Auch diese Fähigkeit habe man nicht. Die Software ist nur so gut wie ihre Daten. Wo kein Foto gespeichert ist, kann logischerweise auch kein Abgleich erfolgen. «Der Verdächtige hat vielleicht keine Vorstrafen, also müssten die Polizeibehörden Zugang zu diversen Datenbanken haben, auch nichtkrimineller Natur», konstatiert Jain.

Das Department of Homeland Security und das FBI pflegen schon länger biometrische Datenbanken mit Gesichts-Scans und Fingerabdrücken. Die Biometrically Enabled Watchlist (BEWL) des US-Verteidigungsministeriums enthält 200’000 Einträge von Verdächtigen im Irak und in Afghanistan. Das ist eine ordentliche Grundlage, doch wenn man bedenkt, dass auf Facebook täglich 350 Millionen Fotos hochgeladen werden, nimmt sich die Datenbasis dann doch gering aus. Es würde nach den Enthüllungen von Edward Snowden nicht verwundern, wenn Facebook Daten an Geheimdienste weiterreichte oder zumindest eine Hintertür eingebaut hat, die den Behörden Zugang zu den Fotos erlaubt.

Das Problem ist nur, dass die Bildqualität von Überwachungskameras meist zu wünschen übrig lässt und der Einzelne nicht zweifelsfrei zu erkennen ist. «Wenn das Gesicht von einem Schal verdeckt wird, der Verdächtige eine Sonnenbrille trägt oder die Lichtverhältnisse schlecht sind, kann der Beamte den Verdächtigen nicht finden», erklärt Jain. Facebook hat im vergangenen Jahr einen Algorithmus entwickelt, der Menschen auf Fotos auch dann identifizieren können soll, wenn ihr Gesicht nicht eindeutig zu sehen ist – anhand ihrer Frisur, Kleidung, Figur und Körperhaltung. Das könnte auch für die Ermittler ein interessantes Werkzeug sein.

Der Preis der Sicherheit

Das Department of Homeland Security forscht derzeit unter Hochdruck an hochauflösenden Videokameras, die Personen aus bis zu zehn Metern Entfernung anhand eines Iris-Scans erkennen.

Diese biometrischen Merkmale sind so einzigartig wie ein Fingerabdruck. Schau mir in die Augen, und ich sage dir, ob du ein Terrorist bist. Ein Mitarbeiter der Behörde sagte dem Portal «Defense One»: «Wenn jemand die Fluggastbrücke am Airport herunterläuft, können wir sagen: ‹Diese Person wurde authentifiziert, sie darf in die Fast-Track-Lane rechts gehen? Diese Person nicht, sie muss zum Screening-Test nach links? Kann das Gerät in einen Computer gebaut werden, sodass es nicht ein Add-on-Gerät ist, wie eine Maus?› Die Antwort lautet: Ja.» Verdächtige nach links, Rechtschaffene nach rechts. Solche groben Raster führen in der Praxis allerdings schnell zu Diskriminierung und Racial Profiling.

Das Problem, das Datenschützer stets monieren, ist, dass biometrische Daten des Gesichts oder der Iris – mithin sehr sensible Daten – ohne Wissen und Einverständnis des Betroffenen erfasst werden. Wenn nun an immer mehr Flughäfen Gesichtserkennung eingeführt wird, gibt es ein systemimmanentes Erfordernis, auch immer mehr Überwachungskameras zu installieren, um die Software mit entsprechenden Daten zu füttern. Ein Teufelskreis.

Hätte ein Kameranetzwerk, das die Terroristen im Taxi auf dem Weg zum Flughafen erkannt hätte, Leben gerettet? Vielleicht. Doch der Preis, den man für diese Sicherheit bezahlt, ist die omnipräsente Überwachung im öffentlichen Leben und der Verlust der Privatsphäre.

Nächster Artikel