Zum Hauptinhalt springen

Beeinträchtigte GesichtserkennungWie Masken Computer verwirren

Die Algorithmen, mit denen eine künstliche Intelligenz Gesichter erkennt, sind weitgehend eine Blackbox. Kommt ein Mund-Nasen-Schutz ins Spiel, schneiden die Programme deutlich schlechter ab.

Die Gesichtserkennung mittels künstlicher Intelligenz stösst an ihre Grenzen, wenn alle Menschen eine Maske tragen.
Die Gesichtserkennung mittels künstlicher Intelligenz stösst an ihre Grenzen, wenn alle Menschen eine Maske tragen.
Foto: Keystone

Dieser Tage übersieht man in der S-Bahn schon mal einen Bekannten, weil das Gesicht hinter der Maske schwer zu erkennen ist. Computern geht es nicht anders: Programme für Gesichtserkennung haben mit den Mund-Nase-Bedeckungen gegen Covid-19 merklich Probleme, ihre Fehlerraten steigen aus dem Promillebereich auf fünf bis 50 Prozent. Das zeigt eine neue Studie des National Institute of Standards and Technology (Nist), einer US-Behörde, die für Technologiestandards zuständig ist.

Forscher um die Informatikerin Mei Ngan maskierten dafür mehr als sechs Millionen Gesichter virtuell, indem sie auf den Aufnahmen bunte Flächen vor Mund und Nase einfügten. Knapp 90 führende Algorithmen zur Gesichtserkennung von Herstellern wie Asus oder Panasonic sollten dann die maskierten Fotos den entsprechenden unmaskierten Bildern zuordnen.

Ob die Masken auf Dauer die Anonymität der Träger wahren können, muss sich erst noch zeigen. Denn es geht um lernfähige Systeme.

Die besten Algorithmen ordnen im Normalfall nur etwa 0,3 Prozent der Gesichter nicht korrekt zu – eine Fehlerrate, mit der die meisten Anwender gut leben können. Die Nist-Studie zeigt jetzt, dass diese Rate bei den besten Programmen durch die Masken auf fünf Prozent steigt. Andere Algorithmen scheitern fast an der Hälfte aller maskierten Gesichter. Für das alltägliche Entsperren des Handys oder für Selbstauslöser in Kameras sind sie damit nicht wirklich zu gebrauchen.

Die Programme schneiden dabei umso schlechter ab, je höher die Maske im Gesicht sitzt. Wird sie nicht fachmännisch getragen, bedeckt sie also die Nase nicht, erkennen die Programme die Gesichter dahinter etwas besser. Überraschenderweise spielt aber auch die Farbe der Maske eine Rolle: Schwarze Masken brachten die Algorithmen häufiger aus dem Konzept als blaue.

Viele Staaten setzen Gesichtserkennung ein, um Kriminelle aufzuspüren

Über die Gründe lässt sich nur spekulieren. Die meisten Gesichtserkennungsprogramme basieren auf künstlichen neuronalen Netzen, einem Teilgebiet des maschinellen Lernens. Die Kriterien, anhand derer solche Modelle entscheiden, sind mitunter kaum nachvollziehbar. Selbst führende Forscher bezeichnen die Algorithmen als «Black Boxes». Fest steht, dass nicht selten die Abstände zwischen Augen, Nase und Mund eine gewisse Rolle spielen. Das würde zumindest erklären, wieso die Software besser wird, wenn die Nase nicht von der Maske bedeckt ist.

Viele Staaten setzen Gesichtserkennung ein, um etwa in Bahnhöfen oder Flughäfen Kriminelle aufzuspüren. Auch in Deutschland gab es bereits Testläufe. Ob Masken diese Massenüberwachung dauerhaft erschweren könnten, ist aber auch nach der Studie unklar. Die Forscher um Ngan haben nur sogenanntes «One-to-one matching» (deutsch: «Vergleich mit einem») untersucht. Dabei gleicht zum Beispiel ein Handy oder Tablet ein aktuelles Bild mit den im Gerät hinterlegten Aufnahmen des Besitzers ab. Für die digitale Massenüberwachung ist dagegen das «One-to-many matching» (deutsch: «Vergleich mit vielen») relevant. Dabei werden Gesichter aus einer Menschenmenge mit Bildern in Datenbanken abgeglichen.

Die Technologie hinter beiden Anwendungen ist prinzipiell dieselbe, doch beim «One-to-many» muss die Software deutlich mehr Bilder miteinander vergleichen. Das erhöht die Schwierigkeit. Wenn Masken also schon «One-to-one»-Programme aus dem Konzept bringen, liegt die Vermutung nahe, dass sie auch «One-to-many»-Systemen Probleme bereiten werden. Ob die Masken auf Dauer die Anonymität der Träger wahren können, muss sich erst noch zeigen. Denn es geht um lernfähige Systeme. Und für die Nist-Studie wurden nur Algorithmen genutzt, die vor der Corona-Pandemie entwickelt worden waren.

14 Kommentare
    Christopher Chandiramani

    Darf man jetzt Radarbussen verweigern, wenn Gesicht maskiert und vorderes Nummernschild des Autos abgedeckt sind?