Studie: Gesichtserkennung ist meistens rassistisch
Bei Asiaten und Afroamerikanern ist die Fehlerkennungsrate laut einer aktuellen Studie teils 100 Mal höher.
Gaithersburg – Die meisten Algorithmen zur Gesichtserkennung haben einen Rassen-Bias. Das hat eine Untersuchung des National Institute of Standards and Technology (NIST) ergeben. Bei Asiaten und Afroamerikanern ist die Fehlerkennunsrate demnach teils 100 Mal höher. Das NIST-Team hat 189 Algorithmen zur Gesichtserkennung von 99 Herstellern untersucht. Dabei haben sie sich mit den beiden gängigsten Aufgaben befasst. Dies sind der Vergleich eines Gesichts mit einem Foto, beispielsweise zum Entsperren des Handys und die Suche nach einem Gesicht in einer Datenbank.
Beim Vergleich eines Gesichts mit einem Einzelfoto liegt die Rate der Fehlerkennungen oft zehn bis 100 Mal höher, wenn das Gesicht eines Asiaten oder ein Afroamerikaners betrachtet wird, im Gegensatz zu Kaukasiern. Gerade in den USA entwickelte Algorithmen arbeiten laut der Studie oft bei allen Minderheiten ähnlich schlecht. In Asien entwickelte Algorithmen dagegen kommen mit Asiaten und Kaukasiern ähnlich gut klar. Zwar betont NIST-Informatiker und Erstautor Patrick Grother, dass die Untersuchung den Grund dafür nicht tatsächlich untersucht hat. Allerdings scheint wahrscheinlich, dass asiatische Algorithmen mehr Asiaten im Trainingsdatensatz haben, diversere Trainingsdaten also einen Vorteil bringen.
In einem ihrer Tests haben die Forscher mit den Algorithmen Gesichter in einer FBI-Datenbank mit 1,6 Mio. Vebrecherfotos gesucht. Dabei hat sich gezeigt, dass es besonders bei Afroamerikanerinnen zu einer erhöhten Zahl an Fehlerkennungen kommt. Solche „False Positives“ können sehr problematisch sein. (pte)