Selbst wenn Sie Geschlecht entdecken, funktioniert die aktuelle Gesichtserkennung Tech besser für weiße Dudes

Sidney Fussell 07/12/2018. 12 comments
Face Recognition AI/Ethics

Eine neue Überprüfung der Gesichtserkennungssoftware ergab, dass die Software bei der Geschlechtsbestimmung für Männer mit heller Haut am genauesten und für Frauen mit dunkler Haut am wenigsten genau ist. Joy Buolamwini, eine MIT Media Lab-Forscherin und Informatikerin, testete drei kommerzielle Gender-Klassifikatoren, die im Rahmen von Gesichtserkennungsdiensten angeboten werden. Wie sie herausgefunden hat, hat die Software das Geschlecht von dunkelhäutigen Frauen in 35 Prozent der Fälle falsch identifiziert. Im Gegensatz dazu betrug die Fehlerrate bei hellhäutigen Männern weniger als ein Prozent.

"Insgesamt wurden männliche Probanden genauer klassifiziert als weibliche Probanden, die frühere Befunde wiederholten (Ngan et al., 2015), und leichtere Probanden wurden genauer klassifiziert als dunklere Individuen", schreiben Buolamwini und Co-Autor Timnit Gebru in der Zeitung . "Eine intersektionale Aufschlüsselung zeigt, dass alle Klassifikatoren bei dunkleren weiblichen Probanden am schlechtesten abschnitten."

Die Ergebnisse spiegeln frühere Erkenntnisse über das Versagen von Gesichtserkennungssoftware bei der Identifizierung von Frauen und Personen mit dunklerer Haut wieder. Wie vom Centre for Privacy and Technology der Georgetown University festgestellt wurde, könnten diese geschlechts- und rassistischen Disparitäten im Zusammenhang mit Flughafen-Gesichts-Scans Frauen und Minderheiten werden eher für invasivere Verfahren wie manuelle Fingerabdrücke ins Visier genommen.

Alle Gesichtserkennungssoftware wird trainiert, indem Tausende von Bildern in einem Datensatz gescannt werden, wodurch die Fähigkeit verbessert wird, wertvolle Datenpunkte zu extrahieren und zu ignorieren, was nicht nützlich ist. Wie Buolamwini bemerkt, sind viele dieser Datensätze selbst verzerrt. Bei Adience, einem Maßstab für die Geschlechtseinstufung, werden 86 Prozent hellhäutige Personen verwendet. Ein anderer Datensatz, IJB-A, verwendet Themen, die zu 79 Prozent hellhäutig sind.

Neben anderen Problemen mit verzerrten Datasets erlauben sie Unternehmen, ihre Gesichtserkennungssoftware "genau" zu nennen, obwohl sie nur für Personen ähnlich sind, die denen im Datensatz ähnlich sind: meist Männer, meist leichter. Dunklere Frauen waren in diesen Datensätzen am wenigsten vertreten. 7,4 Prozent des Adiance-Datensatzes waren dunkelhäutige Frauen, während IJB-A 4,4 Prozent war. Dies wird zu einem Problem, wenn sich Unternehmen darauf verlassen.

Buolamwini testete drei kommerzielle Software APIs: Microsofts Cognitive Services Face API, Watson Visual Recognition API von IBM und Face ++, ein chinesisches Computer Vision Unternehmen, das Tech für Lenovo zur Verfügung stellt. Buolamwini testete, ob jeder das Geschlecht der Person in jedem Foto zuverlässig klassifizieren könnte.

Wie sie feststellte, schnitten alle Klassifikatoren auf männlichen Gesichtern besser ab als auf weiblichen Gesichtern, und alle Klassifikatoren waren bei der Bestimmung des Geschlechts von dunkelhäutigen Frauen am wenigsten genau. Face ++ und IBM hatten bei dunkelhäutigen Frauen eine Klassifikationsfehlerrate von 34,5 bzw. 34,7 Prozent. Beide hatten hellhäutige männliche Fehlerraten von weniger als einem Prozent. Die dunkelhäutige Fehlerquote von Microsoft betrug 20,8 Prozent und für hellhäutige Männer praktisch null.

Buolamwini hofft auf Gleichheit bei der Genauigkeit der Gesichtserkennung, insbesondere da die Gesichtserkennungssoftware in der Strafverfolgung und Terrorismusbekämpfung standardisiert ist. Passagiere werden in Flughäfen gescannt, Zuschauer werden in Arenen gescannt, und im Zeitalter des iPhone X könnte bald jeder mit seinem Handy gescannt werden. Buolamwini zitiert die Georgetown-Studie Als Warnung, dass die Gesichtserkennung in Flughäfen zum Standard wird und diejenigen, die den Test "nicht bestehen", eine zusätzliche Prüfung erhalten, könnte sich eine potenzielle Rückkopplungsschleife entwickeln. In dem Papier hofft sie, dass das Feld noch mehr intersektionale Audits umfassen wird, die überproportionale Auswirkungen haben, insbesondere wenn die KI bereit ist, ein zentraler Teil unserer Gesellschaft zu werden.

[ NYT ]

HighResolutionMusic.com - Download Hi-Res Songs

12 Comments

cj01
yaboihotkarl
smmy15643
Nick
RumpleDickSkin

Suggested posts

Other Sidney Fussell's posts

Language