Microsoft "verbessert" rassistische Gesichtserkennungssoftware

Patrick Lucas Austin 06/27/2018. 1 comments
Microsoft AI Facial Recognition

In einem selbstgefälligen Schritt kündigte Microsoft heute einige wesentliche Verbesserungen an grundlegend verzerrte Gesichtserkennungssoftware . Die Azure-basierte Face-API wurde Anfang dieses Jahres in einer Forschungsarbeit wegen ihrer Fehlerquote von bis zu 20,8 Prozent kritisiert, als sie versuchte, das Geschlecht von Farbigen zu identifizieren, insbesondere Frauen mit dunkleren Hauttönen. Im Gegensatz dazu konnte die KI von Microsoft das Geschlecht von Fotos von "leichteren männlichen Gesichtern" mit einer Fehlerrate von null Prozent identifizieren, so die Studie.

Wie andere Unternehmen, die Gesichtserkennungstechnologie entwickelten, hatte Microsoft nicht genug Bilder von schwarzen und braunen Menschen, und es zeigte sich in seinen Erkennungstestergebnissen. Microsofts Blogpost stellt heute die Daten, die beim Erstellen der Gesichtserkennungssoftware verwendet wurden, in den Vordergrund und erklärt, dass solche Technologien "nur so gut sind wie die Daten, um sie zu trainieren". Angesichts der misslichen Lage war die offensichtlichste Lösung ein neuer Datensatz enthält mehr Bilder von braunen Menschen, die Microsoft benutzt hat.

"Das API-Team von Face hat drei wichtige Änderungen vorgenommen. Sie erweiterten und überarbeiteten Trainings- und Benchmark-Datensätze, starteten neue Datenerfassungsanstrengungen zur weiteren Verbesserung der Trainingsdaten, indem sie sich speziell auf Hautfarbe, Geschlecht und Alter konzentrierten, und verbesserten den Klassifikator, um höhere Präzisionsergebnisse zu erzielen. "Mit den neuesten Verbesserungen Englisch: bio-pro.de/en/region/stern/magazin/...1/index.html Die Fehlerquote bei Männern und Frauen mit dunkler Hautfarbe konnte bis zu 20 Mal reduziert werden. Für alle Frauen sagte das Unternehmen, dass die Fehlerraten um das Neunfache reduziert wurden.

Ein kurzer Blick auf die Face-API-Seite von Microsoft gibt Ihnen einen Hinweis darauf, warum die Erkennungssoftware von Microsoft möglicherweise nicht so gut darin ist, dunklere Gesichter zu erkennen:

In ihrem Blog-Beitrag ging Microsoft-Seniorforscherin Hanna Wallach auf ein größeres Versagen der Branche ein und wies darauf hin, dass Daten, die von einer voreingenommenen Gesellschaft erzeugt werden, zu verzerrten Ergebnissen führen würden, wenn es um maschinelles Lernen geht. "Wir hatten Gespräche über verschiedene Möglichkeiten, Voreingenommenheit zu erkennen und Fairness zu operationalisieren", sagte Wallach. "Wir haben über Datenerhebungsbemühungen zur Diversifizierung der Trainingsdaten gesprochen. Wir haben über verschiedene Strategien gesprochen, um unsere Systeme intern zu testen, bevor wir sie einsetzen. "

Der Fehler hier war nie nur, dass der Tech für jemanden, der nicht weiß und männlich war, nicht richtig funktionierte. Ebenso enden die Probleme nicht damit, dass Microsoft wirklich gut darin ist, schwarze und braune Menschen zu identifizieren und zu verstaatlichen.

Im Januar erklärte Microsoft, dass ICE sein würde mit seinem Azure Government Cloud-Dienst zum Teil, um "Daten auf Edge-Geräten zu verarbeiten oder Deep-Learning-Fähigkeiten zu nutzen, um die Gesichtserkennung und -identifikation zu beschleunigen." Die Ankündigung hat bisher dazu geführt, dass Mitarbeiter das Unternehmen gefragt haben seinen Vertrag kündigen mit der Regierungsbehörde.

Selbst wenn die Technologie zur Gesichtserkennung weniger voreingenommen ist, kann sie immer noch gegen farbige Personen eingesetzt werden. Am Montag schrieb der CEO des Gesichtserkennungs-Startups Kairos, Brian Brackeen, einen Kommentar wie gefährlich Die Technologie kann in den Händen von Regierung und Polizei liegen.

HighResolutionMusic.com - Download Hi-Res Songs

1 Comments

UrbanAmazon

Suggested posts

Other Patrick Lucas Austin's posts

Language