zurück zum Artikel

Gesichtserkennung: Algorithmus fĂŒhrt zur Verhaftung eines Unschuldigen

Stefan Krempl
Roboter, Gesicht, KĂŒnstliche Intelligenz KI

(Bild: Neosiam32896395/Shutterstock.com)

Erstmals ist in den USA ein Fall bekannt geworden, in dem eine Fehlidentifikation per Gesichtserkennung einen Afroamerikaner in Polizeigewahrsam brachte.

Im Januar ließen zwei Polizisten bei Robert Julian-Borchak Williams vor seinem Haus in einem Vorort der Stadt Farmington Hills in Michigan die Handschellen klicken. Sie zeigten nur einen "Haftbefehl fĂŒr Straftaten" mit dem Hinweis "Diebstahl" vor. Über Nacht musste der Beschuldigte in einer Zelle verbringen, den nĂ€chsten Tag wurde er verhört und konnte erst 30 Stunden nach seiner Verhaftung nach Zahlen einer Kaution wieder zurĂŒck zu seiner Familie.

Der Fall, den die New York Times aufbereitet hat, ist der erste in den USA dokumentierte, in dem ein fehlerhaftes System zur automatisierten Gesichtserkennung wesentlich dazu beitrug, einen Mann kurzzeitig hinter Gitter zu bringen. Williams wurde diese Tatsache erst nach und nach bewusst.

Bei dem Verhör fragten ihn die Ermittler zunĂ€chst nur, wann er zuletzt im LuxusgĂŒterladen Shinola in Detroit gewesen sei. SpĂ€ter zeigten sie ihm Bilder aus einer Überwachungskamera mit einem ebenfalls stark gebauten, schwarzen Mann mit einer BaseballmĂŒtze, der fĂŒnf Uhren im Wert von 3800 US-Dollar gestohlen haben soll.

Der vernommene Afroamerikaner hielt dem Bericht nach [1] eine der Aufnahmen vor sein Gesicht und betonte: "Das bin ich nicht." Zugleich fragte er die Strafverfolger, ob diese dĂ€chten, dass alle schwarzen MĂ€nner gleich aussĂ€hen. Er war sich zwar sicher, dass er das Verbrechen nicht ausgefĂŒhrt hatte. SpĂ€ter fiel ihm auch ein, dass er zur Tatzeit im Oktober 2018 im Auto nach Hause gefahren war und einen Social-Media-Beitrag zu einem dabei gehörten Lied abgesetzt hatte. Die Beweislage sprach aber zunĂ€chst gegen ihn aufgrund der in die Irre gegangenen Gesichtserkennung.

Den Stein ins Rollen gebracht hatte eine Analystin der auf die PrĂ€vention von Diebstahlverlust spezialisierten Firma Mackinac Partners, die einige Monate nach dem Raub eine Kopie des Videos aus der Überwachungskamera an die Michigan State Police schickte. Im MĂ€rz 2019 lud man ein Testfoto aus dem Material in die Gesichtserkennungsdatenbank des US-Bundesstaates hoch und glich es mit der darin befindlichen Sammlung von 49 Millionen Lichtbildern ab. Das System spuckte unter anderem das Foto aus dem FĂŒhrerschein Williams' als Treffer zusammen mit einem ZuverlĂ€ssigkeits-Score aus.

Die bei der Polizei in Michigan eingesetzte, 5,5 Millionen US-Dollar teure Technik arbeitet allerdings alles andere als fehlerfrei. Geliefert wird sie von der US-Firma DataWorks Plus, die 2005 erstmals mit einem Algorithmus zur Gesichtserkennung experimentierte, den ein Zulieferer entwickelt hatte.

"Wir haben ziemlich viel MĂŒll ausprobiert", erinnert sich Unternehmenschef Todd Pastorini. DataWorks habe sich nach und nach zu einem "Pseudo-Experten" bei den biometrischen Verfahren entwickelt, die Treffergenauigkeit oder integrierte Vorurteile aber nie "wissenschaftlich" geprĂŒft.

Das in Michigan genutzte System arbeitet mit Komponenten des japanischen AusrĂŒsters NEC und der US-Firma Rank One Computing, die Strafverfolger – im Gegensatz zu großen US-Techkonzernen [2] – weiter mit der Technik beliefern. Deren einschlĂ€gige Software gehört zu einer Reihe von Programmen, die laut einer Studie des MIT Schwarze unverhĂ€ltnismĂ€ĂŸig oft falsch identifizieren und von Vorurteilen geprĂ€gt sind [3]. Auch eine Analyse entsprechender Algorithmen durch das National Institute of Standards and Technology (NIST) kam 2019 zu einem vergleichbaren Ergebnis [4].

Die Polizei in Detroit erhielt das Foto des falsch identifizierten VerdĂ€chtigen von der ĂŒbergeordneten Behörde zwar mit dem Hinweis, dass es sich um einen Untersuchungsbericht handle, der "keine positive Erkennung" und allein keinen hinreichenden Grund fĂŒr eine Verhaftung biete. Die Ermittler suchten aber nicht nach weiteren Beweisen, sondern schickten das Foto nur zusammen mit fĂŒnf anderen an die zustĂ€ndige Person bei Mackinac Partners, die Williams als potenziellen TĂ€ter ausmachte.

Erst bei dessen Verhör mussten auch die OrdnungshĂŒter bei einem eigenen Bildervergleich einrĂ€umen, dass "der Computer sich offenbar geirrt hat". Der Fall landete trotzdem noch vor Gericht, wo der Angeklagte Rechtsbeistand von der American Civil Liberties Union (ACLU) erhielt.

Ein Anwalt der US-BĂŒrgerrechtsorganisation betonte, dass man schon lange vor biometrischer Gesichtserkennung warne [5], da die Technik die PrivatsphĂ€re gefĂ€hrde, "wenn sie funktioniert", und andernfalls eine "rassistische Bedrohung fĂŒr alle" bilde. Die Staatsanwaltschaft zeigte sich vor Gericht zunĂ€chst nur bereit, die Sache "unbeschadet anderer Vorschriften" und weiterer Erkenntnisse aus anderen technischen Erkennungsverfahren vorlĂ€ufig einzustellen.

Erst nach dem Zeitungsbericht sandte die Staatsanwaltschaft eine Entschuldigung [6] und erklĂ€rte, denn Fall geschlossen und auch die FingerabdrĂŒcke des Beklagten gelöscht zu haben. Dies sei freilich keine angemessene Wiedergutmachung fĂŒr die Zeit, die Williams im GefĂ€ngnis habe verbringen mĂŒssen.

Melden Sie sich zum KI-Update an Melden Sie sich zum KI-Update an [7]

(kbe [8])


URL dieses Artikels:
https://www.heise.de/-4795970

Links in diesem Artikel:
[1] https://www.nytimes.com/2020/06/24/technology/facial-recognition-arrest.html
[2] https://www.heise.de/news/Microsoft-will-Polizei-vorerst-keine-Gesichtserkennungstechnik-anbieten-4782280.html
[3] https://www.heise.de/news/Gesichtserkennung-funktioniert-am-besten-bei-weissen-Maennern-3965561.html
[4] https://www.nytimes.com/2019/12/19/technology/facial-recognition-bias.html
[5] https://www.heise.de/news/Kameras-und-KI-US-Buergerrechtler-warnen-vor-Rundum-Ueberwachung-4448769.html
[6] https://int.nyt.com/data/documenthelper/7046-facial-recognition-arrest/5a6d6d0047295fad363b/optimized/full.pdf#page=1
[7] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[8] mailto:kbe@heise.de