Une arrestation injustifiée expose les préjugés raciaux dans la technologie de reconnaissance faciale

REVERB is a documentary series from CBSN Originals. Watch the latest episode, "A City Under Surveillance," in the video player above.Wrongful arrest exposes racial bias in facial recognition technology Wrongful arrest exposes racial bias in facial recognition technology


En juillet 2019, Michael Oliver, 26 ans, était en route pour travailler à Ferndale, Michigan, lorsqu'une voiture de flic l'a tiré.L'officier l'a informé qu'il y avait un mandat criminel pour son arrestation.

"Je pensais qu'il plaisantait parce qu'il riait", se souvient Oliver."Mais dès qu'il m'a sorti de ma voiture et m'a menotté, je savais que ce n'était pas une blague."Peu de temps après, Oliver a été transféré à la garde de la police de Détroit et accusé de vol.

Des mois plus tard, lors d'une audience préalable, il verrait enfin les preuves contre lui - un seul écran à partir d'une vidéo de l'incident, prise sur le téléphone portable de l'accusateur.Oliver, qui a un visage de forme ovale et un certain nombre de tatouages, a partagé quelques caractéristiques physiques avec la personne sur la photo.

"Il ne me ressemblait rien," dit Oliver."Il n'avait même pas de tatouages."Le juge a accepté et l'affaire a été rapidement rejetée.

C'est près d'un an plus tard qu'Oliver a appris que son arrestation injustifiée était basée sur une correspondance erronée en utilisant une technologie de reconnaissance faciale controversée.La police a pris une image immobile d'une vidéo de l'incident et l'a parcourue par un logiciel fabriqué par une entreprise appelée DataWorks Plus.Le logiciel mesure divers points sur le visage d'une personne - l'espace entre leurs yeux, la pente de son nez - pour générer une "impression de visage unique."Le service de police de Détroit vérifie ensuite un éventuel match dans une base de données de photos; le système peut accéder à des milliers de mugshots ainsi qu'à la base de données de l'État du Michigan des photos de permis de conduire.

Le visage d'Oliver est apparu comme un match, mais ce n'était pas lui, et il y avait beaucoup de preuves pour prouver que ce n'était pas.

Wrongful arrest exposes racial bias in facial recognition technology

La technologie de reconnaissance faciale est devenue monnaie courante dans notre société.Il est utilisé pour déverrouiller nos téléphones portables et améliorer la sécurité de l'aéroport.Mais beaucoup le considèrent comme une technologie erronée qui a le potentiel de nuire grave.Il identifie mal les visages noirs et bruns à des taux sensiblement plus élevés que leurs homologues blancs, dans certains cas près de 100% du temps.Et c'est particulièrement pertinent dans une ville comme Détroit, où près de 80% des résidents sont noirs.

"Je pense que la perception selon laquelle les données sont neutres nous ont causé beaucoup de problèmes", a déclaré Tawana Petty, une activiste numérique qui travaille avec le Detroit Equity Action Lab."Les algorithmes sont programmés par des hommes blancs à l'aide de données recueillies à partir des politiques racistes.C'est reproduire le biais racial qui commence par les humains et est ensuite programmé en technologie."

Petty souligne que plus d'une douzaine d'autres villes, dont San Francisco et Boston, ont interdit une telle technologie en raison de préoccupations concernant les libertés civiles et la vie privée.Elle a plaidé pour une interdiction similaire à Detroit.Au lieu de cela, la ville a voté en octobre pour renouveler le contrat avec DataWorks.

Même les partisans reconnaissent que le système a un taux d'erreur élevé.Le chef de la police de Détroit, James Craig, a déclaré en juin: "Si nous venions simplement d'utiliser la technologie en soi, pour identifier quelqu'un" - qui, selon lui."

L'affaire d'Oliver suit l'arrestation injustifiée de Robert Williams, 42 ans, qui a également été arrêté en 2019 pour un crime qu'il n'a pas commis, sur la base du même logiciel algorithmique.

Petty pense qu'avec cette technologie, les coûts humains l'emportent de loin sur les avantages."Oui, l'innovation est inévitable", a-t-elle dit."Mais ce ne serait pas la première fois que nous reprendrons quelque chose que nous réalisons n'était pas bon pour le plus grand de l'humanité."

Oliver ne s'est toujours pas remis des retombées de son arrestation injustifiée."J'ai raté le travail pour les dates d'essai.Puis j'ai perdu mon emploi."Sans revenu, il ne pouvait pas faire de loyer sur sa maison ou ses paiements de voiture, et bientôt il les a perdus aussi.Un an plus tard, il est effectivement sans abri, le canapé-surf avec des amis et la famille, et cherche désespérément un nouvel emploi.

En juillet, Oliver a déposé une plainte contre la ville de Détroit pour au moins 12 millions de dollars.Le procès accuse la police de Détroit d'utiliser "une technologie de reconnaissance faciale infructueuse en sachant que la science de la reconnaissance faciale a un taux d'erreur substantiel parmi les personnes noires et brunes de l'ethnicité, ce qui entraînerait l'arrestation injustifiée et l'incarcération de personnes dans cette démographie ethnique."

Le service de police a reconnu que l'enquêteur principal sur l'affaire n'a pas obtenu la diligence raisonnable qu'elle devrait avoir avant de procéder à l'arrestation.

"Nous avons envoyé l'image au détective.Mais à partir de là, le détective doit sortir et regarder la photo et le comparer à toute autre information ", a déclaré Andrew Rutebuka, chef de l'unité du renseignement du crime qui utilise la technologie.Les enquêteurs sont formés pour suivre les faits, comme ils le feraient dans n'importe quel autre cas, comme confirmer la localisation de la personne au moment du crime, ou égalant tout autre dossier."Le logiciel fournit juste la tête", a déclaré Rutebuka."Le détective doit faire sa position de travail et faire un suivi."

Depuis l'arrestation d'Oliver, le service de police de Détroit a révisé sa politique sur l'utilisation du logiciel de reconnaissance faciale.Maintenant, il ne peut être utilisé que dans le cas d'un crime violent.Détroit a le quatrième taux de meurtre le plus élevé du pays et que le département soutient que le programme aide à résoudre des cas qui autrement deviendront froids.

Certaines familles locales soutiennent la technologie.Marsheda Holloway attribue au système d'aider à démêler le meurtre de son cousin de 29 ans Denzel en retraçant où il est allé et avec qui il était avant d'être tué.

"Je ne veux jamais qu'une autre famille passe par ce que moi et ma famille avons vécu", a-t-elle dit."Si la reconnaissance faciale peut vous aider, nous en avons tous besoin.Tout le monde a besoin de quelque chose."

Mais Michael Oliver n'est pas sûr que le logiciel en vaut la peine."J'avais l'habitude de prendre soin de ma famille", a-t-il dit."Je veux de retour ma vieille vie."

Les défenseurs pensent qu'il existe des dizaines de cas similaires d'arrestations injustifiées, mais ils sont difficiles à identifier parce que le service de police n'est pas tenu de partager lorsque des matchs ont été effectués à l'aide d'un logiciel de reconnaissance faciale.

"J'espère que je gagne mon cas", a déclaré Oliver."Je ne veux pas que quelqu'un d'autre passe par ça."

Download our Free App

For Breaking News & Analysis Download the Free CBS News app

Articles populaires