La reconnaissance faciale introduit bel et bien un biais selon les groupes démographiques

Outils assurant notre sécurité et/ou restreignant nos libertés individuelles, les nouvelles technologies sont désormais au centre de la responsabilité d’un nombre de plus en plus important d’entreprises. Les procédés faisant appel à l’intelligence artificielle sont particulièrement sensibles. En août 2019, une association américaine de défense des libertés civiles (ACLU) avait montré les approximations de cette technologie dans la reconnaissance des personnes de couleur et des femmes (IE n° 306). Cette fois, c’est une agence officielle américaine qui aboutit à des conclusions similaires dans une étude publiée le 19 décembre. Le NIST (National Institute of Standards and Technology), agence du Department of Commerce, a évalué 189 algorithmes commercialisés par 99 développeurs et utilisé 4 collections de photographies contenant 18,27 millions d’images représentant 8,49 millions de personnes. Les bases de données contenaient des informations sur l’âge, le sexe, l’origine ethnique ou le pays de naissance des personnes. Le rapport souligne notamment que les personnes noires ou asiatiques sont jusqu’à cent fois plus susceptibles d’être mal identifiées que les personnes blanches. Il relève également que les taux de « faux positifs » (reconnaissance à tort d’un individu) étaient deux à cinq fois plus importants pour les femmes que pour les hommes selon les programmes utilisés.

En dépit de ces résultats qui contredisent l’optimisme de certains développeurs, la reconnaissance faciale séduit de plus en plus les autorités et certaines entreprises à travers le monde. En Chine, la surveillance est déjà très largement répandue. En Inde, le 22 décembre, la police de Delhi a utilisé pour la première fois un logiciel de reconnaissance faciale pour filtrer la foule lors d’un rassemblement politique du Premier ministre, Narendra Modi. Les associations considèrent que cela porte directement atteinte aux droits des Indiens de se réunir et craignent une collecte indue de données personnelles. De son côté, la police du district de Séoul a récemment annoncé qu’elle allait doter d’intelligence artificielle quelque 3 000 caméras de surveillance d’ici à juillet 2020 pour détecter les criminels potentiels. Ces caméras pourront, par exemple, déterminer si une personne en suit une autre ou si elle porte sur elle un objet pouvant être considéré comme dangereux.