Les logiciels combinant l’intelligence artificielle et la reconnaissance faciale suscitent, depuis quelque temps, une importante polémique, surtout lorsqu’ils sont destinés aux forces de police. Les opposants à ces technologies affirment, preuves à l’appui, que leur utilisation aboutit à de sérieux biais, notamment lorsque ces logiciels sont appliqués aux populations noires, asiatiques ou aux femmes (voir IE). Ces soupçons de « partialité » ont d’ailleurs conduit le New Hampshire et la Californie, ainsi que plusieurs villes des Etats-Unis, à en interdire l’emploi par les forces de police (IE n° 306). Le mouvement mondial de révolte contre le racisme, déclenché par la mort de George Floyd le 25 mai dernier, a accentué le phénomène de rejet de ces technologies. Les entreprises qui les proposent prennent elles-mêmes leurs distances vis-à-vis de ces outils. Le 8 juin, la société IBM a déclaré qu’elle ne vendrait, ne développerait et n’engagerait plus de recherche sur les systèmes de reconnaissance faciale dans un futur proche. Le 10 juin, Amazon a annoncé un moratoire d’un an sur l’utilisation par la police de son très controversé dispositif Rekognition (voir IE). Et le 11 juin, le groupe Microsoft a, à son tour, assuré qu’il ne vendrait pas de technologie de reconnaissance faciale aux services de police des Etats-Unis tant qu’il n’y aurait pas de loi fédérale, fondée sur les droits humains, pour encadrer cette technologie.