Faisant référence aux droits humains, Microsoft renonce à un contrat de reconnaissance faciale

Sécurité contre répression. Cette antinomie est au centre des enjeux émergents soulevés par les nouvelles technologies, et en particulier l’intelligence artificielle. La croissance exponentielle du volume des données collectées sur les personnes et touchant à leurs libertés individuelles suscite de nombreuses réactions, y compris de la part des salariés des entreprises impliquées (voir IE). Dans ce contexte, la société Microsoft a annoncé, le 16 avril, qu’elle avait rejeté la demande d’un organisme californien d’application de la loi, qui souhaitait installer une technologie de reconnaissance faciale à bord des véhicules des agents, ainsi que des caméras corporelles. Selon Microsoft, la mise en service de telles technologies pourrait aboutir à des interpellations disproportionnées de femmes et de personnes issues de minorités. De nombreuses recherches montrent en effet que les erreurs d’identité sont plus importantes sur ces deux segments de la population. De même, la société a indiqué qu’elle avait décliné une sollicitation visant à installer un dispositif de reconnaissance faciale sur les caméras couvrant la capitale d’un Etat considéré comme « non libre » par l’organisation Freedom House, car cela pourrait affecter la liberté de réunion dans ce pays. A l’inverse, l’entreprise a accepté de livrer un tel système à une prison américaine, dans la mesure où le périmètre sera limité et où cela renforcera la sécurité des lieux. Ni l’organisme californien, ni le pays, ni la prison concernés par ces demandes n’ont été cités par Microsoft. Comme plusieurs dirigeants d’entreprises technologiques, Brad Smith, le directeur juridique du groupe, appelle à une plus grande régulation de l’usage de l’intelligence artificielle, afin d’éviter un nivellement des pratiques par le bas. En attendant, il est ouvert à toute contribution pouvant aider Microsoft à renforcer ses engagements en matière de respect des droits humains.