Interrogations sur l’indépendance de la recherche sur l’éthique de l’intelligence artificielle

Le 14 décembre, l’Agence des droits fondamentaux de l’Union européenne, qui est installée à Vienne, a publié un rapport dans lequel elle fait une mise en garde contre les risques liés à l’utilisation de l’intelligence artificielle (IA) dans certains secteurs comme la police prédictive, les diagnostics médicaux et la publicité ciblée. En effet, les groupes de défense des droits affirment que cette technologie est utilisée de manière abusive par les régimes autoritaires pour se livrer à une surveillance de masse et discriminatoire, et ils s’inquiètent des violations des droits fondamentaux des personnes et des règles de confidentialité des données. C’est pourquoi l’Agence exhorte les décideurs politiques à mieux expliquer comment les règles existantes s’appliquent à l’IA. Ils souhaitent aussi que les futures lois sur l’IA protègent les droits fondamentaux, permettent aux personnes de contester les résultats issus des mécanismes intégrant l’IA et exigent des entreprises qu’elles soient en mesure d’expliquer comment leurs algorithmes parviennent à leurs conclusions. Le rapport précise aussi qu’il faudrait davantage développer la recherche sur les effets potentiellement discriminatoires de l’IA.

Parallèlement, de l’autre côté de l’Atlantique, plus de 2 200 employés de Google et environ 3 000 universitaires, chefs d’entreprise et militants du monde des technologies ont signé le 9 décembre une lettre ouverte pour protester contre le licenciement par Google, le 2 décembre dernier, de madame Timnit Gebru qui codirigeait l’équipe de la société sur l’éthique de l’intelligence artificielle. De son côté, l’entreprise parle de démission, ce que dément Timnit Gebru. Cette dernière est connue pour avoir co-écrit un article en 2018 dans lequel elle révélait que la technologie d’analyse faciale produisait des taux d’erreur plus élevés envers les femmes à peau foncée. Elle a également cofondé l’organisation à but non lucratif Black in AI dont le but est d’accroître la présence des personnes noires dans le domaine de l’IA. Elle est considérée par ses pairs comme une ardente défenseure des femmes noires dans le domaine des technologies, poussant ainsi des entreprises comme Google à renforcer leur engagement en faveur de la diversité et de l’inclusion.

Son départ est lié à un différend avec sa hiérarchie au sujet d’un article scientifique qu’elle a co-écrit sur les problèmes liés aux modèles de langage de l’IA, y compris les préjugés structurels à l’égard des femmes et des personnes appartenant à des minorités ethniques. L’article prétend que les entreprises technologiques pourraient faire davantage pour s’assurer que les systèmes d’IA n’attisent pas les préjugés historiques entre les sexes ni l’utilisation d’un langage offensant. Jeff Dean, chef de l’unité IA de Google, a déclaré que le « départ » de Timnit Gebru avait suivi une discussion au cours de laquelle il lui avait été signifié qu’elle n’avait pas respecté les protocoles appropriés à la publication de son article, et à la suite de laquelle elle avait rejeté la demande de l’entreprise de ne pas faire paraître cet article. Le document de recherche n’est toujours pas publié. L’incident a soulevé de nombreuses questions dans le monde des entreprises technologiques à propos du niveau d’engagement de Google en faveur d’une recherche indépendante sur l’IA éthique et pourrait inciter les candidats à un poste dans le domaine de l’IA dans cette entreprise à réfléchir à deux fois avant de s’engager.