L’encadrement de l’usage de l’intelligence artificielle, nouvel enjeu pour la défense des libertés

La Commission européenne a dévoilé le 21 avril sa proposition de règlement sur l’intelligence artificielle (IA). Ce règlement s’adressera à tout acteur public ou privé situé à l’intérieur ou à l’extérieur de l’UE et dont les activités auront une incidence sur les personnes au sein du territoire de l’Union. Les utilisations privées non professionnelles ne seront pas concernées. Plusieurs technologies seront interdites, comme celles qui visent à manipuler le comportement des personnes en vue de leur causer un préjudice, celles qui ont pour but de noter les individus sur la base de leur comportement social, qui sont susceptibles de générer des situations discriminatoires ou d’utiliser la reconnaissance faciale en temps réel dans les espaces accessibles au public à des fins de maintien de l’ordre (sauf cas particuliers)… Des obligations seront imposées aux acteurs selon le niveau de risque dans lequel seront mises en œuvre ces technologies. Des amendes sont prévues et peuvent aller jusqu’à 30 millions d’euros ou 6 % du chiffre d’affaires annuel mondial dans les cas d’utilisation d’algorithmes interdits.

Le projet doit encore être approuvé par le Conseil et le Parlement européens. Plusieurs eurodéputés ont cependant rédigé une lettre ouverte dans laquelle ils déclarent que le projet de loi devrait interdire que l’IA puisse déterminer le genre et l’orientation sexuelle des personnes. Ils font, par exemple, référence à un projet mené par des chercheurs de l’université de Stanford qui ont indiqué, en 2017, que leur système d’IA identifiait les hommes homosexuels dans 83 % des cas. D’autres applications sont contestées. En 2020, l’ONG Access Now s’est ainsi élevée contre un système de publicité dans la ville brésilienne de São Paulo, qui se servait de la reconnaissance faciale pour afficher des publicités différentes aux personnes qui passaient devant en fonction de leur sexe. Pour les signataires de la lettre, les systèmes d’IA qui catégorisent automatiquement la population en deux sexes renforcent les stéréotypes de genre. Ces exemples mettent aussi en évidence les nouvelles responsabilités qui s’imposent à toutes les entreprises en matière de RSE, car les utilisateurs de technologies controversées sont susceptibles de conférer à ces dernières une légitimité marchande pernicieuse pour la société.