La conquête de nos vies professionnelle et privée par l’intelligence artificielle entraîne ou consolide de nouvelles préoccupations en matière de responsabilité des entreprises. À ce titre, le 31 mars 2026, la Thomson Reuters Foundation et l’Unesco ont publié un rapport sur l’IA responsable en pratique. Pour réaliser cette étude, les organisations se sont appuyées sur le plus grand ensemble de données au monde concernant l’adoption de l’IA en entreprise (100 000 données, 2 972 entreprises, 11 secteurs d’activité, 6 zones géographiques).
L’étude met notamment en évidence que 86 % des entreprises n’ont pas su démontrer le fait d’avoir mis en place une politique visant à protéger leurs employés contre les potentielles retombées négatives de l’IA. Seulement 31 % d’entre elles possèdent une équipe ou des ressources consacrées à la gouvernance de l’IA, et uniquement 13 % ont une politique assurant une supervision humaine des systèmes d’IA. Par ailleurs, seules 2,3 % des sociétés disposent d’un mécanisme de traitement des plaintes alloué aux problèmes liés à l’IA. De plus, à peine 7 % des interrogées déclarent réaliser des évaluations d’impact sur les droits humains en lien avec l’IA, et 5 % mènent des évaluations d’impact éthique.
Ces conclusions recoupent les constats faits par le Forum pour l’investissement responsable (FIR) à l’occasion de sa campagne de questions écrites aux entreprises du CAC40 en 2025. Cette faible adaptation est inquiétante dans un contexte où la rapide évolution de l’IA demanderait davantage de réactivité.
