Meta a décidé d’utiliser les grands moyens pour contrer les réglementations qui entraveraient le développement de l’intelligence artificielle

L’intelligence artificielle est l’un des nouveaux espaces qui s’ouvre à la responsabilité sociétale des entreprises (RSE). Nous sommes nombreux à y être confrontés et à nous rendre compte de la puissance de cette technologie et de la rapidité de son évolution. L’IA soulève un grand nombre d’enjeux et, parmi ceux-ci, le respect des droits et des libertés sous de multiples formes. En juillet 2024, l’Europe s’est dotée d’un règlement pour encadrer les activités liées à l’IA (Artificial Intelligence Act).

Un calendrier a été fixé. Les pratiques inacceptables (notation sociale, techniques de manipulation cognitive exploitant la vulnérabilité des individus, etc.) ont été interdites dès février 2025. Depuis le 2 août 2025, les fournisseurs de modèles d’IA à usage général (GPAI) doivent répondre à de nouvelles règles lorsqu’ils commercialisent leurs technologies au sein de l’Union. La Commission a également publié un premier code de conduite non contraignant pour encadrer les modèles d’IA à usage général.

En juillet dernier, Meta a déclaré qu’elle refusait de signer ce code, qu’elle considère aller « bien au-delà du champ d’application de l’AI Act ». La société a aussi décidé de déployer d’importants moyens aux États-Unis pour lutter contre les réglementations qui, selon elle, entravent l’innovation et le potentiel de cette technologie. Elle a ainsi lancé le 23 septembre 2025 un super comité d’action politique (PAC), baptisé American Technology Excellence Project (ATEP), pour soutenir aux élections des États fédérés les candidats qui partagent ses convictions sur la surveillance de l’IA. L’ATEP pourra collecter des fonds illimités auprès d’entreprises, d’associations et de particuliers pour mener à bien sa mission.