Avec l’arrivée de Donald Trump à la Maison-Blanche, la libération de la parole s’est accélérée et les courants de pensée visant à brider les propos prônant la haine et toutes les formes de discrimination ne sont plus les bienvenus. Dès le 7 janvier 2025, Mark Zuckerberg, le patron de Meta, a annoncé que sa société avait abandonné son programme de vérification des faits aux États-Unis (fact-checking program). Pour l’homme d’affaires, il était temps « de revenir à nos racines autour de la liberté d’expression ». Cette tendance n’est pas sans conséquence sur la prolifération de messages haineux et de pratiques pernicieuses.
En principe, cette approche ne prévaut qu’aux États-Unis. Mais, le 28 mai, le secrétaire d’État américain Marco Rubio a déjà prévenu que des restrictions de visas seront prononcées contre les fonctionnaires étrangers impliqués dans la censure des citoyens américains. Cela n’a cependant pas empêché la Cour suprême du Brésil d’approuver, le 27 juin 2025, par 8 voix contre 3, une décision rendant les médias sociaux responsables de ce que publient leurs utilisateurs. La Cour n’a pas établi de règles strictes sur la nature des contenus illégaux, laissant la décision au cas par cas.
Sans surprise, aux États-Unis, des critiques ont exprimé leur inquiétude quant à une possible menace pour la liberté d’expression si les plates-formes supprimaient préventivement des contenus potentiellement problématiques.
La haute cour brésilienne ordonne donc aux géants de la technologie de vérifier de manière active les contenus comportant des discours de haine, des propos racistes ou des incitations à la violence, et d’intervenir pour les supprimer. Dans quelques semaines, lorsque la loi sera entrée en vigueur, chacun pourra poursuivre les réseaux sociaux qui auront refusé de supprimer des contenus illégaux à la suite d’un signalement par une victime. Cette décision renforce une loi, souvent non appliquée, qui oblige les entreprises à supprimer un contenu, mais uniquement après une décision de justice. Les sociétés de médias sociaux ne seront toutefois pas responsables si elles peuvent prouver qu’elles ont pris des mesures pour supprimer le contenu illégal en temps opportun.
