Le 13 janvier 2022, la société Meta Platforms, propriétaire du réseau social Facebook, a indiqué qu’elle allait étudier la faisabilité de commanditer une évaluation indépendante quant à l’impact de son activité sur les droits humains en Éthiopie. Des milliers de personnes ont perdu la vie, et des millions d’autres ont été déplacées au cours du conflit qui, depuis un an, oppose le gouvernement éthiopien et les forces rebelles de la région du Tigré. Cette décision répond à une recommandation de son comité de surveillance à la suite d’un message posté sur le réseau et mentionnant l’implication de civils de l’ethnie tigréenne dans des atrocités commises dans la région éthiopienne d’Amhara.
Le message a d’abord été supprimé, puis restauré, puis retiré à nouveau. Meta était en désaccord avec le raisonnement de son comité selon lequel le message devait être enlevé, car il s’agissait d’une « rumeur non vérifiée » qui augmentait considérablement le risque de violence imminente. Pour le groupe, ce raisonnement imposerait « une norme de publication journalistique aux utilisateurs ». Un porte-parole du comité a déclaré dans un communiqué que « les politiques de Meta interdisent les rumeurs qui contribuent à une violence imminente et qui ne peuvent pas être démystifiées dans un délai significatif, et le comité a fait des recommandations pour garantir que ces politiques soient effectivement appliquées dans les situations de conflit ». Le comité a donc recommandé que Meta commande une évaluation de diligence raisonnable en matière de droits humains qui devra être bouclée dans six mois. Cette analyse devra inclure un examen des capacités linguistiques de Meta en Éthiopie et des mesures prises pour empêcher l’utilisation abusive de ses services dans le pays.
Cependant, la société a déclaré que tous les aspects de cette recommandation « ne sont peut-être pas réalisables en matière de calendrier, de science des données ou d’approche », et qu’elle indiquera si elle peut donner suite à la recommandation du comité dans les prochains mois. Le groupe Meta est minutieusement observé par les législateurs et les régulateurs au sujet de la sécurité des utilisateurs et de sa gestion des abus sur ses plates-formes à travers le monde. C’est notamment le cas depuis que la lanceuse d’alerte Frances Haugen a divulgué des documents internes qui montraient les difficultés de l’entreprise à contrôler les contenus publiés sur ses réseaux. Le 6 décembre 2021, deux cabinets d’avocats ont déposé une plainte en recours collectif au nom de réfugiés Rohingyas contre la société Meta Platforms, Inc. auprès d’un tribunal étatsunien. Ils reprochent au groupe de ne pas avoir pris de mesures contre les discours de haine anti-Rohingyas qui ont contribué à la violence contre cette population (IE n° 357).