Comme la plupart des réseaux sociaux, Facebook (dont la maison mère a été récemment renommée Meta) est régulièrement accusé de laisser prospérer les messages de haine sur ses plates-formes. En décembre 2021, une plainte en recours collectif a été déposée au nom de réfugiés Rohingyas contre la société Meta Platforms, Inc. pour ne pas avoir pris de mesures contre les discours de haine anti-Rohingyas qui ont contribué à la violence contre cette population (IE n° 357). En janvier 2022, la firme a finalement accepté de suivre la recommandation de son comité de surveillance et d’examiner la faisabilité de commanditer une évaluation indépendante quant à l’impact de son activité sur les droits humains en Éthiopie, en proie à des exactions dans la région du Tigré (IE n° 359).
Les échanges et débats sur la teneur des messages font ressortir une certaine résistance du groupe à mettre en œuvre les moyens nécessaires pour « filtrer » les contenus sur ses plates-formes. Les défenseurs des droits humains indiens et les journaux affirment que les utilisateurs en Inde sont inondés de fausses nouvelles, de discours de haine, de messages antimusulmans et de bots interférant avec les élections. En 2020, Meta a chargé le cabinet d’avocats Foley Hoag de réaliser un examen indépendant de son impact en Inde, le plus grand marché de l’entreprise. Mais le rapport n’a toujours pas été communiqué.
Les documents divulgués en 2021 par la lanceuse d’alerte Frances Haugen ont confirmé les accusations des organisations militantes. Aussi a-t-elle demandé à Meta de publier ce rapport. Vingt et une organisations se sont jointes le 19 janvier 2022 à cet appel, de même qu’une autre lanceuse d’alerte, Sophie Zhang, et Brian Boland, un ancien vice-président de la société. Real Facebook Oversight Board, un groupe ad hoc établi en mai 2020 et dont la mission consiste à surveiller les activités de Facebook, figure parmi ces organisations. Frances Haugen dénonce le manque de moyens consacrés à la lutte contre les messages de haine et d’appel à la violence. Elle a ainsi révélé dans ses articles et son témoignage au Congrès des États-Unis que Facebook avait affecté 87 % de son budget mondial contre la désinformation aux États-Unis, alors que ce pays ne représente que 10 % de sa base d’utilisateurs quotidiens.
Pour la militante et journaliste indienne en faveur des droits civiques Teesta Setalvad, ce manque de moyens est particulièrement criant dans des États tels que l’Inde, qui compte vingt-deux langues officielles. Lors d’une conférence de presse le 19 janvier, elle a déclaré que Facebook permettait la diffusion de « contenus incitatifs non contrôlés » et était devenu un « instrument pour cibler les minorités, les Dalits [intouchables] et les femmes en Inde ». De son côté, Miranda Sissons, la directrice de la politique des droits de l’Homme de Facebook, a répondu dans un communiqué que « compte tenu de la complexité de ce travail, nous voulons que ces évaluations soient approfondies ». Une manière comme une autre de temporiser à nouveau.