Le propriétaire de Facebook va « évaluer la faisabilité » d’une étude sur les discours haineux en Éthiopie.

By Matthieu CHARRIER

Meta indique que les projets de diligence en matière de droits de l’homme peuvent prendre beaucoup de temps et durer un an ou plus.

Le propriétaire de Facebook et d’Instagram a déclaré qu’il allait « évaluer la faisabilité » d’une étude indépendante sur les droits de l’homme liée à son travail en Éthiopie, après que le conseil de surveillance de l’entreprise l’a exhorté à enquêter sur la façon dont ses plateformes ont été utilisées pour diffuser des discours haineux et des rumeurs non vérifiées dans le pays.

Modération de Meta en Ethiopie

Le conseil de surveillance de Meta, qui examine les décisions et les politiques de modération du contenu de l’entreprise, a demandé à Meta de mener l’étude après avoir confirmé la suppression d’une publication Facebook alléguant l’implication de civils d’origine tigréenne dans des atrocités commises dans la région d’Amhara en Éthiopie. La plateforme ayant par la suite rétabli le message après un appel de l’utilisateur qui l’avait publié, Facebook a dû le retirer à nouveau.

Dans le cadre de cette décision, le conseil d’administration a recommandé à la société mère de Facebook de procéder à une évaluation indépendante de la diligence raisonnable en matière de droits de l’homme sur la façon dont Facebook et Instagram « ont été utilisés pour diffuser des discours de haine et des rumeurs non vérifiées qui augmentent le risque de violence en Éthiopie ». Écrivant en décembre de l’année dernière, le conseil a déclaré que l’étude devrait couvrir une période allant de juin 2020 « à aujourd’hui » et devrait prendre six mois pour être achevée. Si les décisions du conseil en matière de modération de contenu sont contraignantes, ses recommandations politiques ne le sont pas.

A lire également :   Comment transférer des photos Google vers un autre compte

En réponse à la recommandation du conseil jeudi, Meta a déclaré que les projets de diligence en matière de droits de l’homme peuvent être « très chronophages » et durer un an ou plus. Elle a ajouté qu’elle examinerait la faisabilité d’une telle mesure.

« Nous allons poursuivre les processus existants de diligence raisonnable en matière de droits de l’homme et de gestion dynamique des risques et évaluer la faisabilité d’un projet de diligence raisonnable connexe. Nous prévoyons de fournir une mise à jour dans les prochains mois », a déclaré Meta.

Les efforts de modération de Meta dans les pays non anglophones font l’objet d’un examen minutieux depuis qu’il a été découvert qu’il avait facilité la violence contre les Rohingyas, la minorité musulmane du Myanmar. Facebook a admis en 2018 qu’il n’avait pas fait assez pour empêcher l’incitation à la violence et les discours de haine contre les Rohingyas. Un rapport indépendant commandé par l’entreprise a constaté que « Facebook est devenu un moyen pour ceux qui cherchent à répandre la haine et à causer du tort, et des posts ont été liés à des violences hors ligne ».

Une contestation de la modération de Meta

Frances Haugen, une ancienne employée de Meta qui a dénoncé les pratiques de modération de l’entreprise, a averti que la société de médias sociaux encourageait la violence ethnique en Éthiopie. Dans son témoignage devant les législateurs américains, Mme Haugen a déclaré que, bien que seulement 9 % des utilisateurs de Facebook parlent anglais, 87 % des dépenses de désinformation de la plateforme étaient consacrées aux anglophones.

Des milliers de personnes sont mortes et des millions ont été déplacées au cours du conflit qui oppose depuis un an le gouvernement éthiopien aux forces rebelles de la région du Tigré, dans le nord du pays.

A lire également :   Meilleures applications météo

Meta a ajouté dans sa déclaration de jeudi qu’elle avait « investi des ressources importantes en Éthiopie pour identifier et supprimer les contenus potentiellement dangereux » dans le cadre de sa réponse aux recommandations du conseil d’administration en décembre.

Un porte-parole du conseil de surveillance a déclaré dans un communiqué : « Les politiques existantes de Meta interdisent les rumeurs qui contribuent à une violence imminente et qui ne peuvent pas être démenties dans un délai raisonnable, et le conseil a formulé des recommandations visant à garantir que ces politiques sont effectivement appliquées dans les situations de conflit.

« Les rumeurs alléguant qu’un groupe ethnique est complice d’atrocités, comme c’est le cas dans cette affaire, ont le potentiel de conduire à de graves préjudices pour les personnes. »