Facebook Parent Meta a eu un impact sur les droits humains des Palestiniens, selon un rapport

Que ce passe-t-il

Meta a publié un rapport qui montre comment le géant des médias sociaux a eu un impact sur les droits humains dans le conflit israélo-palestinien en mai 2021.

Pourquoi est-ce important

La modération de contenu dans des langues autres que l’anglais est un défi permanent pour les entreprises de médias sociaux. Meta apporte des modifications en réponse aux résultats.

La société mère de Facebook, Meta, a commis des erreurs de modération de contenu qui ont eu un impact sur les droits humains des Palestiniens lors d’une flambée de violence qui s’est produite dans la bande de Gaza en mai 2021, un rapport a publié les émissions du jeudi.

Meta a demandé au cabinet de conseil Business for Social Responsibility d’examiner comment les politiques et les actions de l’entreprise affectaient les Palestiniens et les Israéliens après que son conseil de surveillance, qui examine certaines des décisions de modération de contenu les plus difficiles de la société de médias sociaux, lui ait recommandé de le faire.

Le rapport a montré que les actions de Meta ont supprimé ou réduit la capacité des Palestiniens à jouir de leurs droits humains “à la liberté d’expression, à la liberté de réunion, à la participation politique et à la non-discrimination”. Cela souligne également les défis permanents auxquels l’entreprise est confrontée lorsqu’il s’agit de modérer du contenu dans des langues autres que l’anglais. Meta possède le plus grand réseau social au monde Facebook, le service photo et vidéo Instagram et l’application de messagerie WhatsApp.

BSR a déclaré dans le rapport qu’il avait parlé aux parties prenantes concernées et que beaucoup partageaient “leur point de vue selon lequel Meta semble être une autre entité puissante réprimant leur voix”.

Les résultats décrivent plusieurs erreurs de modération de contenu commises par Meta au milieu du conflit israélo-palestinien l’année dernière. Le contenu des médias sociaux en arabe “avait une plus grande application excessive”, ce qui a conduit l’entreprise à supprimer par erreur les messages des Palestiniens. BSR a également constaté que “les taux de détection proactive de contenu arabe potentiellement violant étaient significativement plus élevés que les taux de détection proactive de contenu hébreu potentiellement violant”.

Le contenu en hébreu a connu une “plus grande sous-application” parce que Meta n’avait pas ce qu’on appelle un “classificateur” pour “discours hostile” dans cette langue. Le fait d’avoir un classificateur aide les systèmes d’intelligence artificielle de l’entreprise à identifier automatiquement les publications susceptibles d’enfreindre ses règles. Meta a également perdu des employés parlant l’hébreu et a externalisé la modération du contenu.

Meta a également supprimé à tort du contenu qui ne violait pas ses règles. L’impact sur les droits de l’homme de “ces erreurs était plus grave dans un contexte où des droits tels que la liberté d’expression, la liberté d’association et la sécurité revêtaient une importance accrue, en particulier pour les militants et les journalistes”, indique le rapport.

Le rapport a également souligné d’autres erreurs majeures de modération de contenu sur les plateformes de Meta. Par exemple, Instagram a brièvement interdit #AlAqsa, un hashtag utilisé pour faire référence à la mosquée Al-Aqsa dans la vieille ville de Jérusalem. Les utilisateurs ont également publié des discours de haine et des incitations à la violence contre les Palestiniens, les Israéliens arabes, les Israéliens juifs et les communautés juives en dehors de la région. Des journalistes palestiniens ont également signalé que leurs comptes WhatsApp étaient bloqués.

BSR, cependant, n’a pas trouvé de préjugés intentionnels au sein de l’entreprise ou parmi les employés de Meta, mais a trouvé “divers cas de préjugés involontaires où la politique et la pratique de Meta, combinées à une dynamique externe plus large, conduisent à des impacts différents sur les droits de l’homme des Palestiniens et des arabophones. utilisateurs.”

Meta a déclaré qu’il apportait des modifications pour résoudre les problèmes décrits dans le rapport. La société, par exemple, a déclaré qu’elle continuerait à développer et à déployer des classificateurs d’apprentissage automatique en hébreu.

“Nous pensons que cela améliorera considérablement notre capacité à gérer des situations comme celle-ci, où nous constatons des pics majeurs de contenu violant”, a déclaré la directrice des droits de l’homme de Meta, Miranda Sissons, dans un article de blog.

Leave a Comment

Your email address will not be published.