Virtual reality

Un exercice indépendant de diligence raisonnable sur l’impact de Meta sur les droits de l’homme en Israël et en Palestine lors de l’escalade de mai 2021

Un exercice indépendant de diligence raisonnable sur l'impact de Meta sur les droits de l'homme en Israël et en Palestine lors de l'escalade de mai 2021


Nous voulons que nos services soient un lieu où les gens peuvent s’exprimer librement et en toute sécurité dans le monde entier. Cela est particulièrement vrai dans les situations où les médias sociaux peuvent être utilisés pour propager la haine, alimenter les tensions et inciter à la violence sur le terrain. C’est pourquoi nous avons des règles claires contre terrorisme, discours de haine et incitation à la violenceet des experts en la matière qui contribuent à l’élaboration et à l’application de ces règles. Nous avons également une entreprise Politique Droits de l’Homme et un dédié L’équipe des droits de l’homme — qui nous aident à gérer les risques liés aux droits de l’homme et à mieux comprendre l’impact de nos produits et technologies sur différents pays et communautés.

Dans le cadre de notre engagement à aider à créer un environnement où les gens peuvent s’exprimer librement et en toute sécurité, et suite à une recommandation du Conseil de surveillance en Septembre 2021nous avons demandé à Business for Social Responsibility (BSR) – une organisation indépendante spécialisée dans les droits de l’homme – de mener un exercice de diligence raisonnable sur l’impact de nos politiques et processus en Israël et en Palestine lors de l’escalade de mai 2021, y compris un examen pour déterminer si ces politiques et les processus ont été appliqués sans parti pris. Au cours de l’année dernière, BSR a mené une analyse détaillée, notamment en s’engageant auprès de groupes et de titulaires de droits en Israël, en Palestine et dans le monde, pour éclairer son rapport. Aujourd’hui, nous publions ces conclusions et notre réponse.

Informations sur la diligence raisonnable

Comme l’a reconnu BSR dans son rapport, les événements de mai 2021 ont fait ressortir des défis de longue date à l’échelle de l’industrie concernant la modération du contenu dans les régions touchées par des conflits et la nécessité de protéger la liberté d’expression tout en réduisant le risque que les services en ligne soient utilisés pour propager la haine. ou inciter à la violence. Le rapport a également souligné à quel point la gestion de ces problèmes était rendue plus difficile par les conditions complexes qui entourent le conflit, notamment sa dynamique sociale et historique, divers événements violents rapides et les actions et activités des organisations terroristes.

Malgré ces complications, BSR a identifié un certain nombre de domaines de « bonnes pratiques » dans notre réponse. Celles-ci comprenaient nos efforts pour hiérarchiser les mesures visant à réduire le risque que la plate-forme soit utilisée pour encourager la violence ou les préjudices, notamment en établissant rapidement un centre d’opérations spéciales dédié pour répondre à l’activité sur nos applications en temps réel. Ce centre était doté d’équipes d’experts, y compris des experts régionaux et des locuteurs natifs de l’arabe et de l’hébreu, qui ont travaillé pour supprimer le contenu qui enfreignait nos politiques, tout en s’assurant que nous corrigions les erreurs dans notre application dès que nous en avions connaissance. Cela comprenait également nos efforts pour supprimer le contenu qui était proportionné et conforme aux normes mondiales en matière de droits de l’homme.

En plus de ces domaines de bonnes pratiques, BSR a conclu que différents points de vue, nationalités, ethnies et religions étaient bien représentés dans les équipes qui y travaillaient chez Meta. Ils n’ont trouvé aucune preuve de partialité intentionnelle pour l’un de ces motifs chez aucun de ces employés. Ils n’ont également trouvé aucune preuve qu’en développant ou en mettant en œuvre l’une de nos politiques, nous cherchions à bénéficier ou à nuire à une communauté en particulier.

Cela dit, BSR a soulevé des préoccupations importantes concernant la sous-application du contenu, y compris l’incitation à la violence contre les Israéliens et les Juifs sur nos plateformes, et des cas spécifiques où ils considéraient que nos politiques et processus avaient un impact involontaire sur les communautés palestiniennes et arabes – principalement sur leur liberté. d’expression. BSR a formulé 21 recommandations spécifiques à la suite de sa diligence raisonnable, couvrant des domaines liés à nos politiques, la manière dont ces politiques sont appliquées et nos efforts pour assurer la transparence à nos utilisateurs.

Nos actions en réponse aux recommandations

Depuis que nous avons reçu le rapport final, nous avons soigneusement examiné ces recommandations pour nous aider à savoir où et comment nous pouvons nous améliorer. Notre réponse détaille notre engagement à mettre en œuvre 10 des recommandations, en mettant partiellement en œuvre quatre, et nous évaluons la faisabilité de six autres. Nous ne prendrons aucune autre mesure sur une recommandation.

Il n’y a pas de solution rapide du jour au lendemain à bon nombre de ces recommandations, comme le précise BSR. Bien que nous ayons déjà apporté des changements importants à la suite de cet exercice, ce processus prendra du temps, y compris du temps pour comprendre comment certaines de ces recommandations peuvent être mieux traitées et si elles sont techniquement réalisables.

Voici une mise à jour sur notre travail pour aborder certains des domaines clés identifiés dans le rapport :

Nos politiques

BSR nous a recommandé de revoir nos politiques sur incitation à la violence et Individus et organisations dangereux (DOI) — règles que nous avons en place qui interdisent aux groupes tels que les terroristes, les organisations haineuses et criminelles, tels que définis par nos politiques, qui proclament une mission violente ou qui se livrent à la violence d’avoir une présence sur Facebook ou Instagram. Nous évaluons ces entités en fonction de leur comportement en ligne et hors ligne, et plus particulièrement, de leurs liens avec la violence. Nous nous sommes engagés à mettre en œuvre ces recommandations, notamment en lançant un examen de ces deux domaines politiques afin d’examiner comment nous abordons le débat politique sur les groupes interdits et comment nous pouvons faire davantage pour lutter contre les contenus faisant l’apologie de la violence. Dans le cadre de cet examen complet, nous consulterons en profondeur un large éventail d’experts, d’universitaires et de parties prenantes, non seulement dans la région, mais dans le monde entier.

BSR nous a également recommandé de hiérarchiser le système de grèves et pénalités nous appliquons lorsque des personnes enfreignent notre politique DOI. Nous nous sommes engagés à évaluer la faisabilité de cette recommandation particulière, mais nous avons déjà commencé à travailler pour rendre ce système plus simple, plus transparent et plus proportionné.

De plus, BSR nous a encouragés à mener un dialogue avec les parties prenantes et à assurer la transparence de nos obligations légales américaines dans ce domaine. Nous nous sommes engagés à mettre en œuvre partiellement cette recommandation. Bien que nous procédions régulièrement à un large dialogue avec les parties prenantes sur ces politiques et sur la manière dont elles sont appliquées, nous comptons sur les conseils juridiques et les autorités compétentes en matière de sanctions pour comprendre nos obligations de conformité spécifiques dans ce domaine. Nous convenons que la transparence est d’une importance cruciale ici et grâce à notre normes communautairesnous fournissons des détails sur la façon dont nous définissons les groupes terroristes, comment nous les hiérarchisons et comment ces hiérarchisations affectent les sanctions que nous appliquons aux personnes qui enfreignent nos règles.

Application de nos politiques

BSR a formulé un certain nombre de recommandations axées sur notre approche de la révision du contenu en hébreu et en arabe.

BSR nous a recommandé de continuer à développer et à déployer des classificateurs d’apprentissage automatique fonctionnels en hébreu. Nous nous sommes engagés à mettre en œuvre cette recommandation et, depuis mai 2021, nous avons lancé un classificateur de « discours hostile » en hébreu pour nous aider à détecter de manière proactive les contenus en hébreu les plus violents. Nous pensons que cela améliorera considérablement notre capacité à gérer des situations comme celle-ci, où nous constatons des pics majeurs de contenu non conforme.

BSR a également recommandé que nous continuions à travailler pour établir des processus afin de mieux acheminer le contenu arabe potentiellement en infraction par dialecte pour l’examen du contenu. Nous évaluons la faisabilité de cette recommandation. Nous avons des équipes importantes et diverses pour réviser le contenu arabe, avec des compétences en langue maternelle et une compréhension du contexte culturel local dans toute la région, y compris en Palestine. Nous avons également mis en place des systèmes qui utilisent la technologie pour aider à déterminer la langue dans laquelle se trouve le contenu, afin que nous puissions nous assurer qu’il est examiné par les réviseurs de contenu concernés. Nous explorons une gamme d’options pour voir comment nous pouvons améliorer ce processus. Cela comprend l’examen de l’embauche de plus de réviseurs de contenu avec diverses capacités de dialecte et de langue, et travailler pour comprendre si nous pouvons former nos systèmes pour mieux distinguer les différents dialectes arabes afin d’aider à acheminer et à réviser le contenu arabe.

L’analyse de BSR note que Facebook et Instagram interdisent le contenu antisémite dans le cadre de sa politique de discours de haine, qui n’autorise pas les attaques contre quiconque en raison de sa religion ou de toute autre caractéristique protégée. BSR note également que, parce que nous ne suivons pas actuellement les cibles du discours de haine, nous ne sommes pas en mesure de mesurer la prévalence du contenu antisémite, et ils ont recommandé que nous développions un mécanisme pour nous permettre de le faire. Nous convenons qu’il serait utile de mieux comprendre la prévalence de types spécifiques de discours de haine, et nous nous sommes engagés à en évaluer la faisabilité.

De plus, BSR nous a recommandé d’ajuster les processus que nous avons mis en place pour mettre à jour et maintenir les mots-clés associés à organisations dangereuses désignéespour aider à empêcher les hashtags d’être bloqués par erreur – comme l’erreur de mai 2021 qui a temporairement restreint la capacité des gens à voir le contenu de la page de hashtag al-Aqsa. Bien que nous ayons rapidement résolu ce problème, cela n’aurait jamais dû se produire en premier lieu. Nous avons déjà mis en œuvre cette recommandation et établi un processus pour garantir que les équipes d’experts de Meta sont désormais responsables de la vérification et de l’approbation de ces mots clés.

Transparence

À la base de tout cela, BSR a formulé une série de recommandations visant à aider les gens à mieux comprendre nos politiques et nos processus.

BSR a recommandé que nous fournissions des informations spécifiques et granulaires aux personnes lorsque nous supprimons le contenu en infraction et appliquons des “avertissements”. Nous mettons en œuvre cette recommandation en partie parce que certaines personnes enfreignent plusieurs politiques en même temps, ce qui crée des défis quant à la précision avec laquelle nous pouvons être à grande échelle. Nous fournissons déjà ces informations spécifiques et granulaires dans la majorité des cas, et nous avons commencé à les fournir dans un plus grand nombre de cas, là où il est possible de le faire.

BSR a également recommandé que nous divulguions le nombre de rapports officiels reçus d’entités gouvernementales pour supprimer du contenu qui n’enfreint pas la législation locale, mais qui enfreint potentiellement nos normes communautaires. Nous nous sommes engagés à mettre en œuvre cette recommandation. Nous publions déjà un rapport semestriel détaillant le nombre d’éléments de contenu, par pays, que nous restreignons pour violation de la législation locale à la suite d’une demande légale valide. Nous travaillons actuellement à étendre les mesures que nous fournissons dans le cadre de ce rapport pour inclure également des détails sur le contenu supprimé pour avoir enfreint nos politiques à la suite d’une demande du gouvernement.

Le rapport de BSR est un pas en avant extrêmement important pour nous et notre travail sur les droits de l’homme. Les événements mondiaux sont dynamiques, et donc les façons dont nous abordons la sûreté, la sécurité et la liberté d’expression doivent également être dynamiques. Les évaluations des droits de l’homme comme celles-ci sont un moyen important de continuer à améliorer nos produits, nos politiques et nos processus.

Pour plus d’informations sur les mesures supplémentaires que nous avons prises, vous pouvez lire notre réponse complète à l’évaluation de BSR ici. Nous continuerons de tenir les gens informés de nos progrès dans notre rapport annuel sur les droits de la personne.

Leave a Comment