Les politiques de contenu de Facebook et Twitter montrent comment un manque de clarté a été préjudiciable, et où plus de clarté aiderait à faire reculer la haine et même à prévenir la violence.

Soyez le premier informé - Rejoignez notre page Facebook.

Les normes communautaires de Facebook détaillent sa politique de «discours de haine», qui interdit les attaques contre des groupes de personnes en fonction de la race, de la religion, de l’orientation sexuelle et d’autres catégories protégées. Mais alors que certains contenus antisémites relèvent de leurs définitions, les théories du complot et les frottis antisémites remplaçant le mot «juifs» par «sionistes» ne le font pas.

Les règles de Twitter interdisent spécifiquement l’utilisation d’images de l’Holocauste dans le harcèlement ciblé, ainsi que les symboles de haine tels que les croix gammées. Mais alors que Twitter fait attention aux contenus liés à l’Holocauste, ses règles n’interdisent pas les complots antisémites, qui gagnent en popularité chaque fois que les tensions sociales ou économiques sont fortes.

Le compte rendu de l’antisémite notoire Louis Farrakhan, par exemple, est toujours actif, malgré la décision de Twitter de retirer son badge «vérifié» et d’élargir ses politiques pour inclure un langage «déshumanisant» contre les groupes religieux.

🟦 ANNONCE 🟦

L’intégration directe de la définition de l’IHRA dans leurs politiques et l’affectation d’un membre du personnel chargé de superviser son application pourrait aider ces plateformes à lutter contre les complots antisémites de deux manières principales. Premièrement, en définissant correctement l’antisémitisme. Dans le cadre de l’IHRA, par exemple, blâmer les «sionistes» pour les maladies biologiques contagieuses est clairement antisémite. Mais selon les politiques actuelles des médias sociaux, il n’est pas clair au mieux si ces messages violent les conditions d’utilisation.

Deuxièmement, les sociétés de médias sociaux peuvent mettre en œuvre des outils proactifs pour supprimer le contenu antisémite – par exemple en signalant certains sujets ou mots clés pour examen – avant qu’il ne se propage. Aujourd’hui, le système oblige les utilisateurs à signaler le contenu, qui n’est ensuite évalué que par un algorithme ou un autre être humain – une approche réactive à un problème qui nécessite à la fois une réponse réactive et proactive.

Les sociétés de médias sociaux qui offrent aux individus fanatiques un accès facile à un large public ont l’obligation morale de veiller à ce que la rhétorique dangereuse ne soit pas autorisée à prospérer sur leurs plateformes. Ne pas le faire les rend complices, au moins en partie, de l’antisémitisme.



IMPORTANT : Le fil d'actualité Facebook est sélectif depuis quelques semaines. Pour voir nos articles sur votre fil d'actualité : 1 - Allez sur "Favoris" à gauche du fil d'actualités. 2 - Gérer vos favoris en choisissant Sabrina Netivot ou notre Page Infos Israel News