Technologie

Facebook, Twitter et YouTube face à la justice à cause des messages de haine

En matière de lutte contre le racisme sur internet, Twitter a par exemple accepté de collaborer avec la justice française. En fait, tous les réseaux sociaux ont mis en place des filtres, de la modération, pour que les contenus inappropriés n’apparaissent pas ou disparaissent au plus vite, c’est aussi le cas de Facebook, de YouTube et des autres. Certains qualifient ces mesures de censures, d’autres dénoncent le fait qu’elles sont insuffisantes.

À l’occasion des Assises de la lutte contre la haine sur internet organisées à Paris, les associations Union des étudiants juifs de France (UEJF), SOS Racisme et SOS Homophobie ont profité de l’occasion pour publier les résultats d’une campagne de test des systèmes de modération mis en place par Facebook, Twitter et YouTube. Le constat est que les filtres mis en place ne sont pas très… efficaces.

Après avoir signalé « 586 contenus racistes, antisémites, négationnistes, homophobes, faisant l’apologie du terrorisme ou de crimes contre l’humanité » aux 3 plateformes américaines, seuls 4 % des contenus signalés ont été retirés de Twitter, 7 % de YouTube et 34 % de Facebook. Comme exemple des messages non retirés, les associations donnent « #stopislam mort aux juifs et aux bougnoules », « les homos n’ont pas leur place sur cette terre, les pendre est un luxe, on devrait les brûler vifs de l’ongle du pied à la tête », etc. Pourtant, la loi pour la confiance dans l’économie numérique impose aux hébergeurs, depuis 2004, de retirer rapidement les contenus « manifestement illicites » dont ils ont connaissance, ce qui n’a visiblement pas été le cas.

C’est dans la continuité de ce constat que les associations SOS Racisme et l’UEJF annoncent vouloir aller plus loin dans cette démarche assignant en justice Facebook, Twitter et YouTube. Leur but est de leur faire « comprendre les raisons du non-respect de leurs obligations légales ». Le but de cette action serait aussi de pouvoir obtenir une certaine transparence sur le fonctionnement des équipes de modération, un sujet tabou vu que les plateformes se cantonnent à déclarer qu’elles sont multilingues, travaillent 7 jours sur 7 et 24 heures sur 24, mais sans jamais donner plus de précision. « Le mystère qui plane sur le fonctionnement des équipes de modération des réseaux sociaux empêche toute avancée sérieuse dans la diminution des messages racistes et antisémites », déplore Sacha Reingewirtz, le président de l’UEJF.

Si cet article a captivé votre intérêt, vous trouverez certainement les prochains tout aussi passionnants. Assurez-vous de ne rien manquer en vous abonnant à linformatique.org sur Google News. Suivez-nous aussi sur Facebook et Twitter.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page