Facebook, Twitter et YouTube face à la justice à cause des messages de haine

En matière de lutte contre le racisme sur internet, Twitter a par exemple accepté de collaborer avec la justice française. En fait, tous les réseaux sociaux ont mis en place des filtres, de la modération, pour que les contenus inappropriés n’apparaissent pas ou disparaissent au plus vite, c’est aussi le cas de Facebook, de YouTube et des autres. Certains qualifient ces mesures de censures, d’autres dénoncent le fait qu’elles sont insuffisantes.

À l’occasion des Assises de la lutte contre la haine sur internet organisées à Paris, les associations Union des étudiants juifs de France (UEJF), SOS Racisme et SOS Homophobie ont profité de l’occasion pour publier les résultats d’une campagne de test des systèmes de modération mis en place par Facebook, Twitter et YouTube. Le constat est que les filtres mis en place ne sont pas très… efficaces.

Après avoir signalé « 586 contenus racistes, antisémites, négationnistes, homophobes, faisant l’apologie du terrorisme ou de crimes contre l’humanité » aux 3 plateformes américaines, seuls 4 % des contenus signalés ont été retirés de Twitter, 7 % de YouTube et 34 % de Facebook. Comme exemple des messages non retirés, les associations donnent « #stopislam mort aux juifs et aux bougnoules », « les homos n’ont pas leur place sur cette terre, les pendre est un luxe, on devrait les brûler vifs de l’ongle du pied à la tête », etc. Pourtant, la loi pour la confiance dans l’économie numérique impose aux hébergeurs, depuis 2004, de retirer rapidement les contenus « manifestement illicites » dont ils ont connaissance, ce qui n’a visiblement pas été le cas.

C’est dans la continuité de ce constat que les associations SOS Racisme et l’UEJF annoncent vouloir aller plus loin dans cette démarche assignant en justice Facebook, Twitter et YouTube. Leur but est de leur faire « comprendre les raisons du non-respect de leurs obligations légales ». Le but de cette action serait aussi de pouvoir obtenir une certaine transparence sur le fonctionnement des équipes de modération, un sujet tabou vu que les plateformes se cantonnent à déclarer qu’elles sont multilingues, travaillent 7 jours sur 7 et 24 heures sur 24, mais sans jamais donner plus de précision. « Le mystère qui plane sur le fonctionnement des équipes de modération des réseaux sociaux empêche toute avancée sérieuse dans la diminution des messages racistes et antisémites », déplore Sacha Reingewirtz, le président de l’UEJF.

Votes
[Total : 0 votes en moyenne : 0]
PARTAGER
Article précédentAndré Brahic n’est plus, l’astronomie française perd un passeur de savoir
Article suivantQuelles sont les annonces attendues pour la conférence Google I/O 2016 ?

Une fille dans l’informatique était mal vue à l’époque de mes études. C’est pour cette raison que l’on m’a cantonné à des rôles secondaires lors des travaux de groupe, notamment celui de centralisateur des informations. Ce rôle central, au final crucial, m’a plu. C’est comme cela que je suis devenue chef de projet. Plus tard, cette attirance pour l’information m’a poussé à suivre des cours de journalisme.
Comme j’avais la propension de centraliser l’actualité technologique, un ami m’a dit un jour : «Emilie, tu peux le faire ». C’est comme cela que je me suis retrouvée embarquée dans l’aventure de linformatique.org. Vu mon boulot, ce sont surtout les nouvelles technologies qui m’intéressent le plus.

LAISSER UN COMMENTAIRE

Please enter your comment!
Please enter your name here