Actualités

L’IA de Facebook pour supprimer les messages haineux ne fonctionne pas vraiment, selon ses ingénieurs

Des documents internes de Facebook révéleraient que les outils de détection des contenus qui violent les règles ne sont pas adaptés à cette tâche.

C’est important car, depuis des années, Mark Zuckerberg justifie l’utilisation des algorithmes pour lutter contre les contenus illégaux et abusifs sur sa plateforme ; au point que le PDG de Facebook a même assuré avant 2020 que son intelligence artificielle serait capable de tuer « la plupart des contenus problématiques » sur sa plateforme.

De cette manière, Facebook n’embauche pas autant d’employés humains, et peut laisser la modération de sa plateforme à des « automatiques ».

En pratique, ces algorithmes ignorent la plupart des contenus qui violent les règles de Facebook – et l’entreprise le sait, selon des documents internes publiés par le Wall Street Journal. Les chiffres de l’enquête interne ne donnent pas une bonne image de l’IA, affirmant qu’elle a supprimé des messages qui ne généraient que 3 à 5 % des messages haineux, et seulement 0,6 % des messages qui violaient les règles de violence.

Des chiffres qui n’ont absolument rien à voir avec ceux que Facebook publie lui-même dans ses rapports ; selon le dernier en date, publié en février pour démentir son implication dans l’assaut du Capitole américain, l’intelligence artificielle « super efficace » aurait détecté et supprimé 97 % des messages haineux, avant même qu’un humain ne les ait repérés.

La différence n’est pas une surprise pour les chercheurs et les organisations qui ont étudié Facebook, qui ont depuis longtemps mis en garde contre le fait que les chiffres de Facebook ne correspondent pas à ceux d’études tierces ; mais ils ont également dénoncé les difficultés rencontrées par Facebook pour obtenir ces données, ainsi que le manque de transparence sur la manière dont il est parvenu à ses conclusions.

Facebook a répondu à la publication du Wall Street Journal, précisant qu’il s’agit de documents anciens et dépassés, et qu’ils démontrent que son travail est « un parcours de plusieurs années ».

Sa défense s’est concentrée sur le fait qu’il est « plus important » de voir comment les messages haineux sont « généralement » réduits sur Facebook, plutôt que sur la suppression des contenus haineux. C’est pourquoi il estime que la mesure la plus « objective » est la prévalence, car elle représente le contenu qui leur a « glissé entre les doigts », et qui a diminué de 50 % au cours des trois derniers trimestres, selon ses données.

Facebook accepterait donc tacitement qu’il n’est pas en mesure de supprimer les contenus haineux de sa plateforme, mais que l’important est qu’ils soient vus par très peu de personnes.

Ce n’est pas la première fois que Facebook doit se défendre contre ses propres études internes, rien que ce mois-ci ; un ancien employé de Facebook a fait fuiter des documents qui montreraient que Facebook ne fait rien contre les contenus haineux parce que cela lui porterait préjudice financièrement.

Si cet article a captivé votre intérêt, vous trouverez certainement les prochains tout aussi passionnants. Assurez-vous de ne rien manquer en vous abonnant à linformatique.org sur Google News. Suivez-nous aussi sur Facebook et Twitter.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page