Actualités

Plusieurs politiciens européens ont été dupés par des appels vidéo avec un deepfake

Ces derniers jours, plusieurs responsables politiques européens ont été dupés par des utilisateurs qui, à l’aide de deepfake, se faisaient passer pour une figure de l’opposition russe lors d’appels vidéo. Les victimes, des membres du Parlement européen, pensaient parler à Leonid Volkov, un allié du leader russe Navalny, mais il s’agissait d’un canular.

Une personne a utilisé un filtre et s’est fait passer pour Leonid Volkov, un allié du leader russe Navalny. Parmi les politiciens dupés figurent Rihards Kols, chef de la commission des affaires étrangères de Lettonie, et Tom Tugendhat, président de la commission des affaires étrangères du Royaume-Uni.

Parmi les politiciens dupés figuraient Rihards Kols, chef de la commission des affaires étrangères de Lettonie, Tom Tugendhat, président de la commission des affaires étrangères du Royaume-Uni, ainsi que d’autres politiciens d’Estonie et de Lituanie, selon The Guardian.

Kols a mis en ligne une photo de Leonid Volkov, un allié de Navalny, et une capture d’écran tirée de l’appel vidéo. Volkov a dit que les deux étaient pratiquement identiques. Et il se demande comment ils ont réussi à mettre leur visage sur l’appel via Zoom. Il a conclu par une phrase révélatrice : « Bienvenue dans l’ère des deepfakes. »

Les deepfakes qui permettent, grâce à l’utilisation de réseaux neuronaux, de réaliser des montages où il est difficile de distinguer un original d’un produit créé artificiellement. Ces dernières années, ce type de technologie a progressé à pas de géant. Il existe même des applications qui permettent à tout utilisateur, en quelques étapes, de créer son propre contenu où il échange un visage dans le corps d’un autre et fait chanter ou danser le personnage à sa guise.

Ces versions sont conçues pour créer des parodies mais il existe des outils encore plus sophistiqués basés sur la même technologie d’apprentissage profond qui permettent de créer des contenus de plus en plus réalistes. Le risque de tout cela est qu’ils puissent être utilisés pour diffuser de la désinformation ou générer des canulars du type mentionné ci-dessus.

Le 16 mars, les politiciens ont été contactés par une personne se faisant passer pour Volkov, qui a demandé une réunion avec la commission des affaires étrangères pour discuter de la tentative d’assassinat de Navalny et des prisonniers politiques en Russie. La réunion a eu lieu avec Kols le 23 mars, bien qu’il y ait eu auparavant des réunions virtuelles avec des politiciens lituaniens. Mais c’était un piège. Ils pensaient parler à l’opposant russe mais ce n’était rien d’autre qu’une profonde imposture.

M. Kols a déclaré qu’une personne prétendant être Volkov lui a envoyé un courriel et lui a demandé de passer un appel vidéo pour discuter du soutien aux prisonniers politiques russes et de l’annexion de la Crimée par la Russie. Un peu plus tard, il a réalisé qu’il avait fait partie d’un canular.

« Il est clair que l’ère dite du déclin de la vérité ou de la post-vérité et des post-faits a le potentiel de menacer sérieusement la sécurité et la stabilité des pays, des gouvernements et des sociétés locales et internationales », a souligné l’homme politique, rapporte le site d’information britannique.

Volkov a accusé un duo russe nommé Vovan et Lexus d’être à l’origine de l’appel. Cependant, Lexus, surnom d’Alexei Stolyarov, a nié avoir utilisé un filtre pour lui ressembler.

La police européenne avait déjà mis en garde contre la croissance de ce type de technologie et les implications qu’elle pourrait avoir à l’avenir. Le FBI l’a fait récemment. L’agence a prévenu que la circulation de contenus numériques manipulés allait augmenter au cours des 12 à 18 prochains mois et a indiqué que ce type de matériel trompeur pouvait être utilisé pour commettre différents cybercrimes tels que des campagnes de phishing, c’est-à-dire se faire passer pour quelqu’un d’autre afin d’obtenir des informations confidentielles ou de voler des données.

Un outil pour détecter les deepfakes

Il existe différents développements permettant d’identifier ce type de tromperie. L’une des plus récentes a été mise au point par des chercheurs de l’université de Buffalo. Il s’agit d’un système qui identifie automatiquement les fausses photos en analysant les reflets de la lumière dans les globes oculaires des utilisateurs représentés et qui a, selon ses créateurs, une efficacité de 94 %.

« Les deux yeux doivent avoir des schémas de réflexion très similaires car ils voient la même chose. C’est quelque chose que nous ne remarquons pas normalement lorsque nous regardons un visage », a expliqué l’auteur principal Siwei Lyu, PhD, professeur d’innovation SUNY Empire au département d’ingénierie et d’informatique, dans une publication de l’université.

Cependant, la plupart des images générées par l’intelligence artificielle, y compris les images produites par des réseaux antagonistes génératifs (GAN), ne parviennent pas à le faire avec précision, peut-être parce qu’une multiplicité de photos combinées sont utilisées pour générer l’image fausse.

Ce n’est pas la première fois que Lyu se concentre sur un tel développement. Il a également effectué des recherches et conclu que dans les vidéos deepfake, les utilisateurs clignent moins des yeux ou de manière incohérente, ce qui peut également être un indice pour identifier ce type de contenu.

Il a également participé à la création du site Deepfake-o-meter, qui analyse les vidéos et aide à déterminer si un clip est réel ou profondément faux. Ce n’est pas efficace à 100 %, mais c’est un outil supplémentaire pour aider à évaluer le contenu numérique.

Si cet article a captivé votre intérêt, vous trouverez certainement les prochains tout aussi passionnants. Assurez-vous de ne rien manquer en vous abonnant à linformatique.org sur Google News. Suivez-nous aussi sur Facebook et Twitter.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page