Après les Fake News, les Deepfake.
Les deepfakse, aussi appelée « hypertrucages » est une nouvelle technique apparue récemment pour divulguer ds fausses informations de manière bien plus réaliste. Après les Fake News dont nous avons parlé ici, voici les deepfakes !
Les deepfakes, qu’est-ce que c’est ?
Ce terme provient de la contraction de deux mots : « deep learning » et « fake », ce qu’on pourrait traduire par « faux profond ». En effet il s’agit de contenus rendus « profondément » crédibles grâce à une technique de synthèse d’images basée sur l’intelligence artificielle. Elle superpose des images et des vidéos existantes sur d’autres images ou vidéos. Celle-ci est utilisée pour créer des infox et des canulars malveillants.
Comment fonctionnent les deepfakes ?
Les deepfakes reposent sur la technique des GANs (réseau adversatif générateur) : il s’agit de mettre en compétition deux algorithmes. Le premier est « générateur », il cherche à créer des imitations aussi crédibles que possible. Le second est « discriminateur », il se charge de détecter le faux. Les deux algorithmes fonctionnent simultanément jusqu’à ce que le second ne parvienne plus à déceler la supercherie. Ainsi, un œil humain ne peut plus discerner le vrai du faux.
Les risques des deepfakes
Tout a commencé en 2017 quand la BBC a présenté un discours officiel prononcé par une intelligence artificielle imitant Barack Obama, indiscernable de la réalité. C’est Jordan Peele, un réalisateur et comédien, qui a créé une vidéo où l’on peut voir l’ancien président des Etats-Unis insultant Donald Trump de « idiot total et absolu ». Le but de l’auteur de cette « deepfake » était de mettre en garde les internautes contre les contenus vidéos trouvés sur internet. En effet, la propagation de ces fausses informations causée par la facilité de leur création (il existe des applications gratuites et simples d’utilisation pour en réaliser) est de plus en plus rapide : le nombre de vidéos « deepfake » a doublé en dix mois, et 96% de ce contenu était pornographique.
Cependant, les risques pourraient être plus grands que ce que nous croyons. En effet, cette innovation pourrait être utilisée à des fins de propagande ou même de terrorisme, en créant, par exemple, une vidéo d’alerte à la bombe dans le but de semer la panique. Une fausse vidéo pourrait également ruiner la réputation d’une personne, discréditer un candidat aux élections (manipulation, désinformation, diffamation) ou encore faire dire aux politiciens actuels ce qu’ils n’ont jamais dit. De même, ces vidéos sont capables de déstabiliser un gouvernement, et ceci a été démontré en Malaisie. Une vidéo montrait le ministre malaisien de l’économie ayant une relation avec un de ses secrétaires adjoints. Cet acte, considéré comme un crime aux yeux de la justice malaisienne, a valu au secrétaire une arrestation par la police avant d’être relâché.
Prévention
Cependant, cette innovation technologique est surveillée de près par plusieurs institutions. Par exemple, Vincent Nozick a développé un programme permettant de détecter les Deepfake en s’appuyant sur le mouvement des paupières. En effet, les personnages dans les vidéos truquées tendraient à moins cligner des yeux que dans la réalité. Aux Etats-Unis, l’agence de recherche américaine de défense a financé à hauteur de 68 millions de dollars les projets technologiques luttant contre ce phénomène. Dans le monde des réseaux sociaux, Facebook a lancé un concours nommé « Deepfake Detection Challenge » (DDC) afin de créer des logiciels capables de discerner les vidéos truquées. Twitter supprime les hypertrucages et bloque leurs auteurs. De son côté, Google a publié un kit de formation anti « deepfake » pour les chercheurs afin de tester leurs méthodes de détection.
Voici une vidéo d’une dizaine de minutes pour approfondir ce sujet, s’il vous intéresse : ICI
Lorsque nous voyons une vidéo, nous ressentons une certaine émotion et nous avons tendance à croire en son contenu. Ainsi, il faut être de plus en plus critique à l’égard des informations partagées sur Internet.
Granny Geek® vous conseille
- Vérifiez vos sources avant de partager une vidéo avec quelqu’un d’autre.
- Ne paniquez pas ! De nombreuses solutions ont été découvertes pour lutter contre ces trucages.
0 commentaires