
Source : FreeImages – Barack Obama DeepFake
Le Deepfake, c’est quoi ?
Appelé en français hypertrucage, le mot Deepfake est une contraction entre « Deep Learning » (apprentissage profond) » et « Fake » (faux). Un deepfake est un faux : vidéo, photo, audio ou texte, conçu grâce à l’intelligence artificielle.
Le nom « Deepfakes » est tout d’abord lié au pseudonyme d’un développeur. Fin 2017, il est le premier à poster des vidéos truquées pornographique intégrant les visages de célébrités sur le forum Reddit.
Comment ça fonctionne ?
La technique des GAN
D’abord les deepfakes reposent sur la technique des GAN : Generative Adversarial Networks ou réseaux antagonistes génératifs. Notons que cette technique a a été inventée en 2014 par le chercheur Ian Goodfellow.
Machine Learning
Il s’agit d’une technique de Machine Learning consistant à mettre en compétition deux algorithmes.
Algorithme « générateur »
À partir d’images fournies en amont, le premier algorithme « générateur » cherche à créer de fausses imitations aussi crédibles que possible.
Algorithme « discriminateur »
Le second algorithme « discriminateur », quant à lui, cherche à détecter les faux le plus efficacement possible. Les deux algorithme progressent dans leurs tâches respectives. Le premier continues à produire de fausses vidéos jusqu’à ce que le second ne puisse plus déceler la supercherie.
Il faut nourrir les modèles de Machine Learning
Plus les données fournies à l’algorithme sont nombreuses, plus celui-ci sera capable d’apprendre à créer des faux facilement. C’est la raison pour laquelle les célébrités sont souvent utilisés pour créer des Deepfakes. En effet, il y a énormément de contenus en libre accès et pour nourrir les modèles de Machine Learning.
http://www.mbadmb.com/wp-content/uploads/2020/01/GOOD.jpg
Le Deepfake, un danger ?
En avril 2018, Jordan Peele et Jonah Peretti ont montré les dangers de l’hypertrucages. Là-dessus ils ont créé une fausse vidéo de Barack Obama faisant une annonce publique (voir vidéo ci au dessus).
Centres de recherche universitaires, start-up, gouvernements et médias se mobilisent autour d’un même objectif : identifier les deepfakes.
La propagation des outils permettant de fabriquer des deepfakes serait donc une menace pour tous. Prenons le cas publié par le Wall Street Journal selon lequel une entreprise avait été victime d’une tentative d’extorsion de fonds. En effet, les criminelles avaient utilisé une voix artificielle, imitant celle du PDG.
Faut-il installer un tatouage numérique sur les contenus numériques ?
Solange Ghernaouti, spécialiste en cybersécurité et cyberdéfense a imaginé un idéal. Un tatouage numérique sur les images et les vidéos afin de connaître l’origine du contenu. Depuis 2014, Amnesty International propose aux journalistes d’utiliser les outils InVid et Amnesty Youtube. Ces logiciels permettent de déterminer si une vidéo est truquée ou manipulée.
Le deepfake challenge
En septembre 2019, Google a rendu publiques plus de 3 000 vidéos issues de sa DeepFake Detection Dataset.
Par ailleurs, les groupes américains de la tech et des institutions universitaires ont lancé un « deepfake challenge » en septembre 2019. Financée à hauteur de 10 millions de dollars par Facebook. Apple, Amazon, Microsoft, IBM, le MIT et l’université d’Oxford cherchent à trouver des solutions anti-deepfakes.
Sources :
- La revue européenne des médias et du numérique
- Le Big Data
- France info
- Wikipedia
- Les Numériques
- Siecle Digital