Pourquoi avons nous besoin d’une meilleure définition du terme « deepfake » ?

Pourquoi avons nous besoin d’une meilleure définition du terme « deepfake » ?

Livre de Donald Miller "Building a Story Brand"

L’intérêt pour le phénomène des « deepfakes » s’est un peu calmé ces dernières années, probablement parce que le public se fait à l’idée de ce qui semble être une fatalité en 2021 – que les gens peuvent et vont utiliser l’IA pour créer de fausses vidéos et images très réalistes. Mais certains reportages font resurgir le terme dans un contexte inattendu, invitant à se demander ce qu’est un deepfake.

Livre de Donald Miller "Building a Story Brand"

QUEL EST LE DANGER D’UNE MAUVAISE UTILISATION DU TERME ?

Quand doit-on parler de deepfake ? Cette question soulève un certain nombre de problèmes intéressants: non seulement notre difficulté à définir les deepfakes, mais les problèmes qui pourraient survenir si le terme est appliqué de manière vague à l’avenir. Le terme « deepfake » pourrait-il devenir le prochain « fake news », par exemple, une expression qui décrivait autrefois un phénomène distinct (des personnes publiant des nouvelles fabriquées sur les médias sociaux à des fins lucratives), mais qui a maintenant été cooptée pour discréditer les reportages légitimes.

Livre de Donald Miller "Building a Story Brand"

Mais commençons par une définition rapide de ce qu’est un « deepfake ». Le terme vient à l’origine d’un utilisateur de Reddit appelé « deepfakes » qui, en décembre 2017, a utilisé des outils d’IA prêts à l’emploi pour coller le visage de célébrités sur des clips vidéo pornographiques. Le nom d’utilisateur était simplement un mixte de « deep learning » (la forme particulière d’IA utilisée pour cette tâche) et de « fakes », mais il serait difficile de trouver quelque chose de plus accrocheur.

Bien qu’à l’origine, le terme ne s’appliquait qu’aux contrefaçons pornographiques, il a rapidement été adopté comme raccourci pour désigner un large éventail de vidéos et d’images montées à l’aide de l’apprentissage automatique. Bien que les « deepfakes » pornographiques aient attiré l’attention du grand public sur cette sous-discipline de l’IA, les chercheurs travaillent depuis longtemps sur ce type de manipulation audiovisuelle. Parmi les méthodes qui relèvent aujourd’hui du deepfake, citons les échanges de visages, les deepfakes audio (copie de la voix de quelqu’un), ou la reconstitution faciale (mise en correspondance du visage d’une cible avec celui d’un acteur et manipulation de ce dernier) et la synchronisation labiale deepfake (création d’une vidéo de quelqu’un qui parle à partir de séquences audios et de son visage).

Mais qu’est-ce qu’un deepfake ? Les experts soulignent que le terme est vague et qu’il est encore en évolution, à mesure que la technologie se développe et devient plus largement reconnue. Mais une caractéristique de base est qu’une partie du processus d’édition est automatisée à l’aide de techniques d’IA, généralement l’apprentissage profond. C’est important, non seulement parce que cela reflète le fait que les deepfakes sont nouveaux, mais aussi parce qu’ils sont faciles. Une grande partie du danger de cette technologie est que, contrairement aux anciennes techniques d’édition de photos et de vidéos, elle sera plus largement accessible aux personnes sans grande compétence technique.

LES DEEPFAKES IMPLIQUENT L’IA, L’AUTOMATISATION ET (POTENTIELLEMENT) LA TROMPERIE.

Miles Brundage, un expert en politique qui a cosigné un rapport sur les utilisations malveillantes de l’IA, a déclaré que le terme « deepfake » n’a pas de frontières distinctes, mais fait généralement référence à un « sous-ensemble de fausses vidéos qui exploitent l’apprentissage profond […] pour faciliter le processus de falsification ». Giorgio Patrini, chercheur en IA à l’université d’Amsterdam qui a écrit sur le sujet des faux numériques, a proposé une définition similaire, affirmant qu’un deepfake devrait inclure « un composant automatisé et appris. ». Le technologue en chef au Center for Social Media Responsibility de l’école d’information de l’université du Michigan, est d’accord pour dire que nous avons certainement besoin d’un terme pour décrire « la fabrication ou la manipulation audio ou vidéo qui aurait été extrêmement difficile et coûteuse sans les progrès de l’IA », et que le deepfake fait très bien l’affaire.

Si nous sommes d’accord avec ces définitions, cela signifie que les vidéos et les images montées avec des logiciels existants comme Adobe Photoshop et After Effects ne sont pas des deepfakes. Mais, comme l’a souligné Patrini, ce n’est pas une règle fiable. Pour commencer, des programmes de ce type automatisent déjà au moins une partie du processus d’édition, et ils proposeront bientôt des fonctions alimentées par l’IA. Adobe, par exemple, propose un certain nombre d’outils d’édition IA, comme le projet Mirpheus.

LE SAVIEZ VOUS ?
Le projet Morpheus est essentiellement une version vidéo des filtres neuronaux de la société, introduits dans Photoshop l’année dernière. Ces filtres utilisent l’apprentissage automatique pour ajuster l’apparence d’un sujet, en modifiant des éléments tels que son âge, la couleur de ses cheveux et son expression faciale (pour transformer un regard de surprise en un regard de colère, par exemple). Morpheus apporte ces mêmes ajustements au contenu vidéo tout en ajoutant quelques nouveaux filtres, comme la possibilité de modifier la pilosité faciale et les lunettes. Voyez-le comme un écran de création de personnage pour les humains.
Livre de Donald Miller "Building a Story Brand"

Les experts ont également ajouté que l’intention ne faisait pas partie de la définition – il importe peu que quelqu’un essaie de vous tromper pour faire de quelque chose un deepfake ou non. Cependant, cela ne semble pas être le cas, et peut-être que le potentiel de tromperie fait partie de l’équation. Par exemple, Snapchat utilise des techniques d’IA pour appliquer des filtres sur les visages des gens et nous n’appelons pas cela des deepfakes. Il en va de même pour les animoji d’Apple.

 Cela vous donnerait la définition des deepfakes qui se trouve au milieu d’un diagramme de Venn composé de trois cercles étiquetés « IA », « automatisé » et « potentiellement trompeur ». Mais même dans ce cas, on peut trouver des cas limites qui ne correspondent pas.

En examinant ces contre-exemples, il semble que lorsque nous parlons de « deepfakes », nous parlons d’un contenu qui a le potentiel de tromper quelqu’un, et peut-être d’affecter sa vie de manière significative. Il peut s’agir d’influencer ses opinions politiques ou d’être utilisé dans un tribunal comme une fausse preuve. Ou, dans le cas des deepfakes pornographiques, ils affectent les personnes ciblées, tandis que les personnes qui les produisent veulent croire qu’ils sont réels pour leur satisfaction personnelle.

Et si c’est le cas, pourquoi ergoter à ce sujet ? Eh bien, si nous ne pouvons pas nous mettre d’accord sur ce qu’est et n’est pas un deepfake, cela rend le sujet difficile à aborder. Et tous les experts dans ce domaine affirment qu’une population informée est vitale pour combattre tout préjudice futur de cette technologie. Il y a aussi le danger que si nous utilisons le terme « deepfake » avec trop de désinvolture, il devienne omniprésent, une force culturelle qui dépasse l’impact réel de la technologie. Cela signifie que les personnes qui veulent nous tromper peuvent le coopter, en utilisant le terme (et la vague familiarité des gens avec lui) pour jeter le doute sur des preuves dont ils n’aiment pas l’apparence. C’est sans doute ce qui s’est passé avec les « fake news ».

Farid, expert en criminalistique numérique au Dartmouth College, a souligné que c’était peut-être le plus grand danger à court terme. « Je suis plus inquiet de ce que cela fait au contenu authentique », a déclaré Farid. « Pensez à Donald Trump. Si cet enregistrement audio de lui disant « grab’em by the » était rendu public aujourd’hui, il pourrait le nier de manière plausible. Il pourrait dire ‘quelqu’un a pu synthétiser cela’ et, qui plus est, il aurait raison. »

Livre de Donald Miller "Building a Story Brand"

Avoir une définition largement acceptée de ce qu’est un deepfake ne protégera pas contre ce genre de scénario, bien sûr. Mais, si l’on en croit les prédictions les plus sombres, et si nous nous dirigeons vers un monde où tout contenu audiovisuel peut être truqué, entraînant une méfiance à l’égard des médias, des tribunaux et d’autres institutions publiques, alors une définition claire faciliterait au moins le débat public sur ces questions. Si nous ne pouvons même pas parler le même langage, nous perdrons encore plus rapidement confiance les uns dans les autres.

Pourquoi avons nous besoin d’une meilleure définition du terme « deepfake » ?

par | Nov 22, 2021 | CRYPTOMONNAIES, Robots & IA | 0 commentaires