Deepfake, selfie vidéo et joli discours : les arnaques sentimentales entrent dans une nouvelle ère.
Il y a encore quelques années, une tentative d’arnaque ressemblait à un mail mal traduit, plein de fautes, avec une pseudo princesse en détresse. Aujourd’hui ? L’escroquerie s’est refait une beauté. Grâce à l’intelligence artificielle, on peut désormais générer une fausse vidéo bluffante : un visage expressif, un décor crédible, une voix douce, et bim… un message parfaitement calibré pour vous soutirer de l’argent.
Dans cet article, je vous montre un exemple de ce type de scénario, avec une vidéo montée à partir d’un avatar en selfie dans un parc. Un audio a été superposé à la vidéo, avec une voix humaine (pas robotique du tout) pour rendre la scène encore plus crédible. La fille vous parle comme si vous étiez ensemble depuis des mois, et au bout de quelques secondes, elle lâche la fameuse phrase :
« Je dois partir voir une copine aux États-Unis mais j’ai pas encore reçu mon salaire… Tu pourrais me faire un petit virement de 900€ ? »
Spoiler alert : non, tu ne devrais pas.
On pourrait en rire — et c’est le but ici aussi — mais le message est sérieux. Ce genre de manipulation devient beaucoup trop facile à produire. Et demain, elle le sera encore plus.
🎭 Deepfake et arnaques sentimentales : un scénario vieux comme le monde… boosté à l’IA
Les arnaques sentimentales ne datent pas d’hier. Des gens isolés, fragiles émotionnellement, qui tombent amoureux en ligne, il y en a toujours eu. Ce qui change aujourd’hui, c’est l’échelle et la puissance des outils à disposition des arnaqueurs.
- Créer une fausse identité avec des photos cohérentes ? C’est simple avec les IA génératives d’images.
- Générer une voix crédible avec le bon ton ? Il existe des dizaines d’outils gratuits ou peu chers qui le font.
- Créer une vidéo avec un faux avatar en train de parler ? Ça prend moins de 10 minutes aujourd’hui.
- Ajouter une vraie voix humaine ? Il suffit d’enregistrer un audio et de le coller sur l’animation.
Résultat : une vidéo émotionnellement engageante, qui peut tromper quelqu’un d’un peu crédule ou vulnérable — surtout si la relation à distance dure depuis des semaines.
🤖 La technologie avance… et les arnaques aussi
Ce qui fait peur, ce n’est pas uniquement ce que l’on peut déjà faire aujourd’hui avec les deepfakes. C’est la vitesse à laquelle ça évolue. La vidéo que j’ai faite est encore perfectible : on voit que c’est un peu “monté”, on sent que c’est scripté. Mais dans six mois ? Dans un an ?
Les deepfakes deviennent de plus en plus indétectables, même pour des yeux aguerris. Certaines IA sont déjà capables d’imiter la voix de quelqu’un avec 10 secondes d’enregistrement, et d’autres peuvent cloner le style de communication d’une personne à partir de ses anciens messages ou vidéos.
Imaginez demain : une vidéo réaliste de votre propre sœur, votre meilleur ami ou votre enfant, vous demandant de l’aide… Vous êtes certain(e) de ne pas vous faire avoir ?
🧠 Deepfake pourquoi ça marche ?
Ce que les arnaqueurs ont compris depuis longtemps, c’est que les émotions court-circuitent la logique. Et avec l’IA et les deepfakes, ils ont entre les mains un outil de mise en scène redoutable.
En combinant :
- Un visage crédible
- Une voix douce ou familière
- Un discours bien calibré (amour, urgence, culpabilité…)
… ils créent un climat de confiance rapide. Et une fois que l’émotion est là, on baisse la garde. C’est là que l’arnaque frappe.
🚨 Des signaux d’alerte à ne pas ignorer
Heureusement, il reste quelques signes pour repérer ces manipulations, même si elles deviennent subtiles :
- On vous met sous pression émotionnelle : “si tu m’aimes, tu comprendras”, “je suis au bout de ma vie”, etc.
- Le discours tourne vite autour de l’argent ou d’un service urgent ;
- La personne évite les appels vidéo “spontanés” et préfère des vidéos préenregistrées ;
- Le récit comporte des éléments dramatiques : voyage urgent, accident, maladie, salaire bloqué…
Astuce utile : si quelqu’un vous envoie une vidéo où il parle, demandez toujours un appel vidéo en direct. Et méfiez-vous des excuses (« j’ai plus de batterie », « je suis au boulot », « ma caméra bug »).

🛡️ Deepfake : Mieux vaut prévenir que pleurer 900€
L’objectif de cet article n’est pas de paniquer tout le monde, mais de rappeler que la vigilance numérique est plus que jamais nécessaire. On est entrés dans une ère où l’image, le son et même les émotions peuvent être simulés avec une qualité stupéfiante.
Alors, autant apprendre à décoder ces nouveaux pièges.
Et si la vidéo que j’ai faite permet ne serait-ce qu’à une personne de se dire :
“Attends, c’est peut-être un peu louche tout ça…”
alors elle aura servi à quelque chose.
📢 Deepfake conclusion : l’arnaque du futur est déjà là
Aujourd’hui, faire croire à une histoire d’amour, une urgence ou un chantage affectif, ça peut se faire en quelques clics. Entre les deepfakes et les outils d’IA, on a entre les mains des technologies puissantes qui, mal utilisées, deviennent de véritables armes de manipulation.
Ce n’est pas parce qu’une vidéo semble “vraie” qu’elle l’est. Ce n’est pas parce qu’une voix semble humaine qu’elle l’est.
Et ce n’est pas parce qu’un message vous touche que vous devez baisser votre vigilance.
Alors, ouvrez l’œil. Et n’envoyez pas 900€ à n’importe qui, même s’il/elle vous dit “mon amour” avec un joli filtre et une voix douce.