Au cours des cinq dernières années, les fraudes à l'identité par deepfake ont connu une croissance exponentielle, posant de sérieux défis aux individus, aux entreprises et aux gouvernements du monde entier. Comme nous l’avons vu dans notre précédent article, les deepfakes sont devenus des outils puissants pour les cybercriminels cherchant à usurper des identités et à commettre diverses formes de fraude.
Cet article explore certaines des fraudes à l'identité par deepfake les plus marquantes de cette période, illustrant l'évolution et la sophistication croissantes de ces menaces.
Cette histoire a fait la une des journaux ! Un employé d'une grande multinationale hongkongaise a été victime d'une escroquerie utilisant l'intelligence artificielle et la technologie du deepfake. Trompé par une fausse visioconférence, il a transféré près de 26 millions de dollars à des cybercriminels.
Tout a commencé par un e-mail prétendument envoyé par le directeur financier de l'entreprise, basé à Londres, demandant une transaction secrète. Méfiant au départ, l'employé a été rassuré après avoir participé à une visioconférence où il reconnaissait ses collègues et son supérieur. Ce qu’il ignorait, c’est que tous les participants étaient des deepfakes, créés à partir de vidéos et d’audios publics modifiés grâce à l’IA.
Convaincu de l’authenticité de la demande, il a effectué 15 virements sur différents comptes bancaires, avant de réaliser une semaine plus tard qu’il avait été piégé.
Un réseau d'escroquerie sentimentale utilisant l'intelligence artificielle a été démantelé en Asie. Le "gang du deepfake romance" a réussi à extorquer 46 millions de dollars à des hommes célibataires d’Inde, Taïwan et Singapour en créant des profils féminins entièrement fictifs grâce aux deepfake.
Les 27 suspects arrêtés, âgés de 21 à 34 ans, étaient tous diplômés en technologies numériques. Ils utilisaient des vidéos, images et audios truqués pour créer des personnages adaptés à chaque victime. Leur mode opératoire consistait à initier une conversation par message, puis à développer une relation amoureuse virtuelle.
La police a même découvert un manuel de formation détaillant les techniques pour exploiter les émotions des victimes et les pousser à investir dans des plateformes de cryptomonnaie frauduleuses. Cette arnaque a duré près d'un an avant d'être démantelée par les autorités de Hong Kong.
Les arnaques par deepfake, exploitant l'intelligence artificielle pour usurper l'identité de célébrités, sont en recrudescence. Florent Pagny en a récemment été victime. En août 2024, le chanteur a alerté ses fans sur une escroquerie utilisant des vidéos deepfake de lui. Ces contenus imitent parfaitement sa voix et son apparence. Une fan a ainsi été arnaquée de plusieurs centaines d'euros.
Un autre cas marquant est celui d’une femme qui a cru pendant deux ans entretenir une relation avec l’acteur Martin Henderson, vu dans Virgin River et Grey’s Anatomy. Séduite en ligne par un imposteur utilisant des deepfakes et des messages vocaux générés par IA, elle lui a envoyé 375 000 dollars, persuadée qu’il voulait construire une vie avec elle. Elle a découvert la supercherie lorsqu’elle a réalisé que le véritable acteur vivait en Nouvelle-Zélande, loin des prétendues mésaventures racontées par l’escroc.
L'utilisation de deepfakes dans la sphère politique est devenue une préoccupation majeure ces dernières années, menaçant l'intégrité des processus démocratiques et semant le trouble dans l'opinion publique. Deux exemples marquants illustrent l'ampleur de ce phénomène et ses conséquences potentiellement dévastatrices.
En 2023, une vidéo deepfake du président ukrainien Volodymyr Zelensky a circulé sur les réseaux sociaux, le montrant en train d'appeler ses troupes à se rendre face à l'invasion russe. Bien que rapidement identifiée comme un faux, cette vidéo a momentanément semé la confusion et l'inquiétude parmi la population ukrainienne et la communauté internationale. Cet incident a mis en lumière la capacité des deepfakes à déstabiliser un pays en temps de crise et à potentiellement influencer le cours d'un conflit.
Un autre cas a eu lieu en Inde, en 2020, lors des élections législatives de Delhi. Le parti politique BJP a utilisé un deepfake de son leader Manoj Tiwari pour diffuser un message en plusieurs langues qu’il n’avait jamais réellement prononcé. L’objectif était de toucher un plus large électorat en le faisant parler en haryanvi, un dialecte local. Bien que cette utilisation ait été revendiquée par le parti, cela a suscité un débat sur l’éthique et la régulation de ces technologies en politique.
Conclusion :
Les cas de fraude à l'identité par deepfake des cinq dernières années montrent clairement que cette technologie est devenue une menace sérieuse pour la sécurité numérique. De l'arnaque financière à la manipulation politique, en passant par l'escroquerie sentimentale, les deepfakes ont prouvé leur capacité à causer des dommages considérables.
Alors que nous entrons dans une ère où la distinction entre le réel et le faux devient de plus en plus floue, il est crucial que tous les acteurs de la société - entreprises, gouvernements, chercheurs et citoyens - travaillent ensemble pour développer des solutions efficaces. La lutte contre les fraudes par deepfake nécessitera une approche multidimensionnelle, combinant avancées technologiques, éducation du public et adaptation du cadre juridique.
Prêts pour lutter contre la fraude à l’identité ?
Nos experts de la biométrie faciale se tiennent à votre disposition pour échanger sur vos besoins
S’inscrire à notre newsletter
Rejoignez notre Uni-News et retrouvez les dernières nouveautés de la biométrie faciale dans votre Inbox !