Détection du vivant

06

/

06

/

2024

06

/

06

/

2024

time

min de lecture

Comment la fraude d'identité par deepfakes remet-elle en cause la vérification de l'identité ?

S’inscrire à notre newsletter

Rejoignez notre Uni-News et retrouvez les dernières nouveautés de la biométrie faciale dans votre Inbox !

Ces dernières années, l'intelligence artificielle a connu des avancées remarquables, en particulier dans le domaine de l'apprentissage profond. L'une des applications les plus alarmantes de cette technologie est la création de « deepfakes », des vidéos et des enregistrements audio très réalistes mais faux. Si les deepfakes ont été utilisés à des fins ludiques et artistiques, leur potentiel d'utilisation abusive est important, en particulier dans le contexte de la vérification d'identité et de la fraude.

Voyons comment fonctionne la fraude d'identité par deepfake et les différents moyens de la combattre.

Fraude d'identité par Deepfake : quand l'IA devient une menace

Les Deepfakes exploitent l'IA et les algorithmes d'apprentissage automatique pour créer de fausses images, vidéos et sons convaincants de personnes réelles. Ces faux peuvent être utilisés pour usurper l'identité de personnes dans divers scénarios, de l'accès à des systèmes sécurisés à l'escroquerie auprès d'entreprises et de particuliers. Le processus implique généralement :

  1. Collecte de données : Collecte d'images, de vidéos et de sons de la personne ciblée. Ces données proviennent souvent de profils de médias sociaux, d'apparitions publiques et d'autres plateformes en ligne.
  2. Formation de modèles : Utilisation de ces données pour former des modèles d'IA capables d'imiter les expressions faciales, la voix et les manières de la cible.
  3. Synthèse : Générer le contenu du deepfake, qui peut ensuite être utilisé pour tromper des opérateurs humains ou des systèmes automatisés.

La prolifération de la technologie deepfake a donné lieu à plusieurs cas très médiatisés d'usurpation et d'abus d'identité :

  • Les imitations de célébrités : Des imitations profondes de célébrités ont été utilisées pour créer de fausses approbations ou manipuler les cours des actions en les représentant faussement en train de faire des annonces commerciales importantes.
  • Escroqueries financières : Au début de l'année 2024, une entreprise britannique a été amenée à transférer 25 millions de dollars à des fraudeurs après qu'un employé du service financier a été convaincu qu'il parlait à son patron, dont la voix avait été imitée à l'aide d'une technologie d'imitation profonde.
  • Désinformation politique : Les « deepfakes » ont également été utilisés pour créer de fausses vidéos d'hommes politiques, susceptibles d'influencer les élections et l'opinion publique.

Le manque de données concrètes sur les usurpations d'identité liées aux deepfakes rend difficile la quantification du problème. Toutefois, un rapport publié en 2020 par PIXM estime que la fraude à l'identité synthétique pourrait coûter aux entreprises la somme stupéfiante de 1 000 milliards de dollars à l'échelle mondiale d'ici à 2022. Ces chiffres mettent en évidence le fardeau financier que représentent les deepfakes pour les entreprises comme pour les particuliers.

Fraude d'identité par Deepfake : Combattre l'IA par l'IA

L'identification des « deepfakes » reste un défi de taille. Une étude de l'Institut de recherche Idiap a révélé que seuls 24 % des participants pouvaient identifier correctement les deepfakes, même lorsqu'ils s'y attendaient (document en anglais). Ce pourcentage diminue encore dans des scénarios réels où les individus ne sont pas préparés à détecter de telles fraudes. Les entretiens vidéo, une pratique courante dans les demandes d'emploi à distance, sont particulièrement vulnérables car les deepfakes peuvent simuler des problèmes de bande passante ou d'autres artefacts vidéo pour masquer les imperfections.

Compte tenu de la menace croissante que représentent les « deepfakes », il est urgent de mettre en place des contre-mesures efficaces. La solution la plus prometteuse est l'utilisation de la biométrie faciale pour la détection de l'authenticité afin de s'assurer que les données biométriques analysées proviennent d'une personne en chair et en os plutôt que d'une vidéo préenregistrée ou d'une vidéo truquée. Mais l'essor des contenus générés par l'IA constitue une menace importante pour l'intégrité des systèmes de sécurité biométrique. Selon Gartner, Inc. 30 % des entreprises pourraient remettre en question la fiabilité des technologies biométriques faciales d'ici 2026, ce qui souligne la nécessité urgente de s'attaquer à ce problème croissant.

Pour se prémunir contre la fraude d'identité par deepfake, les organisations doivent s'associer à des fournisseurs de détection de la vivacité, tels qu'Unissey, qui s'attaquent de manière proactive aux vulnérabilités de deepfake et s'adaptent rapidement aux nouveaux défis. Pour garder une longueur d'avance sur ces menaces, il faut mettre en œuvre les mesures de sécurité les plus récentes et faire preuve d'une vigilance constante en surveillant l'exploitation de la technologie deepfake.

En effet, toutes les solutions de détection de la vivacité ne se valent pas. Lutter contre les attaques de présentation est un besoin fondamental, et même dans ce cas, pour certaines d'entre elles, leur niveau de sécurité peut ne pas atteindre les exigences de la norme ISO30107. Mais c'est une autre histoire... Quand on sait que la plupart des fraudes d'identité par deepfake sont réalisées par des attaques par injection vidéo, qui ont augmenté de 200% en 2023 selon la même étude Gartner, il devient évident que les entreprises doivent s'équiper de solutions de détection de présence qui non seulement couvrent tous les types d'attaques mais ont également prouvé leur robustesse face à des attaques très sophistiquées. Découvrez comment choisir votre partenaire en biométrie faciale dans cet article.

Conclusion

La technologie deepfake continue d'évoluer, tout comme les stratégies de détection et de prévention de son utilisation abusive. Les organisations modernes doivent investir dans des solutions robustes et certifiées de détection de la vivacité pour protéger leurs systèmes contre ces menaces sophistiquées. En tirant parti de la technologie biométrique avancée et en gardant une longueur d'avance sur les innovations frauduleuses, les entreprises peuvent protéger leurs informations sensibles et maintenir l'intégrité de leurs opérations dans un monde de plus en plus numérique.

Prêts pour lutter contre la fraude à l’identité ?

Nos experts de la biométrie faciale se tiennent à votre disposition pour échanger sur vos besoins

S’inscrire à notre newsletter

Rejoignez notre Uni-News et retrouvez les dernières nouveautés de la biométrie faciale dans votre Inbox !

Plus d’articles de cette catégorie