Le rapide développement des nouvelles technologies de biométrie faciale continue de changer notre quotidien, avec ses bons et ses mauvais côtés. En effet, les fraudes se multiplient mais sommes nous vraiment informés quant aux modus operandi des acteurs qui se cachent derrière ? Pas sûr.
Maintenant que vous avez les bases des connaissances sur la biométrie faciale, nous allons désormais évoquer dans ce second épisode, les différentes attaques possibles.
Pendant des décennies, la biométrie faciale ainsi que les éventuelles techniques pour contourner ce système de vérification d’identité relevaient tout simplement de la science-fiction. Désormais, ces technologies ne se limitent plus aux blockbusters. Les risques de faille sont bien présents et il faut être capable de les identifier pour les contrer. Pour vous donner une idée, la société d’identification ID.me a relevé plus de 80.000 tentatives de fraudes à l’identité aux États-Unis entre juin 2020 et janvier 2021.
Les fraudes sont de plus en plus courantes depuis le déploiement des différents services en ligne qui s’intègrent à notre quotidien. Ces phénomènes ont poussé la création de solutions adaptées et puissantes pour renforcer la sécurité des internautes sur les plateformes en ligne. Cependant, comme toute technologie, les fraudeurs cherchent tant bien que mal à trouver des failles dans lesquelles s’insérer.
Dans cet article, nous allons vous présenter les trois attaques les plus connues dans le monde de la biométrie faciale, mais aussi celles qui émergent et créent de nouveaux défis à relever pour les fournisseurs de solution de reconnaissance faciale.
L’une des grandes typologies d'attaque qui cherche à tromper un système biométrique est appelée “attaque par présentation”. Elle est définie comme étant une présentation au sous-système de capture biométrique ayant pour but d'interférer avec le fonctionnement global de vérification du système.
Ces menaces qui pèsent sur les systèmes biométriques peuvent prendre plusieurs formes parmi lesquelles les attaques de présentation d’artefacts dotés de caractéristiques biométriques dupliquées ou falsifiées sur la base de données :
Ce genre d’attaque intervient le plus souvent pour récupérer ou accéder à des données personnelles sensibles. Nous les avons répertorié en trois niveaux :
Le premier niveau d’attaque est l’utilisation d’une photo ou un screenshot sur l’écran d’un téléphone. Cet artefact est présenté face à la caméra au moment de la prise du selfie vidéo. Le fraudeur s’en sert pour essayer de duper les algorithmes de reconnaissance faciale en usurpant l’identité d’une personne.
Sur le même principe que le précédent, le deuxième niveau d’attaque est l’utilisation d’un masque en papier 2D/3D présenté face à la caméra. Considérée comme l’attaque la moins sophistiquée par sa simplicité, elle obtient malgré tout un bon pourcentage de réussite face à des systèmes peu robustes.
Le troisième niveau d’attaque est l’utilisation d’un masque 3D — de différents matériaux tels que le silicone ou le latex, dont la fabrication peut coûter d’une centaine jusqu’à plusieurs milliers d’euros selon la qualité de confection. Dans ce cas précis, le fraudeur a réussi à établir une capture 3D de la personne et à la reproduire sur un masque ultra-réaliste. Il faut parfois plusieurs mois afin d’établir ce genre d’attaque.
Mais alors comment s’assurer que les méthodes d'identification et d’authentification biométriques actuelles sont en capacité de vérifier une identité et donc de détecter ces attaques par présentation ?
Si les attributs biométriques (dupliqués ou falsifiés par le fraudeur) sont de haute qualité, logiquement les algorithmes de comparaison faciale indiqueront qu’il y a bien une correspondance avec l’identité de référence. Tout l’enjeu ici est donc de vérifier si l’utilisateur présumé est bien physiquement présent devant la caméra ou bien s’il s'agit d’un fraudeur qui cherche à simuler la présence d’une personne dont il veut usurper l’identité. C’est là que les algorithmes de détection du vivant entrent en jeu !
Également appelés techniques d’anti-spoofing, ces systèmes de détection du vivant peuvent se présenter sous deux formes :
→ actives : elles exigent que l’utilisateur effectue un certain mouvement aléatoire devant la caméra (comme cligner des yeux ou bouger la tête dans plusieurs directions, etc…)
→ passives : au contraire de la forme active, il est demandé de ne pas bouger son visage et de n’effectuer aucun mouvement devant la caméra
C’est donc pour garantir le service de la plus haute sécurité que les fournisseurs de solutions biométriques faciales soumettent leurs algorithmes à des tests. Ces derniers sont menés par des laboratoires spécialisés indépendants, selon le standard ISO/IEC 30107-3 relatif à la détection des attaques contre les présentations biométriques (PAD). Il s’agit d’évaluer les dites solutions dans la détection passive du vivant et la robustesse de leurs algorithmes face à la fraude.
L’efficacité de ces attaques par présentation s’est amoindrie au fur et à mesure que les fournisseurs de solutions de biométrie faciale ont amélioré leurs méthodes pour les contrer. En parallèle, les fraudeurs développent de nouvelles méthodes d’attaques plus sophistiquées, ce qui rend d’autant plus crucial la veille permanente des équipes de R&D dans le secteur biométrique et la mise en place de contre-mesures adéquates.
L’injection vidéo consiste à présenter informatiquement une vidéo ou court-circuiter le flux de la caméra physique en le remplaçant par celui d’une caméra virtuelle. La page web va alors récupérer ce flux ou celui d’une vidéo (qui a pu être pré-enregistrée ou numériquement modifiée) au lieu de celle prise en live .
L’injection vidéo, qui s’est développée depuis maintenant quelques années, est considérée comme la méthode d'attaque la plus aboutie, selon les acteurs du marché. Elles relèvent d’une forme de contournement du dispositif initial car la vidéo est injectée et non présentée physiquement à la caméra. Ceci signifie qu’elles dépassent le cadre de la plupart des tests PAD (Détection d’attaque par présentation) classiques.
Bien entendu, les fournisseurs de solutions biométriques mettent progressivement en place des mesures d’anti-injection permettant de contrer ces nouvelles attaques qui prennent de plus en plus d’ampleur dans le paysage actuel de la fraude. Celles mises en place chez Unissey vont notamment s’assurer de deux choses :
Avec la capacité de bloquer l’injection vidéo, Unissey est aussi capable de bloquer le deepfake, qui est une sous-catégorie du premier cité. Cependant, les deepfakes sont à l’heure actuelle la bête noire des technologies à biométrie faciale.
Le logiciel Deepfake peut créer une vidéo ou une image synthétique qui représente de manière réaliste n'importe qui dans le monde, même s'il n'a jamais réellement effectué cette action ou prononcé cette phrase. Des traitements vidéos puissants et de la réalité augmentée tirant parti de l'apprentissage automatique ont permis de créer des imitations profondes de n'importe qui, sans avoir besoin de connaissances approfondies en matière de réalisation vidéo et des effets spéciaux
L’histoire des deepfakes a démarré en 2014 avec l’ingénieur Ian Goodfellow. Alors qu’il était à l’Université de Stanford, il a étudié les possibilités d’utiliser des neurones artificiels pour créer des vidéos artificielles à partir d’images de personnes réelles. C’est en 2017 que cette technique s’est répandue, lorsqu’un utilisateur de Reddit surnommé « deepfake » a posté plusieurs vidéos érotiques sur le réseau social, où les visages des actrices ont été remplacés par les visages des célébrités. La publication a fait beaucoup de bruit, et le surnom de l’auteur a baptisé ce nouveau phénomène.
Les deepfakes peuvent également affecter différents domaines d’utilisation des technologies biométriques. Ainsi, une fraude notoire avec un système de reconnaissance faciale en 2021 a été révélée en Chine. En 2018, deux amis ont acheté des photos haute résolution sur le marché noir en ligne et les ont « relancées » à l’aide d’applications deepfake. Ensuite, ils ont acheté plusieurs smartphones avec un reflash, qui permet d’utiliser une vidéo préparée lors de l’identification, et non une image de la caméra frontale. Avec ce stratagème, les fraudeurs ont réussi pendant deux ans à tromper le système de vérification d’identité du service fiscal chinois et à échanger de fausses factures fiscales. Les dommages causés au Trésor chinois ont dépassé les 76 millions de dollars.
Ce type d'attaque est particulièrement utilisé contre le système d’identification basé sur des preuves vidéo. Si l'attaquant connaît toutes les étapes du processus et peut injecter la vidéo ou la présenter sur un écran, il peut tromper à la fois un système automatisé et un système qui utilise une technologie d'identification automatique.
Toutefois, il convient de noter que les attaques deepfake n'ont que deux moyens de pénétrer dans le système : soit en étant présentées à la caméra, soit en étant directement injectées dans le flux de la caméra.
Néanmoins, cette technologie a encore des restrictions qui ne peuvent être supprimées qu’à l’aide d’un traitement manuel minutieux. Il est également important de comprendre que tous les algorithmes de synthèse de faux visages sont basés sur la transformation d’images bidimensionnelles. Des techniques de contrôle supplémentaires qui détectent les artefacts numériques dits inévitables peuvent être utilisées pour reconnaître les deepfakes. Par exemple, un faux visage a souvent différentes nuances de couleur des yeux ou la distance entre le centre de la pupille et le bord de l’iris.
La bonne nouvelle est que les solutions biométriques modernes peuvent non seulement analyser les flux vidéo des caméras en temps réel, mais également les fichiers vidéo des archives, y compris l’identification des deepfakes potentiels sur les enregistrements.
La lutte contre les deepfakes est un défi sérieux, dont la réponse sera un développement encore plus dynamique des technologies. Plus les algorithmes de reconnaissance faciale deviennent sensibles et profonds, plus les tentatives des fraudeurs de les contourner sont sophistiquées. Cependant, à chaque fois, il devient de plus en plus difficile pour les créateurs de deepfakes de rechercher des « lacunes » dans les algorithmes biométriques.
Selon les prévisions, d’ici 2024, la précision de l’identification des deepfakes par les solutions de reconnaissance de contenu atteindra 70%, et d’ici 2030 - 90%. Cela signifie que, dans un avenir proche, l’opportunité de créer des deepfakes pour tromper les algorithmes biométriques sera grandement mise en doute, car ce processus deviendra long et complexe.
Prêts pour lutter contre la fraude à l’identité ?
Nos experts de la biométrie faciale se tiennent à votre disposition pour échanger sur vos besoins
S’inscrire à notre newsletter
Rejoignez notre Uni-News et retrouvez les dernières nouveautés de la biométrie faciale dans votre Inbox !