Une explosion des tentatives de fraude par deepfake
Au cours des trois dernières années, les tentatives de fraude par deepfake ont augmenté de 2137%, représentant désormais 6,5% du total des fraudes détectées dans le secteur financier. C’est ce que révèle le rapport The Battle Against AI-Driven Identity Fraud de Signicat, qui met en garde contre les nouveaux défis de sécurité liés aux avancées en intelligence artificielle (IA).
L’étude, basée sur des enquêtes auprès de plus de 1200 experts en fraude d’institutions financières dans sept pays européens, indique que la usurpation d’identité via des deepfakes est désormais l’une des principales formes de fraude numérique, surpassant des méthodes traditionnelles comme le phishing et la fraude aux paiements par carte.
Deux types d’attaques utilisant des deepfakes
Le développement de la technologie deepfake a permis aux cybercriminels d’employer deux types principaux d’attaques :
- Attaques de présentation : elles incluent l’utilisation de masques, de maquillage ou la projection d’un deepfake en temps réel pour usurper l’identité d’une personne. Ces techniques sont utilisées dans des fraudes, telles que la prise de contrôle de comptes ou les demandes de prêts frauduleuses.
- Attaques d’injection : elles impliquent l’introduction de vidéos préenregistrées ou de données altérées dans les systèmes de vérification, affectant les processus d’intégration, l’authentification KYC et la validation d’identité dans les banques et les fintechs.
Une menace croissante dans le domaine du fraude financière
Les deepfakes sont passés d’une technologie émergente à une méthode sophistiquée de fraude. Selon le rapport, 42,5 % des tentatives de fraude dans le secteur financier sont déjà alimentées par l’IA. En seulement trois ans, la fraude par deepfake est passée d’un phénomène marginal à une forme courante de fraude d’identité numérique.
Déficiences dans les systèmes de détection
Malgré l’augmentation des attaques par IA, seulement 22 % des institutions financières ont mis en place des outils avancés de prévention de la fraude basés sur l’IA. Ce retard expose de nombreux acteurs du secteur à des techniques que les systèmes traditionnels de détection ne peuvent pas identifier avec précision.
Pinar Alpay, responsable produit et marketing chez Signicat, avertit : « Il y a trois ans, les attaques par deepfake représentaient seulement 0,1 % des fraudes détectées. Aujourd’hui, elles constituent 1 cas sur 15, ce qui témoigne d’une évolution alarmante des techniques utilisées par les cybercriminels. Pour se protéger, les entreprises doivent combiner une évaluation précoce des risques, une vérification d’identité robuste et une authentification biométrique faciale. »
L’avenir de la lutte contre la fraude par l’IA
Pour atténuer cette menace croissante, les experts recommandent d’adopter une approche de sécurité multicouche, qui combine :
- Systèmes de détection basés sur l’IA pour identifier les comportements suspects.
- Biométrie avancée pour valider l’identité des utilisateurs.
- Surveillance continue et outils d’analyse en temps réel.
- Éducation et sensibilisation des clients et des employés aux risques de fraude numérique.
Le rapport de Signicat souligne l’urgence de moderniser les systèmes de prévention de la fraude au sein des institutions financières pour faire face à une menace évoluant à un rythme sans précédent. Avec l’intelligence artificielle propulsant la fraude à une échelle industrielle, le secteur financier est confronté à un défi critique nécessitant des mesures immédiates et des stratégies innovantes pour garantir la sécurité numérique.
Source : Signicat