Brett Johnson, le hacker légendaire qui prévient : l’avenir de la cybercriminalité sera une usine d’escroqueries alimentée par l’IA

Brett Johnson, le hacker légendaire qui prévient : l'avenir de la cybercriminalité sera une usine d'escroqueries alimentée par l'IA

Depuis des années, la principale menace sur Internet portait un nom : des personnes comme Brett Johnson, l’un des cybercriminels les plus connus du début des années 2000. Aujourd’hui, ce même ancien hacker, qui a quitté la criminalité pour collaborer avec les autorités, lance une alerte percutante : le vrai danger qui nous attend ne vient plus des individus, mais de l’intelligence artificielle.

Son diagnostic n’est pas une simple formule choc. Johnson décrit un avenir proche où les escroqueries ne seront plus conçues par des criminels isolés tapant sur leur clavier, mais par des systèmes automatisés capables d’écrire, de parler, d’imiter des visages et de gérer des milliers de victimes simultanément. Une organisation criminelle où l’humain devient de plus en plus superflu… sauf comme cible.


De la Dark Web à la “fabrique” d’arnaques

Pour comprendre le poids de ses avertissements, il faut se rappeler qui est Brett Johnson. Il fut l’un des fondateurs et administrateurs de ShadowCrew, un forum pionnier où des milliers de délinquants échangeaient identités volées, cartes bancaires et techniques de fraude. Cet écosystème est considéré comme l’un des précurseurs de la dark web moderne.

Pendant plus d’une décennie, Johnson a vécu du cybercrime : vol d’identités, revente de données bancaires, avec des revenus dépassant les 100 000 dollars par mois, atteignant même 500 000 dollars lors de ses pics, alors qu’il était recherché par les autorités américaines. Après son arrestation et sa détention fédérale, il a collaboré avec les forces de l’ordre, notamment le Secret Service américain.

Cette double expérience — ancien criminel devenu expert en cybercriminalité — lui permet aujourd’hui d’affirmer que l’échelle du problème a changé. Si autrefois le risque venait d’un délinquant habile utilisant quelques outils, il s’agit désormais d’une industrie intégrée de fermes d’arnaques, d’intelligence artificielle générative et de nouvelles méthodes de vol d’identité.


Deepfakes : quand il devient impossible de faire confiance à ce que l’on voit ou entend

Le premier signe de cet avenir est représenté par les deepfakes. Johnson partage l’avis de nombreux spécialistes : cette technologie passe d’un phénomène viral curiosité à un outil central du fraudeur.

Les criminels utilisent déjà des vidéos et des audios générés par IA pour se faire passer pour des dirigeants, des proches ou des employés. Un cas typique est celui d’un employé financier ayant autorisé des transferts de plus de 25 millions de dollars après un appel vidéo avec des “collègues” qui, en réalité, étaient des créations IA. Cela illustre clairement comment le fraude technologique évolue : il n’est plus nécessaire de compromettre un système si l’on peut duper ceux qui ont déjà accès.

Le danger ne réside pas uniquement dans la finesse technique des copies, de plus en plus réalistes, mais aussi dans la rapidité d’exécution. Les modèles d’IA peuvent :

  • Analyser rapidement des modèles de voix à partir de peu d’enregistrements.
  • Générer des réponses personnalisées en temps réel.
  • Ajuster le discours en fonction de la réaction de la victime, comme si une vraie personne dialoguait.

Concrètement, cela signifie que des criminels peuvent « gagner la confiance » instantanément, en se faisant passer pour quelqu’un que la victime considère déjà comme fiable. Plutôt que d’investir des semaines ou des mois à gagner en crédibilité, il suffit de reproduire numériquement un supérieur, un proche ou un conseiller bancaire.

Dans cet avenir que Johnson imagine, l’adage “Ne crois pas tout ce que tu vois sur Internet” passera d’un conseil prudent à une règle de survie numérique incontournable.


Fermes d’arnaques : du “loup solitaire” à la grande entreprise criminelle organisée

La seconde évolution majeure de ce futur est incarnée par les fermes d’arnaques. Il s’agit d’opérations structurées comme de véritables entreprises, où des dizaines ou centaines de personnes travaillent par équipes pour commettre des fraudes.

Ces systèmes existent déjà : des immeubles bondés de travailleurs — souvent victimes de traite ou d’escroqueries liées à l’emploi — qui orchestrent des campagnes massives de tromperie. Certaines spécialisées dans le pig butchering ou “dégraissage du porc” : des arnaques à long terme où le fraudeur bâtit une relation de confiance sur des semaines ou des mois pour inciter la victime à investir toutes ses économies dans de fausses cryptomonnaies ou produits financiers.

Ce qui change avec la IA, c’est la capacité d’étendre ce modèle :

  • Adapter automatiquement un même scénario à des milliers de victimes selon leur langue, âge ou profil économique.
  • Utiliser des chatbots avancés pour maintenir plusieurs conversations simultanément, sans intervention humaine.
  • Créer en quelques minutes des sites web falsifiés, des documents, des captures d’écran ou des dashboards d’investissement à l’aspect professionnel.

Johnson explique que, contrairement aux années 90-2000 où la criminalité cyber se structurant très souvent de manière informelle, aujourd’hui le cybercrime ressemble à une multinationale : hiérarchies, superviseurs, objectifs commerciaux… et dans le futur, des systèmes IA qui automatiseront une grande partie de “l’aspect émotionnel” de l’escroquerie.


Identités synthétiques : personnes inexistantes et fraude à peine visible

La troisième composante de ce futur est celle des identités synthétiques. Il ne s’agit pas de voler l’identité complète d’une personne, mais de fabriquer une figure fictive en mêlant des données réelles (numéro de document, informations partielles) avec des données inventées.

Ces identités numériques peuvent comporter :

  • Un historique de crédit construit sur des petites opérations régulières, toutes payées.
  • Des comptes bancaires et cartes à leur nom.
  • Une présence crédible sur les réseaux sociaux et en ligne.

Selon Johnson, la fraude par identités synthétiques est devenue la méthode numéro un de vol d’identité dans le monde, responsable d’environ 80 % des fraudes sur de nouveaux comptes, en plus d’un pourcentage important de remboursements et de dettes liées aux cartes de crédit.

Le souci pour les banques et commerçants est qu’il n’y a pas de “victime” classique qui dépose plainte : la personne n’a jamais existé. La fraude est généralement découverte tardivement, quand les institutions constatent que certains crédits ou lignes de crédit ne seront jamais remboursés.

Dans ce contexte, l’IA joue un double rôle :

  • Facilite la création de masses d’identités factices à grande échelle.
  • Permet de faire évoluer ces identités via des publications, photos générées par IA et activités numériques crédibles.

Dans un avenir proche, un groupe criminel pourrait gérer des milliers de “personnes” inexistantes, toutes actives dans le monde financier et numérique.


Vers où va ce futur ? IA contre IA dans la lutte contre la fraude

Le récit de Brett Johnson n’est pas qu’une mise en garde : c’est une anticipation du rapport de forces dans Internet pour les prochaines années. Si les criminels exploitent l’IA pour industrialiser la fraude, la riposte ne pourra plus se limiter à l’intervention humaine seule.

Les institutions financières, les plateformes technologiques et les autorités publiques travaillent — avec plus ou moins de succès — sur plusieurs axes :

  • Systèmes de détection basés sur l’IA, capables de repérer des comportements anormaux même lorsque les données d’identité semblent cohérentes.
  • Vérification renforcée de l’identité, combinant biométrie, détection de vitalité (liveness detection) et vérifications croisés avec divers organismes.
  • Limites de risque pour les nouveaux comptes, notamment pour les crédits et paiements digitaux.
  • Collaboration internationale visant à identifier les infrastructures de fermes d’arnaques, réseaux de malware et outils criminels.

Parallèlement, des experts comme Johnson insistent sur l’importance de conserver une vigilance “analogique” : geler le crédit quand c’est possible, activer des alertes, utiliser des mots de passe uniques et des gestionnaires, recourir à la double authentification, et faire preuve d’extrême prudence dans le partage sur les réseaux sociaux.

Le futur imaginé par cet ancien hacker n’est pas inévitable, mais il paraît crédible : un écosystème où les machines rédigent le courriel frauduleux, fabriquent la tête du faux dirigeant, maintiennent la visioconférence, créent l’identité synthétique pour ouvrir un compte… et où le premier filtre reste encore souvent un utilisateur vigilant ou un système de détection efficace.

La question est de savoir si les défenses — humaines comme automatiques — seront en capacité de freiner à temps une industrie de la fraude dont l’IA devient le moteur principal, et pas seulement un outil auxiliaire.


Questions fréquentes sur les nouvelles menaces de fraude alimentées par l’IA

Qu’est-ce qu’un deepfake, et pourquoi est-ce si dangereux dans la fraude financière ?
Un deepfake est un contenu créé par intelligence artificielle qui imite la voix, le visage ou les gestes d’une personne réelle en vidéo ou en audio. Dans le domaine financier, cela devient particulièrement dangereux car cela permet aux criminels de se faire passer pour des dirigeants, des employés ou des proches, et d’inciter la victime à effectuer des transferts, divulguer des mots de passe ou enfreindre des protocoles de sécurité.

En quoi la fraude par identités synthétiques diffère-t-elle du vol d’identité traditionnel ?
Dans le vol d’identité classique, un criminel utilise presque tous les renseignements d’une personne réelle pour se faire passer pour elle. Avec la fraude par identités synthétiques, on construit un individu fictif en combinant des données réelles (par exemple, un numéro de document) avec des données inventées, créant ainsi un “nouveau client” inexistant dans le monde physique. Cette fausse identité peut ouvrir des comptes, demander des crédits et générer des dettes qu’on découvre souvent tardivement.

Quel rôle jouent les fermes d’arnaques dans ce nouveau contexte ?
Les fermes d’arnaques sont des structures organisées, opérant comme des entreprises illégales : de nombreux employés, travaillant par équipes, sous la supervision de responsables, pour réaliser des escroqueries. La IA leur permet d’automatiser ces opérations, d’adapter les dialogues, et de personnaliser leurs messages pour des milliers de victimes simultanément. On passe d’un “loup solitaire” à une organisation entière, appuyée par des outils IA génératifs.

Que peut faire une personne ordinaire pour se protéger face à ces menaces émergentes ?
Les experts recommandent de combiner mesures techniques et comportementales : geler le crédit pour empêcher la création de nouveaux comptes, activer des alertes en banque, utiliser des mots de passe uniques et gestionnaires, recourir à la double authentification et faire preuve de prudence avec tout message exigeant des données ou argent rapidement, même si la demande semble provenir d’une personne connue par la voix ou la vidéo. En cas de doute, il est toujours conseillé de vérifier par un autre canal.

Sources : businessinsider et Noticias inteligencia artificial

le dernier