Warren Buffett met en garde contre les escroqueries par IA comme une industrie en plein essor.

Le célèbre investisseur américain Warren Buffett a récemment déclaré lors d’une interview qu’il était préoccupé par l’essor de l’IA, une technologie qu’il « ne comprend pas » mais dont le potentiel pour les escroqueries lui semble très clair. Selon Buffett, l’industrie des escroqueries alimentées par l’IA est sur le point d’exploser, et venant de quelqu’un qui a consacré sa vie à anticiper le succès d’autres entreprises, cet avertissement est de poids.

Il est certain que le potentiel de l’IA pour imiter le contenu de toutes sortes est effrayant. Le lancement de ChatGPT a mis en évidence pour la première fois la capacité de l’IA à simuler le comportement humain avec un degré de précision presque indiscernable, comme c’est le cas lors de la rédaction de textes. De plus en plus de textes circulent, rédigés entièrement par ChatGPT, tandis que la créativité humaine est reléguée au second plan.

La capacité de ChatGPT à créer des textes cohérents en quelques secondes permet aux cybercriminels et aux escrocs de rédiger des escroqueries dans presque n’importe quelle langue sans même avoir besoin de savoir la parler. Cela se traduit par une série d’email frauduleux ou de messages de smishing qui présentent un degré de crédibilité bien supérieur aux tentatives d’escroquerie précédentes, augmentant ainsi leur taux de succès.

Le danger des ‘deepfakes’

Mais l’intelligence artificielle ne se limite pas aux textes de ChatGPT. Ces derniers mois, de plus en plus de fausses photographies réalisées avec des applications d’IA comme Midjourney ou DALL-E apparaissent. Ces photographies sont utilisées à des fins de propagande, de désinformation ou d’escroqueries numériques, et le pire, c’est qu’elles peuvent être générées très facilement à partir d’une simple description de texte.

Des applications malveillantes permettent même de prendre une photographie d’une personne réelle et de créer des images ou des vidéos truquées où cette personne apparaît dans des postures sexuelles, chose qui a provoqué de nombreux problèmes dans différents lycées en Espagne. Les femmes, et surtout les adolescentes, sont les principales victimes de ce type de ‘deepfakes’, qui peuvent parfois avoir des conséquences dévastatrices ou même conduire au suicide.

Pire encore, l’intelligence artificielle permet de créer des vidéos qui dupliquent également la voix des personnes qui y apparaissent, ce qui pourrait générer des vidéos fausses de personnalités publiques comme Joe Biden ou Pedro Sánchez disant quelque chose qu’ils n’ont jamais dit. Cela inquiète les spécialistes car on s’attend à un véritable déferlement de vidéos ‘deepfake’ dans les mois précédant toute période électorale, ce qui peut influencer le résultat du vote.

Les escroqueries peuvent affecter les familles

Warren Buffett mentionne même la possibilité que les ‘deepfakes’ soient utilisés pour escroquer toute personne par la falsification de vidéos de ses proches. On pourrait dupliquer l’apparence des enfants de quelqu’un pour lui envoyer des vidéos lui demandant de l’argent. Cette escroquerie est connue sous le nom de ‘proche en difficulté’ et jusqu’à présent, elle se faisait par l’envoi de messages textes avec une photo de profil falsifiée.

Maintenir nos données privées hors de portée des cyberattaquants devient donc une mesure de cybersécurité essentielle si nous voulons prévenir le risque de subir des escroqueries de ce type. Les cyberattaquants ont besoin d’échantillons de la voix ou du visage d’une personne pour pouvoir créer ce type de vidéos faux, il est donc nécessaire de réduire au minimum la quantité de photos et vidéos personnelles que nous partageons sur les réseaux.

De même, l’utilisation d’une VPN nous aidera à réduire le risque de fuites de données par des attaques de l’homme du milieu grâce à son système de chiffrement robuste. Et, bien sûr, garder un antivirus mis à jour protégeant nos appareils est essentiel pour nous défendre contre le logiciel malveillant. Le danger des ‘deepfakes’ est très réel, nous ne devons donc pas négliger l’importance d’une cybersécurité robuste.

L’absence de régulation est un problème

Bien que l’intelligence artificielle ait un grand potentiel pour aider l’humanité, elle reste un outil extrêmement puissant qui peut être utilisé à des fins nuisibles. Et le problème, c’est qu’elle n’est pas réglementée de manière adéquate par aucun gouvernement. De plus, même si des institutions comme le Parlement Européen établissaient des réglementations strictes autour de l’IA, celles-ci ne seraient pas très utiles si les IA opèrent depuis l’extérieur de l’Europe.

En l’absence de mesures réglementaires appropriées et, surtout, d’un grand pacte mondial pour tenir en échec l’intelligence artificielle, on peut s’attendre à une augmentation considérable des piratages et escroqueries où l’IA joue un rôle central. Si nous ne voulons pas tomber victimes de ce type de cyberattaques, le mieux que nous puissions faire est de contrôler de manière stricte ce que nous publions sur le net et de rester attentifs face à des contenus faux potentiels.

le dernier