OpenAI expose l’utilisation malveillante de l’IA dans la désinformation, les cyberattaques et les fraudes

OpenAI subit une vague de départs qui met l'entreprise en péril

OpenAI publie un nouveau rapport sur les menaces émergentes liées à l’utilisation abusive de l’intelligence artificielle

OpenAI a récemment dévoilé un rapport alertant sur les dangers croissants associés à l’utilisation abusive de ses modèles d’intelligence artificielle. L’entreprise souligne comment des acteurs étatiques et des cybercriminels tentent d’exploiter ses outils à des fins de désinformation, de fraudes financières et de cyberattaques.

Désinformation : l’IA comme arme de manipulation globale

Parmi les principales conclusions du rapport figure l’utilisation croissante de l’intelligence artificielle dans les campagnes d’influence politique et de désinformation sur les réseaux sociaux. OpenAI a identifié des groupes liés à la Chine et à l’Iran qui utilisent sa technologie pour générer des articles, des commentaires sur les réseaux sociaux et des messages de propagande destinés à manipuler l’opinion publique.

Dans un cas précis, des comptes automatisés ont été découverts utilisant ChatGPT pour rédiger des articles en espagnol critiquant la politique extérieure des États-Unis, publiés dans des médias numériques d’Amérique latine. Des efforts ont également été observés pour traduire et adapter la propagande en plusieurs langues afin de maximiser son impact mondial.

OpenAI affirme avoir pris des mesures pour bloquer et démanteler ces efforts, tout en partageant ses découvertes avec des plateformes telles que Meta et X (anciennement Twitter) pour renforcer la détection des contenus générés artificiellement.

Fraudes numériques et arnaques amoureuses à l’aide de l’IA

Une autre utilisation malveillante soulevée dans le rapport concerne les escroqueries liées à l’emploi et les escroqueries amoureuses.

Des groupes reliés à la Corée du Nord auraient utilisés l’IA pour générer des réponses automatisées lors de fausses interviews d’embauche, cherchant à infiltrer des entreprises technologiques occidentales. Ces attaques visent à accéder à des informations sensibles ou à financer des activités illicites du régime nord-coréen.

Une autre opération détectée en Asie du Sud-Est a montré que des modèles de langage étaient utilisés pour rédiger des messages persuasifs dans des arnaques romantiques et des fraudes financières. Les victimes, contactées via les réseaux sociaux, étaient peu à peu convaincues d’investir dans des plateformes frauduleuses de cryptomonnaies ou de forex après des semaines d’interaction avec des profils fictifs.

Cyberattaques : l’utilisation de l’IA pour automatiser le hacking

En plus de la désinformation et de la fraude, le rapport d’OpenAI révèle que certains groupes ont tenté d’utiliser ses outils pour optimiser leurs activités de cyberattaque.

Des acteurs malveillants ont été identifiés utilisant l’IA pour générer des codes malveillants, affiner des exploits et automatiser des processus d’intrusion dans des réseaux. Ces tactiques sont particulièrement préoccupantes dans le cadre d’opérations d’espionnage cybernétique en Asie et au Moyen-Orient.

Cependant, OpenAI souligne avoir renforcé ses systèmes de détection et contraintes d’utilisation, bloquant ainsi des milliers de tentatives d’utilisation abusive de ses modèles et collaborant avec des agences de cybersécurité pour atténuer ces risques.

Réponse d’OpenAI et mesures de sécurité

L’entreprise réaffirme son engagement en matière de sécurité et a mis en place de nouvelles protections pour prévenir l’abus de ses outils. Parmi ces initiatives :

  • Systèmes de détection améliorés pour identifier en temps réel les modèles d’utilisation abusive.
  • Collaboration avec des gouvernements et des entreprises technologiques pour partager des informations sur les menaces émergentes.
  • Restrictions d’accès à ses modèles pour éviter leur exploitation dans des activités malveillantes.

« L’intelligence artificielle a un immense potentiel pour bénéficier à l’humanité, mais nous devons également rester vigilants face aux risques de son abus. Nous continuerons à travailler pour garantir que nos outils soient utilisés de manière responsable et éthique, » a déclaré OpenAI dans son rapport.

Avec cette nouvelle analyse, OpenAI renforce sa posture en matière de transparence et de sécurité dans l’industrie de l’intelligence artificielle, à un moment où l’utilisation de ces technologies continue d’évoluer rapidement.

Source : Actualités Intelligence Artificielle