Les bots d’IA mettent en danger les médias et vidangent leur trafic web

OpenText renforce sa détection et sa réponse avec l'IA : intégrations approfondies avec Microsoft Defender, Entra ID et Copilot pour réduire le bruit et accélérer la réponse

L’industrie de l’édition numérique s’adapte depuis des années à des changements profonds dans la manière dont les utilisateurs découvrent, lisent et partagent l’information. Mais la récente menace pourrait être l’une des plus délicates : l’essor des bots alimentés par l’Intelligence Artificielle, qui traquent, copient, résument et réutilisent des contenus, souvent sans générer de visites, abonnements ou revenus pour les médias.

Ce constat inquiétant est souligné dans le dernier rapport d’Akamai sur le secteur de l’édition, qui peint un tableau préoccupant pour les journaux, magazines en ligne et sites d’information. Selon la société, l’activité des bots IA qu’elle a catégorisée a connu une croissance de 300 % en 2025. Le secteur des médias — comprenant vidéos, réseaux sociaux et publishing — représente déjà 13 % de ce trafic, juste derrière le commerce électronique. Au sein de ce groupe, les médias éditoriaux concentrent la majorité de cette activité.

Le problème ne se limite plus à une moindre lecture

Le rapport évoque une idée dérangeante pour tout média numérique : le contenu conserve de la valeur, mais de plus en plus d’utilisateurs le consomment sans réellement visiter le site d’origine. Au lieu de passer par Google, de parcourir les titres et d’ouvrir un article complet, nombreux sont ceux qui se contentent de la réponse générée par une IA, que ce soit via un chatbot, un moteur de recherche conversationnel ou des assistants qui recueillent des informations en temps réel.

Akamai explique que cette dynamique fragilise les modèles économiques du publishing digital. Il ne s’agit pas uniquement d’une baisse des clics. Cela impacte aussi les abonnements, la publicité, la visibilité des marques et la capacité à monétiser ses contenus. Le rapport cite des données de TollBit montrant que, au quatrième trimestre 2024, les chatbots IA ont généré environ 96 % de trafic de référence en moins par rapport à la recherche traditionnelle sur Google. Il rappelle également une étude du Pew Research Center de 2025 concluant que les utilisateurs cliquent seulement environ 1 % du temps sur les sources citées dans les résumés générés par IA.

Ce changement a des implications graves. Si le lecteur obtient un résumé suffisant sans visiter le site original, l’éditeur perd des impressions publicitaires, des opportunités d’inscription, de conversion en abonnement et de relation directe avec son audience. En somme, l’IA ne modifie pas seulement la diffusion de l’information ; elle bouleverse aussi ceux qui captent la valeur économique de ces contenus.

L’édition au cœur du scraping automatisé

Une statistique marquante du rapport : dans le secteur des médias, les médias éditoriaux représentent 40,1 % de l’activité des bots IA identifiée par Akamai. Ils constituent donc la cible principale de ce trafic automatisé dans l’industrie de l’information. La logique est claire : les sites de journalisme et d’édition publient des informations nouvelles, précieuses, actualisées, prêtes à alimenter modèles, réponses instantanées et moteurs de recherche IA.

Le rapport détaille aussi les types de bots qui exploitent le plus cet écosystème. Les AI training crawlers, qui recherchent et recueillent de vastes quantités de données pour entraîner des modèles, restent les plus courants. Toutefois, Akamai alerte que les AI fetchers peuvent être encore plus nuisibles, car ils récupèrent du contenu en temps réel pour répondre aux questions précises des utilisateurs. Lorsqu’un contenu perd rapidement de sa valeur — comme une information de dernière minute ou une actualité urgente — cette utilisation immédiate peut avoir un impact direct sur le trafic et les revenus.

Au second semestre 2025, les crawlers d’entraînement représentaient 63 % des bots IA ciblant les médias, tandis que les fetchers constituaient 24 %. Ce qui est important : parmi ces fetchers, le publishing concentrait 43 %. En d’autres termes, la menace la plus immédiate ne provient pas seulement de l’entraînement de modèles, mais aussi de systèmes qui consultent et résument en direct un contenu avant même que l’utilisateur ne se rende sur le site original.

Akamai note également que OpenAI a été l’acteur générant le plus de trafic de bots IA vers les entreprises médiatiques durant cette période, avec 40 % des requêtes issues de ses agents dirigées spécifiquement vers des publishers. Avec OpenAI, Meta et ByteDance figurent parmi les principaux propriétaires d’agents IA ayant un impact significatif sur le secteur.

Coûts accrus, contrôle réduit et atteinte à la réputation

Le rapport ne se limite pas à l’analyse du trafic. Il souligne aussi un problème que nombre de médias ont déjà commencé à ressentir : ces bots augmentent les coûts d’infrastructure. Si des milliers voire des millions de requêtes automatisées saturent un site pour en extraire du contenu, cela entraîne des dépenses supplémentaires pour serveurs, CDN, cloud et protections variées. Autrement dit, le média ne perd pas seulement une part de ses revenus potentiels, mais paie aussi plus cher pour faire face à des systèmes pouvant réutiliser ses contenus en dehors de son environnement.

Il faut ajouter la dimension réputationale. Akamai met en garde contre la réplication d’articles, de titres et de reportages sur des sites d’agrégation, des pages de piètre qualité ou des plateformes qui diluent l’origine réelle de l’information. Lorsque l’attribution s’affaiblit, c’est aussi la crédibilité de la marque qui s’érode, tout comme la relation entre le média et ses lecteurs.

Ni tout bloquer ni tout laisser passer

Une des contributions importantes du rapport est qu’il ne propose pas une solution simpliste. Akamai recommande d’éviter le blocage systématique de tous les bots IA. La raison pratique : certains pourraient faire partie de futurs accords de licence ou de nouvelles formes de monétisation. Bloquer sans analyser qui accède, dans quel but et avec quelle compensation serait une erreur stratégique.

En revanche, la société suggère une approche plus sélective. Ses clients privilégient généralement trois solutions techniques majeures : deny, tarpit et delay. La première rejette directement la requête ; la seconde ralentit ou bloque le bot ; la troisième impose des délais. Akamai indique que deny est aujourd’hui la méthode la plus utilisée, suivie par tarpit et delay. Cependant, de nombreux partenaires préfèrent commencer par observer et classifier le trafic. Un exemple dans le rapport montre qu’un contrôle efficace de 97 % des requêtes de bots IA a été obtenu grâce à un tarpit plutôt qu’un blocage total.

Par ailleurs, le rapport ouvre la voie à des modèles payants et de vérification pour l’accès automatisé au contenu. Des initiatives telles que Skyfire et TollBit, présentées comme partenaires par Akamai, visent à transformer une partie de ce scraping en accès authentifié, traçable et même monétisable. Il évoque aussi l’évolution de cadres législatifs comme le Really Simple Licensing (RSL), qui cherchent à établir des règles claires pour l’utilisation responsable des contenus digitaux par des systèmes IA.

Le message final est clair : le secteur du publishing a encore le temps de se défendre, mais doit passer d’une logique de plainte à une gestion proactive. La bataille ne se limite pas à produire du bon contenu, mais aussi à décider qui peut y accéder, dans quelles conditions et avec quelle contrepartie.

Questions fréquentes

Pourquoi les bots IA nuisent-ils autant aux médias numériques ?
Parce qu’ils peuvent lire, extraire et résumer le contenu sans que l’utilisateur ait besoin de visiter le site original. Cela réduit le trafic, les revenus publicitaires, les abonnements et la visibilité de la marque.

Quelle différence entre un crawler de formation et un AI fetcher ?
Le crawler de formation collecte de grandes quantités de données pour entraîner des modèles, tandis que le fetcher récupère du contenu en temps réel pour répondre à des questions précises dans des assistants ou moteurs de recherche conversationnels.

Quel pourcentage du trafic de bots IA dans le secteur média revient aux publishers ?
Selon Akamai, en seconde moitié de 2025, les publishers représentaient 40,1 % de l’activité des bots IA ciblant le secteur média.

Que peuvent faire les médias pour protéger leur contenu face aux bots IA ?
Surveiller et classifier le trafic, appliquer des mesures sélectives telles que deny, tarpit ou delay, vérifier l’identité des bots, et envisager des accords de licence ou de monétisation plutôt que de bloquer sans analyse préalable.

source : Akamai

le dernier