
Cloudflare et GoDaddy veulent réguler les agents d’IA sur le web
Le web entre dans une phase où les agents IA dépassent les bots classiques : ils naviguent, interagissent et exécutent des actions. Cloudflare et GoDaddy proposent de nouveaux standards pour identifier, authentifier et contrôler leur accès, au-delà du simple robots.txt. Face à l’explosion du scraping IA qui vide le trafic des médias et les +300 % de bots IA signalés par Akamai, de nouveaux mécanismes de gestion des permissions deviennent indispensables. L’adoption dépendra du consensus de l’écosystème web. Questions fréquentes Pourquoi réguler les agents IA ?Ils naviguent, interagissent et exécutent des actions sur les sites, nécessitant de nouveaux standards. Le robots.txt suffit-il ?Non, conçu pour les crawlers classiques. Les agents IA nécessitent des mécanismes plus sophistiqués. Que proposent Cloudflare et




