Cloudflare et GoDaddy veulent réguler les agents d’IA sur le web

Cloudflare atténue la plus grande attaque DDoS enregistrée de 3,8 Tb/s

Le web entre dans une phase où les agents IA dépassent les bots classiques : ils naviguent, interagissent et exécutent des actions. Cloudflare et GoDaddy proposent de nouveaux standards pour identifier, authentifier et contrôler leur accès, au-delà du simple robots.txt. Face à l’explosion du scraping IA qui vide le trafic des médias et les +300 % de bots IA signalés par Akamai, de nouveaux mécanismes de gestion des permissions deviennent indispensables. L’adoption dépendra du consensus de l’écosystème web.

Questions fréquentes

Pourquoi réguler les agents IA ?
Ils naviguent, interagissent et exécutent des actions sur les sites, nécessitant de nouveaux standards.

Le robots.txt suffit-il ?
Non, conçu pour les crawlers classiques. Les agents IA nécessitent des mécanismes plus sophistiqués.

Que proposent Cloudflare et GoDaddy ?
Standards pour identifier, authentifier et contrôler l’accès des agents IA aux sites web.

Quand seront-ils adoptés ?
Processus en cours, dépend du consensus écosystème et organismes de standardisation.

le dernier