Akamai lance Inference Cloud avec NVIDIA : inférence IA distribuée du cœur au bord pour l’ère des agents et de la Physique IA

Rapport sur les ransomwares 2025 : Résilience dans un paysage de menaces alimenté par l'IA

Akamai a présenté Inference Cloud, une plateforme conçue pour faire passer l’inférence de l’IA des centres de données centraux jusqu’au périmètre d’Internet, afin d’offrir faible latence, sécurité et évolutivité mondiale pour des applications d’IA agentique et de Physical AI (robots, véhicules, villes intelligentes). La solution exploite l’infrastructure NVIDIA Blackwell et le réseau mondial distribué d’Akamai pour rapprocher le calcul des utilisateurs et des dispositifs.

La stratégie est claire : la prochaine génération d’applications — agents autonomes, expériences personnalisées, systèmes de prises de décision en temps réel — doit inférer “près” de l’utilisateur. Avec Inference Cloud, Akamai déplace la prise de décision en IA vers des milliers d’emplacements et orchestre intelligemment où exécuter chaque tâche pour maintenir des réponses presque instantanées.

Les coulisses : Blackwell à la périphérie et un réseau global

Inference Cloud combine serveurs NVIDIA RTX PRO (avec le RTX PRO 6000 Blackwell Server Edition), DPUs NVIDIA BlueField-3 et logiciel NVIDIA AI Enterprise sur une infrastructure cloud distribuée et le réseau edge d’Akamai, déployé dans plus de 4 200 emplacements dans le monde. La feuille de route intègre BlueField-4 pour accélérer et sécuriser davantage l’accès aux données et les charges d’inférence depuis le centre jusqu’au périmètre. Le déploiement commence dans 20 emplacements initiaux, avec une expansion progressive en cours.

Cas d’usage : d’agents en temps réel à la “Physical AI”

  • IA agentique et expériences personnalisées : extension des “AI factories” au périmètre pour le commerce intelligent et des assistants capables de négocier, acheter et optimiser en temps réel selon la localisation, le comportement et l’intention de l’utilisateur.
  • Streaming inference pour la prise de décision financière : multiples inférences séquentielles caractéristiques des agents, résolues en quelques millisecondes, utiles dans des domaines comme la détection de fraude, paiements sécurisés et l’automatisation.
  • Physical AI : support pour robots industriels, drones, infrastructures urbaines et véhicules autonomes, où la précision temporelle et la sûreté nécessitent de traiter les capteurs et prendre des décisions à la vitesse du monde physique.

Orchestration “core–edge” : où exécuter chaque tâche

Le plan de contrôle dirige dynamiquement chaque requête vers le point le plus efficace :

  • Les tâches routinières et très sensibles à la latence sont traitées au périmètre — y compris les microservices NIM de NVIDIA.
  • Les tâches plus complexes ou de raisonnement sont envoyées aux AI factories centralisées.

Tout cela est géré via une plateforme unifiée qui abstrait la complexité d’orchestrer des charges d’IA réparties à l’échelle planétaire.

Sécurité et conformité : architecture distribuée, contrôles centralisés

Inference Cloud hérite du modèle de sécurité et des opérations mondiales d’Akamai, en y ajoutant des DPUs BlueField comme couche d’isolement, cryptage et déchargement de tâches critiques. La combinaison de edge + Blackwell + AI Enterprise vise des secteurs réglementés qui requièrent traçabilité, gouvernance et basse latence sans compromis.

Ce que cela signifie pour le marché

  • Moins de latence, davantage de proximité : pour les agents et les applications interactives, placer l’inférence le plus près possible de l’utilisateur est essentiel ; une empreinte avec >4 200 points constitue un avantage considérable en proximité.
  • Échelle globale : commencer dans 20 sites réduit le délai de mise sur le marché et permet de croître par vagues en fonction de la demande réelle.
  • Portabilité des modèles : s’appuyer sur NVIDIA AI Enterprise et NIM facilite la migration des charges entre le périmètre et le centre sans réécriture des applications.

Questions fréquentes

Qu’est-ce exactement qu’Akamai Inference Cloud ?
Une plateforme d’inférence distribuée qui exécute de l’IA au périmètre et au centre, avec hardware NVIDIA Blackwell, DPUs BlueField et logiciel AI Enterprise, conçue pour des latences très faibles et des déploiements globaux.

Combien d’emplacements le réseau edge d’Akamai possède-t-il et où démarre le service ?
Le réseau edge compte plus de 4 200 emplacements ; la disponibilité initiale débute dans 20 sites, avec une feuille de route d’expansion en cours.

Quels usages bénéficient le plus ?
Les agents avec multiples inférences par tâche, la finance (fraude, paiements), le commerce électronique (expériences personnalisées) et le Physical AI (robots, véhicules, villes intelligentes) qui exigent des décisions en millisecondes.

Comment la plateforme décide-t-elle où exécuter (périmètre vs. centre) ?
Grâce à une couche d’orchestration qui oriente dynamiquement : les tâches sensible à la latence se traitent au périmètre ; les workflows complexes vont vers des AI factories centralisées. Tout est géré via une console unifiée.


Sources : Communiqué et documents officiels d’Akamai concernant Akamai Inference Cloud (28/10/2025) et documentation de NVIDIA relative à Blackwell, NIM et BlueField.

le dernier