Akamai Inference Cloud transforme l’IA du centre à l’Edge avec NVIDIA

Akamai Inference Cloud transforme l’IA du centre à l’Edge avec NVIDIA

Akamai Technologies, Inc. (NASDAQ : AKAM) a lancé Akamai Inference Cloud, une plateforme innovante qui bouleverse la manière et l’endroit où l’intelligence artificielle est déployée, en étendant les processus d’inférence des centres de données traditionnels jusqu’au front (Edge) d’Internet.

Cette solution permet d’effectuer des inférences IA avancées et autonomes directement à la périphérie (Edge), c’est-à-dire plus près des utilisateurs et de leurs appareils. Contrairement aux infrastructures classiques, Akamai Inference Cloud a été conçue pour fournir un traitement d’intelligence artificielle en temps réel, avec une faible latence et une portée mondiale. Le lancement combine la vaste expertise d’Akamai en architectures distribuees avec la technologie d’infrastructure IA de NVIDIA Blackwell, redéfinissant la puissance de calcul accélérée nécessaire pour libérer le véritable potentiel de l’IA.

La demande croissante pour des applications intelligentes de nouvelle génération — telles que des expériences numériques personnalisées, des assistants autonomes ou des systèmes de décision en temps réel — rend indispensable que l’inférence soit exécutée le plus près possible de l’utilisateur. Cela garantit des réponses instantanées et une gestion efficiente des requêtes, en tenant compte du contexte local.

Conçue pour répondre à ces exigences, Akamai Inference Cloud fonctionne comme une plateforme générative et distribuée en Edge, rapprochant la puissance de la IA de NVIDIA du lieu de génération des données et de prise de décision, tout en offrant une infrastructure prête pour l’avenir de l’intelligence artificielle globale.

“La prochaine vague d’IA nécessite la même approche centrée sur l’utilisateur qui a permis de faire d’Internet la plateforme omniprésente d’aujourd’hui,” affirme le Dr. Tom Leighton, CEO et cofondateur d’Akamai. “Akamai a déjà relevé ce défi et le relèvera à nouveau. Grâce à l’infrastructure IA de NVIDIA, Akamai Inference Cloud répondra à la demande croissante d’augmenter la capacité et la performance de l’inférence IA, en déployant la prise de décision dans des milliers d’emplacements à travers le monde, pour des réponses plus rapides, intelligentes et sécurisées.”

“L’inférence est aujourd’hui la phase la plus gourmande en calcul de l’IA, exigeant un raisonnement en temps réel à l’échelle planétaire,” déclare Jensen Huang, fondateur et CEO de NVIDIA. “En collaborant, NVIDIA et Akamai rapprochent l’inférence des utilisateurs dans le monde entier, permettant de proposer une IA générative plus rapide et évolutive, et ouvrant la voie à la prochaine génération d’applications intelligentes.”

Cette solution redéfinit le lieu et la manière dont l’IA est utilisée en rapprochant l’inférence IA intelligente et autonome des utilisateurs et de leurs appareils. La plateforme combine des serveurs NVIDIA RTX PRO, équipés de GPU NVIDIA RTX PRO 6000 Blackwell Server Edition, de DPU NVIDIA Bluefield-3 et du logiciel NVIDIA AI Enterprise, avec l’infrastructure cloud distribuée d’Akamai et le réseau mondial en Edge, comptant plus de 4200 localisations à travers le monde. Akamai Inference Cloud portera la vision d’Akamai d’un IA distribué et hautement évolutif mondialement, en exploitant des technologies NVIDIA telles que la DPU NVIDIA Bluefield-4, récemment annoncée, afin d’accélérer et de sécuriser davantage l’accès aux données et aux charges de travail d’inférence IA, du centre jusqu’au Edge.

Ce partenariat ouvre de nouvelles perspectives en matière de frontières de l’IA avec Akamai Inference Cloud :

  • Extension des usines IA d’entreprise vers l’Edge pour permettre des agents intelligents de commerce et des expériences numériques personnalisées : Les « usines IA » sont puissantes et orchestrent le cycle de vie de l’IA, de la collecte de données à la génération d’intelligence à grande échelle. Akamai Inference Cloud étend ces usines à l’Edge, en décentralisant données et traitement, et en dirigeant les requêtes vers le modèle optimal grâce aux emplacements Edge massivement dispersés d’Akamai. Cela permet aux agents intelligents de s’adapter instantanément à la localisation, au comportement et à l’intention de l’utilisateur, en agissant de manière autonome pour négocier, formaliser et optimiser les transactions en temps réel.
  • Capacité des agents et de l’inférence en streaming à fournir des informations financières instantanées et à prendre des décisions en temps réel : Les agents IA nécessitent plusieurs inférences séquentielles pour réaliser des tâches complexes, ce qui peut entraîner des retards nuisibles à l’interaction utilisateur. Les flux de travail d’IA autonome nécessitent plusieurs appels d’inférence. Si chaque appel ralentit le réseau, l’expérience paraît lente ou trop tardive pour satisfaire aux exigences de latence machine-à-machine. L’architecture native en Edge d’Akamai Inference Cloud fournit des réponses quasi instantanées, permettant aux agents IA de fonctionner avec une capacité de réponse proche de celle des humains dans des workflows multi-étapes. Ceci est utile dans la détection de fraudes, la sécurisation des paiements et la prise de décision rapide dans divers secteurs industriels.
  • Fonctionnement en temps réel de l’IA physique dépassant la réactivité humaine : Les systèmes d’IA physiques, comme les véhicules autonomes, robots industriels ou infrastructures de villes intelligentes, nécessitent des prises de décision milliseconde pour interagir en toute sécurité avec le monde physique. Akamai Inference Cloud est conçu pour permettre à l’IA physique de traiter les données des capteurs, d’effectuer des décisions de sécurité et de coordonner des actions à la vitesse du monde réel — aidant à transformer les usines, drones de livraison, robots chirurgicaux ou réseaux de transport autonomes en systèmes intelligents capables de répondre rapidement et en toute sécurité aux humains.
  • Accélération du délai de retour sur investissement : La gestion de charges de travail IA complexes et réparties sur plusieurs régions du cloud demande une expertise spécialisée. La couche d’orchestration intelligente d’Akamai Inference Cloud dirige automatiquement les tâches IA vers les emplacements les plus appropriés. La simple inférence s’exécute instantanément en Edge via les microservices NIM de NVIDIA, tandis que le raisonnement avancé bénéficie des usines IA centralisées, toutes gérées via une plateforme unifiée simplifiant la gestion de l’infrastructure.

Akamai Inference Cloud est disponible dans 20 localisations initiales à travers le monde ; des plans sont en cours pour élargir cette déploiement.

le dernier