
Qualcomm présente AI200 et AI250 : accélérateurs « rack-scale » pour l’inférence générative avec plus de mémoire, un TCO réduit et une augmentation de la bande passante effective
Qualcomm a fait une avancée significative dans la course à l’inférence IA à l’échelle des centres de données. La société a annoncé les solutions AI200 et AI250, deux plateformes d’accélération vendues sous forme de cartes ou de racks complets, promettant un rendement à l’échelle du rack, une capacité mémoire accrue et un coût total de possession (TCO) leader dans le secteur pour le déploiement efficace de modèles génératifs (LLM et LMM). Ces solutions offrent une performance par euro/watt, sans compromis sur la sécurité ni la flexibilité. Au-delà de la puissance brute, l’approche se concentre sur ce que l’industrie exige actuellement : servir des modèles déjà entraînés à moindre coût, avec une haute utilisation du matériel, des latences faibles et une




