Amazon ne abandonne pas l’IA, mais renforce les contrôles après ses derniers échecs

Amazon ne abandonne pas l'IA, mais renforce les contrôles après ses derniers échecs

Amazon ne ferme pas la porte à l’Intelligence Artificielle, mais a été contraint de recentrer sa stratégie. Suite à plusieurs incidents récents dans son secteur de la vente au détail, notamment une panne de plusieurs heures de son site web et de son application de shopping aux États-Unis, l’entreprise a reconnu qu’un de ces incidents était lié à l’utilisation d’outils d’IA assistant un ingénieur. Cependant, elle a tenu à préciser que l’idée selon laquelle sa plateforme serait victime d’une série de coupures causées par du « code écrit par l’IA » est erronée. Son message officiel est plus nuancé : le problème ne résidait pas dans une autonomie totale de l’outil, mais dans une recommandation incorrecte issue d’une documentation interne obsolète, combinée à un contrôle insuffisant pour limiter l’impact de l’erreur.

Pour un media spécialisé, l’essentiel n’est pas tant le démenti de l’entreprise que le message structurel que cette affaire laisse. Amazon expérimente en conditions réelles quelque chose que de nombreuses entreprises suspectent depuis longtemps : si les assistants de programmation accélèrent le travail, ils peuvent aussi élargir le champ d’impact d’éventuelles erreurs lorsqu’ils sont intégrés dans des systèmes très complexes sans contrôles de sécurité suffisants. Et dans une société comme Amazon, où une mauvaise implémentation peut impacter les paiements, les prix, les commandes ou l’historique d’achats, la distinction entre « aide utile » et « risque opérationnel » devient critique.

La réaction de l’entreprise intervient après la publication par le Financial Times d’informations selon lesquelles des ingénieurs d’Amazon auraient examiné plusieurs incidents graves lors d’une réunion interne. Amazon a répondu par une correction publique pour démentir deux points clés : que plusieurs pannes récentes soient dues à du code généré par l’IA, et que AWS ait été impliquée dans ces incidents précis. La société affirme qu’un seul des problèmes étudiés a impliqué des outils d’IA, dont la cause provient d’un conseil erroné généré par une wiki interne obsolète. De plus, Amazon insiste sur le fait que ces défaillances se sont limitées à l’infrastructure de ses activités de vente au détail, sans affecter AWS.

Le problème ne réside pas dans l’IA seule, mais dans sa gouvernance

Ce nuance modifie considérablement la lecture de l’affaire. Il ne semble pas qu’Amazon ait soudain découvert que l’IA « ne sert à rien » pour la programmation, ni qu’elle se retire complètement. Ce qu’elle a compris, de manière moins spectaculaire mais beaucoup plus importante, c’est qu’en environnement critique, une recommandation erronée générée par un système d’IA peut être aussi dangereuse qu’un changement de code mal revu, si l’organisation ne dispose pas de contrôles, de documentation fiable et de limites claires pour le déploiement. La leçon ne concerne pas seulement le modèle, mais aussi le processus global.

La panne du 5 mars renforce cette interprétation. Reuters a rapporté que cette interruption a affecté des milliers d’utilisateurs aux États-Unis, Amazon ayant attribué la cause à un déploiement de logiciel. Pendant plusieurs heures, des erreurs d’achat, des fluctuations de prix, des bugs dans l’application et des difficultés pour accéder aux commandes ou aux pages produits ont été observés. Pour une société dont le modèle repose sur la continuité du service, ce type d’incident n’est pas seulement un problème technique : c’est une atteinte directe à la confiance des utilisateurs et à la rentabilité.

C’est pourquoi, plutôt que de renoncer à l’IA, ce que l’on perçoit surtout, c’est un durcissement de la gouvernance du changement. Divers signals de business évoquent de nouvelles renforcements de sécurité, davantage de documentation et des contrôles additionnels concernant certains déploiements dans des systèmes sensibles. Même si Amazon dément certaines versions extrêmes évoquant des approbations universelles pour toute modification assistée par l’IA, il apparaît clairement que la tendance profonde est d’avoir moins confiance aveugle dans l’accélération et de privilégier la traçabilité, la revue humaine, et la limitation du « rayon d’impact » en cas d’erreur.

Pendant que le retail se corrige, AWS accélère son engagement pour l’IA

Paradoxe intéressant : cette correction de cap cohabite avec une stratégie de plus en plus agressive dans le domaine de l’IA pour le groupe. En juin 2025, Andy Jassy affirmait que Amazon utilisait l’Intelligence Artificielle générative « dans pratiquement tous les recoins de l’entreprise » et comptait plus de 1 000 services et applications d’IA générative en fonctionnement ou en développement. Dans son message, le CEO expliquait aussi que la technologie était déployée pour des opérations internes, logistique, prévision de la demande, robots, assistance client, pages produits, et qu’elle servait aussi de base pour des gains futurs en efficacité.

AWS, loin de freiner, poursuit également cette stratégie. Son offre phare tourne autour d’Amazon Q, l’assistant génératif de l’entreprise, et notamment d’Amazon Q Developer, présenté comme un outil destiné à construire, exploiter et transformer des logiciels. Il permet de générer du code, de réaliser des tests, de moderniser des applications, de résoudre des problèmes, d’optimiser des ressources ou de créer des pipelines de données. La page produit indique que cette solution est conçue comme un élément central pour les développeurs et les équipes IT, et AWS affirme que ses capacités avancées peuvent accélérer les tâches de programmation et réduire les heures de recherche manuelle.

Mais le mouvement le plus remarquable s’est produit lors de re:Invent 2025, avec l’annonce de trois « agents de nouvelle génération » dédiés au cycle de vie logiciel : Kiro, AWS Security Agent et AWS DevOps Agent. La société les décrit comme des agents autonomes, évolutifs, capables de fonctionner durant des heures ou des jours sans intervention continue. Plus important encore, AWS explique que cette nouvelle gamme d’agents est née après l’étude du travail de ses propres équipes de développement « à l’échelle Amazon » — pas seulement comme une offre commerciale, mais aussi comme une extension des apprentissages internes sur l’intégration d’agents dans l’ingénierie, la sécurité et les opérations.

Cela indique que l’histoire d’Amazon n’est pas celle d’une entreprise qui regrette l’IA, mais celle d’une organisation qui cherche à avancer sur deux fronts : accélérer avec des agents, copilotes et automatisations chez AWS et dans le reste du groupe, tout en renforçant les contrôles là où le coût d’une erreur devient trop élevé. À première vue, cela peut sembler contradictoire, mais c’est en réalité la tension normale de la période : toutes les grandes tech cherchent plus de productivité grâce à l’IA, sans vouloir que cette vitesse compromette la stabilité des systèmes critiques en production.

Il faut aussi considérer le contexte corporate. Reuters rapportait en janvier qu’Amazon confirmait 16 000 suppressions de postes, dans le cadre d’un plan total d’environ 30 000 départs depuis octobre 2025. La société a évité de présenter ces mesures comme un simple remplacement par l’IA, mais Jassy a clairement indiqué que l’usage intensif de l’IA et des agents allait transformer la façon dont le travail est organisé, tout en réduisant certains profils présents dans l’organisation. Dans ce contexte, les récents incidents exercent une pression supplémentaire : l’entreprise veut automatiser davantage, mais doit prouver qu’elle peut le faire sans compromettre la fiabilité.

En conclusion, il ne s’agit pas d’un revirement radical avec le titre simple « Amazon regrette l’IA », mais plutôt d’une vision plus nuancée, plus réaliste pour saisir la direction du marché. Amazon ne retire pas l’IA de ses équipes de développement ni de AWS. Elle apprend, par l’expérience et les incidents concrets, que déployer des assistants et agents sur des infrastructures critiques demande une discipline opérationnelle bien plus stricte que certains discours laisseraient penser. Bien plus qu’un épisode isolé, ce cas représente l’un des premiers rappels importants que l’ère de la programmation assistée par IA ne se résumera pas à la rapidité : elle dépend aussi de la qualité du contrôle que les entreprises peuvent imposer.

Questions fréquentes

Amazon a-t-il arrêté d’utiliser l’IA pour la programmation ?

Non. Amazon a démenti vouloir retirer ces outils et a rectifié l’idée que plusieurs pannes récentes étaient causées par du code généré par l’IA. Toutefois, l’entreprise a revu ses directives internes après avoir identifié qu’une recommandation erronée d’un outil assisté par l’IA avait contribué à l’un de ces incidents.

Que s’est-il passé lors de la panne d’Amazon du 5 mars 2026 ?

L’entreprise explique que le problème était lié à un déploiement de code logiciel. La panne a affecté pendant plusieurs heures le site et l’application de shopping aux États-Unis, avec des erreurs dans les commandes, les prix, les pages produits et l’accès à l’historique des comptes.

AWS commence-t-il aussi à utiliser l’IA de manière plus intensive ?

Oui. AWS promeut Amazon Q et Amazon Q Developer comme assistants génératifs pour les développeurs et les équipes IT. Lors de re:Invent 2025, la société a également présenté des agents tels que Kiro, AWS Security Agent et AWS DevOps Agent, destinés à automatiser des tâches de développement, d’assurance sécurité et d’opérations.

Amazon utilise-t-il l’IA uniquement pour AWS ou aussi dans d’autres secteurs ?

Dans plusieurs domaines. En 2025, Andy Jassy affirmait que l’IA générative était largement utilisée en interne, dans la logistique, la prévision de la demande, la robotique, le support client, ainsi que sur ses pages produits. La société aurait plus de 1 000 services et applications liés à l’IA générative en activité ou en développement.

le dernier