La informatique quantique a longtemps oscillé entre deux extrêmes : des promesses ambit(« ieuses ») et des avancées trop lentes pour suivre le rythme de l’industrie. Cette perception commence à changer. Des chercheurs affiliés à la Harvard Quantum Initiative in Science and Engineering estiment que le progrès en matière de tolérance aux fautes a anticipé de cinq à dix ans les prévisions généralement observées dans le secteur. Au point que l’on pourrait voir apparaître d’ici la fin de cette décennie les premières formes d’ordinateurs quantiques majeurs, corrigés contre les erreurs.
Cela ne signifie pas qu’en 2029, un ordinateur quantique universel, peu coûteux et accessible à toutes les entreprises sera opérationnel. Ni que ces systèmes remplaceront les supercalculateurs classiques ou les GPU. La lecture réelle, plus prudente, demeure tout aussi essentielle : pour la première fois, une partie de la communauté scientifique entrevoit une architecture susceptible d’évoluer vers des machines réellement utiles, à condition que les années à venir confirment que les résultats actuels de laboratoire, prototypes avancés et systèmes commerciaux initiaux soient le signe d’un progrès durable.
Ce changement s’explique par un problème qui a toujours hanté l’informatique quantique : les erreurs. Les qubits sont extrêmement sensibles aux bruits, à la perte de cohérence et aux interférences environnementales. Contrairement à un bit classique qui vaut 0 ou 1, un qubit peut fonctionner en superposition et en intrication, mais cette avantage rend aussi la système beaucoup plus fragile. Sans techniques de correction d’erreurs, les calculs se dégradent rapidement et le résultat perd son utilité.
La tolérance aux fautes modifie le calendrier
Mikhail Lukin, codirecteur de la Harvard Quantum Initiative et professeur de physique à Harvard, explique que de nombreux experts anticipaient que des grands ordinateurs quantiques tolérants aux fautes verraient le jour vers la fin de la prochaine décennie. Aujourd’hui, il considère probable leur émergence, dans une certaine forme, avant la fin de cette année. Ce progrès de cinq à dix ans s’appuie sur des avancées récentes en correction d’erreurs quantiques, une des barrières majeures pour passer d’expérimentations prometteuses à des machines réellement opérationnelles.
Le jalon le plus cité provient du même environnement Harvard. En novembre 2025, des chercheurs de l’université ont présenté un système comportant 448 qubits atomiques capable de détecter et de corriger les erreurs sous un seuil critique. Leur travail combinait plusieurs éléments essentiels à une informatique quantique corrigée et évolutive : intrication physique et logique, opérations logiques et mécanismes d’élimination de l’entropie. Lukin le décrit alors comme une base scientifique permettant de bâtir une informatique quantique pratique à grande échelle.
Ce point est crucial car la puissance d’un ordinateur quantique ne se mesure pas uniquement au nombre de qubits physiques. Pendant des années, la discussion publique s’est concentrée sur des chiffres de plus en plus grands, mais le véritable progrès réside dans les qubits logiques, constitués à partir de nombreux qubits physiques et protégés contre les erreurs. Une machine avec des milliers de qubits physiques, sans correction robuste, pourrait être moins utile qu’un système plus petit, assurant une meilleure fidélité et une architecture plus stable.
Une analogie avec l’informatique classique permet de mieux comprendre : multiplier les transistors n’apporte rien si le système ne peut pas fonctionner avec fiabilité. En informatique quantique, cette fiabilité est encore plus compliquée, car même le simple acte de mesurer peut modifier l’état quantique. La tolérance aux fautes devient donc la véritable frontière du progrès dans le domaine.
De la recherche au marché
Ce mouvement ne se limite pas aux laboratoires. Harvard souligne que son écosystème quantique a déjà été à l’origine de plusieurs startups. QuEra, créée en 2018 par Mikhail Lukin, Markus Greiner et des partenaires de Harvard et du MIT, développe des ordinateurs quantiques basés sur des atomes neutres. LightsynQ, fondée en 2024 par Mihir Bhaskar pour commercialiser des réseaux quantiques, a été acquise par IonQ. CavilinQ, autre spin-off spécialisée dans l’interconnexion quantique, a levé 8,8 millions de dollars en financement initial.
Cette activité entrepreneuriale montre que l’informatique quantique sort peu à peu du seul champ universitaire. Ce n’est pas encore une remplaçante du calcul classique, mais elle commence à construire une filière industrielle : matériel, réseaux quantiques, logiciels, cryogénie, contrôle électronique, correction d’erreurs, simulation et services cloud.
QuEra a déjà livré des systèmes à des institutions telles que l’Institut National de la Science Industrielle et Agronomique du Japon. Ce cas illustre une étape hybride : les ordinateurs quantiques ne s’installent pas comme des serveurs traditionnels, mais en tant que plateformes spécialisées connectées à des supercalculateurs classiques. Cette cohabitation durera plusieurs années. Même si les progrès s’accélèrent, la computation quantique restera un accélérateur pour des problèmes spécifiques, plutôt qu’un remplacement généralisé des CPU, GPU ou clusters HPC.
IBM suit une trajectoire similaire, avec une feuille de route pour lancer, en 2029, IBM Quantum Starling : un système tolérant aux fautes, comportant 200 qubits logiques capables d’exécuter des circuits de 100 millions de portes quantiques. En Espagne, IBM et le Gouvernement basque ont inauguré en 2025 le premier IBM Quantum System Two d’Europe, installé à Donostia-San Sebastián et basé sur un processeur Heron de 156 qubits. À noter qu’il ne s’agit pas d’une machine de 1 121 qubits, mais d’un système de nouvelle génération, conçu pour évoluer et destiné à la recherche, la formation et le développement d’applications.
Google a également contribué à changer l’état d’esprit du secteur. Son processeur Willow, présenté en 2024, a marqué des progrès en correction d’erreurs et en réduction des fautes, en augmentant la taille du code quantique. La société le décrit comme une étape vers des ordinateurs quantiques utiles à grande échelle, même si le résultat ne résolvait pas encore un problème commercial pratique insurmontable par d’autres moyens.
Ce qui pourrait vraiment changer d’ici 2030
Les impacts immédiats concerneront la chimie, les matériaux, l’optimisation, la simulation physique et la cryptographie. Richard Feynman, dans les années 80, soutenait déjà que simuler la nature quantique avec des ordinateurs classiques était une tâche profondément inefficace. Cette intuition reste l’une des principales raisons de développer des ordinateurs quantiques : molécules, matériaux, réactions chimiques et systèmes physiques complexes s’intègrent naturellement dans cette approche.
En santé, ils pourraient accélérer l’étude des interactions moléculaires et le processus de découverte de médicaments. En énergie, ils pourraient améliorer la simulation de catalyseurs, batteries ou matériaux supraconducteurs. En finance et logistique, certains algorithmes pourraient apporter des avantages lors de problèmes d’optimisation, mais il faut rester prudent : tous les enjeux ne bénéficieront pas forcément de la puissance quantique.
La cryptographie mérite une attention particulière. Un ordinateur quantique suffisamment puissant et corrigé pourrait compromettre les systèmes de clé publique actuels comme RSA ou celles à courbes elliptiques. Bien que cet axe ne soit pas encore une menace immédiate, le risque de « capturer aujourd’hui pour déchiffrer demain » a poussé gouvernements et entreprises à préparer la transition vers une cryptographie post-quantique. En août 2024, le NIST publié ses premiers standards définitifs pour des algorithmes résistants aux attaques quantiques, signalant que la planification ne peut plus attendre la mise au point de la machine capable de casser ces schémas.
Le discours de Harvard contraste avec le scepticisme exprimé par Jensen Huang, PDG de NVIDIA, qui en janvier 2025 citait un horizon de 15 à 30 ans pour des ordinateurs quantiques « très utiles ». Ses propos ont provoqué une chute en bourse de plusieurs sociétés du secteur. Deux mois plus tard, il précisait ses propos en annonçant la création d’un centre de recherche quantique de NVIDIA à Boston, en collaboration avec Harvard et le MIT, tout en reconnaissant que le rythme d’avancement surprenait beaucoup.
La conclusion la plus raisonnable oscille entre enthousiasme et prudence : la computation quantique progresse plus vite qu’attendu, mais reste encore à prouver son utilité généralisée en production. Les années à venir diront si les progrès en tolérance aux fautes permettent une industrialisation, et si les applications justifient le coût et la complexité de ces machines.
Une chose est claire : la computation quantique n’est plus une promesse lointaine, mais une technologie à suivre de près. Elle ne remplacera pas l’ordinateur classique, mais pourra ajouter une nouvelle couche de capacité pour résoudre des problèmes qui demeurent hors de portée de l’informatique conventionnelle d’aujourd’hui.
Questions fréquentes
Que disent les chercheurs de Harvard sur la computation quantique ?
Ils soutiennent que les progrès en tolérance aux fautes ont anticipé de cinq à dix ans les prévisions, et qu’on pourrait voir apparaître d’ici la fin de cette décennie des ordinateurs quantiques de grande taille, corrigés contre les erreurs.
Qu’est-ce qu’un ordinateur quantique tolérant aux fautes ?
C’est un système capable de détecter, corriger ou compenser les erreurs durant le calcul, permettant à l’opération de s’étendre sans que le bruit n’altère le résultat.
L’informatique quantique remplacera-t-elle les ordinateurs classiques ?
Pas de manière générale. Elle agira plutôt comme un accélérateur spécialisé pour certains problèmes, en complément des supercalculateurs, CPU, GPU et systèmes d’IA.
Faut-il déjà s’inquiéter pour la cryptographie ?
Oui, d’un point de vue stratégique. Même si aucune machine capable de casser actuellement les principaux systèmes de cryptographie n’existe encore, des organismes comme le NIST ont d’ores et déjà publié des standards pour une cryptographie résistante aux attaquues quantiques, afin d’assurer une transition en toute sécurité.
via : the quantum insider