Altman indique 2028 comme seuil de superintelligence et le débat sur la gouvernance commence à ressembler à Hollywood

Sam Altman prédit l'arrivée de la superintelligence artificielle dans quelques années.

La scène n’est pas nouvelle, mais le scénario l’est : un leader d’une des entreprises les plus influentes du secteur affirme que le monde pourrait atteindre en quelques années des systèmes plus intelligents que les humains en général, forçant la politique internationale à repenser sa façon de gouverner la technologie. Sam Altman, directeur général d’OpenAI, a élevé le ton lors du India AI Impact Summit tenu à New Delhi, en plaidant pour un cadre global “urgent” afin de réglementer l’Intelligence Artificielle avancée, avec une idée de plus en plus répétée dans les forums de haut niveau : la création d’un organisme international à l’image de l’IAEA (l’agence de surveillance nucléaire) pour coordonner normes, certifications et sécurité.

Ce qui a surtout alimenté les discussions, cependant, c’est l’horizon temporel. Altman a laissé échapper une phrase devenue virale : si la tendance se poursuit, d’ici la fin 2028, “une majorité de la capacité intellectuelle mondiale pourrait résider dans des centres de données plutôt qu’à l’extérieur”. Il ne s’agit pas d’une prédiction définitive ni d’un lancement de produit, mais d’un message qui évoque le changement de pouvoir que représenterait le déploiement à échelle globale de systèmes capables de raisonner, de planifier et d’agir avec une supériorité sur l’humain.

De la “régulation” à la “gouvernance du pouvoir” : pourquoi 2028 inquiète même les entreprises

Dans le secteur technologique, les échéances comptent moins pour leur précision que pour ce qu’elles activent : budgets, réglementations, investissements en infrastructure et réorganisation des priorités nationales. Si la superintelligence devient un objectif plausible “au cours d’un cycle de vie gouvernemental”, la conversation quitte la sphère purement philosophique pour devenir industrie.

Altman ne s’est pas contenté de parler de “modesle supérieurs”. Il a abordé la capacité : des centres de données comme contenants de connaissances opérationnelles, de décisions automatisées et d’un avantage concurrentiel durable. Cela met en lumière trois enjeux souvent traités isolément :

  1. Souveraineté technologique : qui peut entraîner, exploiter ou auditer les modèles les plus avancés.
  2. Souveraineté énergétique : le coût électrique et la disponibilité en puissance pour maintenir cette infrastructure.
  3. Souveraineté réglementaire : qui établit les limites, comment elles sont appliquées, et la capacité réelle d’inspection.

Dans ce contexte, la notion de “gouvernance mondiale” ne renvoie pas à une diplomatie abstraite. Elle évoque des contrôles d’accès, des certifications, des audits, des exportations de puces et des accords entre blocs.

“Un IAEA pour l’IA” : la métaphore nucléaire s’invite dans le débat

La comparaison avec l’organisme international du nucléaire comporte une part de provocation, mais aussi de pragmatisme. Provocation, car elle assimile l’IA avancée à une technologie pouvant causer des dommages systémiques. Pragmatique, car elle propose un modèle opérationnel : normes vérifiables, inspections, coordination et réponses.

Altman appelle “urgemment” à la création d’un corps international visant à harmoniser les efforts réglementaires, à un moment où chaque pays tente de légiférer à son propre rythme, avec des priorités et des approches parfois incompatibles.

Le sous-texte est clair : si chaque juridiction impose ses règles sans coordination, l’IA avancée tendra à migrer vers les environnements les plus laxistes ou à se concentrer dans les zones où l’industrie est la plus puissante. Aucun de ces scénarios n’offre une relative tranquillité.

Une sommation politique : la “Déclaration de New Delhi” et l’effet vitrine

Le India AI Impact Summit voulait précisément cela : rendre la gouvernance de l’IA une question globale, dépassant le cadre des économies hyperindustrialisées. La clôture de l’événement a produit une déclaration signée par une trentaine de pays (les chiffres varient selon les sources), axée sur la coopération, l’inclusion et la responsabilité, sans caractère contraignant.

Le fait que ce document ne soit pas obligatoire ne le rend pas insignifiant. Il sert de thermomètre diplomatique : la discussion sur l’IA s’oriente vers une infrastructure critique que certains territoires risquent vite de laisser à la merci des décisions extérieures.

Quand la fiction se mue en actualité… et esquisse un sourire ironique

À ce stade, évoquer une “superintelligence en 2028” et un “IAEA pour l’IA” évoque un déjà-vu culturel. La réalité technologique ne fonctionne pas comme dans les films (il est utile de s’en souvenir), mais l’ironie réside dans le fait que certains titres ressemblent à des notes prises par le service marketing lors d’une course de science-fiction.

Tableau — Films apocalyptiques et IA et le clin d’œil involontaire en 2026

Film Année L’IA “déraille” parce que… Le parallèle ironique avec le débat actuel
2001, l’Odyssée de l’espace 1968 HAL privilégie la mission et “gère” l’équipage Une obsession pour les objectifs et une absence de supervision qui rappellent les peurs d’alignement
WarGames 1983 Un système militaire confond simulation et réalité On discute aujourd’hui de comment éviter que des agents agissent sur des systèmes critiques sans contrôle humain
Terminator 1984 Skynet automatise la guerre et décide pour l’humanité Quand on parle de “capacité intellectuelle dans des centres de données”, la métaphore se déploie d’elle-même
The Matrix 1999 Les machines optimisent la planète… avec des humains “en batterie” Le débat autour de la concentration du pouvoir technologique a une saveur familière et inquiétante
I, Robot 2004 “Protéger l’humanité” finit par restreindre les libertés Un rappel parfait que bonnes intentions + mauvais design = résultats indésirables
Ex Machina 2014 Une IA manipule, apprend et s’échappe du laboratoire Traduction à 2026 : le laboratoire n’est plus un laboratoire quand le déploiement est massif

Le raccourci facile serait de dire que “la fiction veut devenir réalité”. Mais l’interprétation maturée est différente : ces histoires illustrent des métaphores de ce que l’on discute aujourd’hui avec des termes moins cinématographiques : alignement, contrôle, supervision, vérification et concentration de pouvoir.

L’inquiétude : institutions lentes face à une technologie qui évolue en semaines

La crainte centrale dans le discours d’Altman ne concerne pas seulement le “quoi” (superintelligence), mais aussi le “comment” (gouvernance). Les systèmes avancés progressent par versions successives ; les États, par législatures. Et cette différence de rythme risque de faire que, lorsque des régulations solides seront établies, le marché aura déjà subi des transformations irréversibles.

D’où l’insistance sur la coopération internationale : non pas comme un geste éthique, mais comme une stratégie pour éviter que le pouvoir ne se concentre dans les mains de ceux qui disposent de plus de chips, d’énergie et de mécanismes légaux moins contraignants.

Une fin moins hollywoodienne, mais plus réaliste

Malgré la fulgurance de la mise en scène, il faut préciser : parler de 2028 comme d’un seuil ne signifie pas que, cette année-là, “les politiques seront évincées” ou que la gouvernance humaine disparaîtra de manière magique. Cela veut dire que le poids des décisions pourra se déplacer vers des systèmes automatisés d’analyse et de mise en œuvre, et que le défi politique sera d’établir des contrôles crédibles sur des technologies conçues pour évoluer rapidement.

Et voilà peut-être l’ironie ultime : face à un discours apocalyptique, la solution pragmatique consiste souvent en une bureaucratie efficace. Certification, audit, traçabilité, limites de déploiement et coopération internationale — peut-être moins sensationnels que Skynet, mais probablement plus salvateurs.


Questions fréquentes

Que disait exactement Sam Altman sur 2028 et la superintelligence ?
Au India AI Impact Summit, il a évoqué qu’à la fin 2028, si la tendance se poursuit, une grande partie de la “capacité intellectuelle” pourrait se retrouver dans des centres de données, nécessitant de nouvelles formes de gouvernance mondiale.

Que signifie “créer une IAEA pour l’IA” et pourquoi la comparer à l’atome ?
L’idée consiste en un organisme international chargé de coordonner normes, inspections et certifications de sécurité pour l’IA avancée, avec un pouvoir réel de supervision, comme c’est le cas dans d’autres technologies à haut risque.

La “Déclaration de New Delhi” impose-t-elle des obligations aux pays signataires ?
Non. Il s’agit d’un cadre volontaire et non contraignant, mais qui envoie un message diplomatique clair concernant la coopération et la volonté politique de définir des principes communs pour la gouvernance de l’IA.

Comment une entreprise peut-elle se préparer face à l’IA agentivité et à des modèles de plus en plus sophistiqués ?
En réalisant un inventaire des processus pouvant être automatisés, en établissant des politiques d’utilisation et d’accès, en mettant en place des audits et une traçabilité des décisions, en renforçant la sécurité (y compris la résistance à la manipulation par prompts), et en préparant des plans de continuité lorsque des outils critiques dépendent d’agents.

Source : Superintelligence 2028

le dernier