Dans l’écosystème technologique, peu d’idées ont suscité autant d’intérêt et de controverse en si peu de temps que celle récemment exposée par le développeur et vulgarisateur Javi López (@javilop) dans un long fil sur X (anciennement Twitter). Sa thèse est sans équivoque : dans un avenir proche, tout le logiciel s’exécutera directement sur la couche des modèles de langage de grande taille (LLMs), sans nécessiter de code intermédiaire, et deviendra ainsi une commodité comparable à l’électricité.
Au-delà de la provocation intellectuelle, cette proposition soulève des implications profondes pour le marché technologique, la structure concurrentielle de l’industrie et les opportunités d’investissement à moyen et long terme.
De la programmation traditionnelle à l’exécution directe dans le modèle
López commence par une observation désormais familière pour ceux qui suivent de près l’évolution de l’intelligence artificielle générative : le développement logiciel se déplace vers des interfaces en langage naturel. Des outils comme Claude, Grok ou ChatGPT, combinés à des environnements comme Cursor ou Windsurf, permettent aujourd’hui à un programmeur expérimenté de construire des applications complètes en s’adressant à l’IA comme à un collaborateur technique.
Mais le saut qu’il propose est qualitatif : éliminer même cette couche de code généré. Selon lui, la logique métier, la persistance des données et la présentation visuelle seront gérées en interne par le modèle lui-même, sans backend en Python, ni base de données relationnelle, ni frontend en HTML/CSS.
Ce concept repose sur une idée récemment exprimée par Elon Musk : “Any input bitstream to any output bitstream” (Tout flux binaire d’entrée vers tout flux binaire de sortie). Autrement dit, un LLM suffisamment avancé pourrait recevoir une entrée — une image, une instruction utilisateur, un fichier de données — et produire directement la sortie souhaitée, qu’il s’agisse d’une interface interactive, d’un résultat calculé ou d’un contenu audiovisuel.
Implications pour le marché technologique
Si cette vision se concrétise, la chaîne de valeur du logiciel sera radicalement reconfigurée. Les couches actuelles — langages de programmation, frameworks, bases de données, serveurs d’applications — pourraient disparaître en tant que segments indépendants, absorbés par une couche unifiée : le LLM.
L’aspect économique, prévient López, se concentrerait entre les mains d’un nombre très réduit d’acteurs :
- Principaux fournisseurs de LLMs multimodaux, capables d’interpréter et de générer tout type de contenu ou de fonctionnalité.
- Opérateurs d’infrastructures de calcul massif, disposant de la capacité d’exécuter ces modèles à grande échelle avec des latences compétitives.
Concrètement, cela pourrait conduire à un marché fortement concentré, où quelques entreprises — probablement les géants actuels de la tech et quelques nouveaux entrants dotés d’un avantage technologique — contrôleraient la majorité de la capacité numérique mondiale.
Le logiciel comme commodité : parallèle avec l’électricité
L’analogie proposée par López n’est pas fortuite : à l’ère de l’électrification, la compétition a laissé de côté la fabrication des lampes ou moteurs pour se concentrer sur la fourniture d’une énergie fiable et économique.
Dans un futur dominé par des LLM avancés, le logiciel cesserait d’être un produit différencié pour devenir un service de capacité, où le choix du fournisseur serait principalement déterminé par le prix, avec, dans une moindre mesure, certains avantages en termes de performance ou de propriété intellectuelle, comme cela pourrait se voir dans les jeux vidéo ou applications sous licence.
De cette façon, l’innovation ne disparaîtrait pas, mais se déplacerait vers l’amont, vers l’amélioration des modèles et l’optimisation de l’infrastructure qui leur donne vie.
Défis techniques et barrières à l’adoption
Une des principales réserves à cette vision concerne le fait que les LLMs actuels ne sont pas déterministes et manquent de mémoire persistante, ce qui limiterait leur capacité à exécuter des applications de façon cohérente et fiable.
López reconnait ces limitations, mais estime qu’elles seront surmontées grâce à une persistance et une mémoire “non simpliste”, c’est-à-dire à l’aide de mécanismes plus sophistiqués que les bases de données traditionnelles, intégrés nativement au modèle.
La clé pour atteindre ce niveau pourrait résider dans l’entraînement utilisant des données synthétiques :
- Les LLMs eux-mêmes, ou des agents basés sur eux, généreraient des applications complètes de bout en bout dans des environnements fermés.
- Chaque exécution serait enregistrée, incluant les états d’interface et les entrées utilisateur.
- Ces données alimenteraient ensuite l’entraînement de nouveaux modèles, améliorant leur capacité à exécuter des applications sans dépendre de couches externes.
Cette approche, encore naissante, rejoint des axes de recherche déjà explorés dans de grands laboratoires d’IA, où l’autoapprentissage et la simulation massive sont devenus essentiels pour faire évoluer leurs capacités.
Impact sur la structure des entreprises et le marché du travail
Si le logiciel n’exige plus un cycle de développement traditionnel, le marché du travail technologique pourrait subir une restructuration profonde :
- Le rôle du développeur évoluerait vers concepteur d’interactions et d’objectifs, plutôt que simple rédacteur de code.
- Beaucoup de couches intermédiaires disparaîtraient, affectant fournisseurs de bibliothèques, frameworks et outils de développement.
- La demande en talents se tournerait vers des spécialistes en optimisation des modèles, gestion d’infrastructures et création de prompts complexes pour maximiser les résultats.
Par ailleurs, la dépendance à un petit nombre de fournisseurs de LLMs et d’infrastructures accroîtrait le risque de concentration du pouvoir économique et politique. Dans un scénario extrême, gouvernements et grandes multinationales pourraient dépendre de moins d’une dizaine d’entreprises pour leur activité numérique principale.
Opportunités d’investissement et positionnement stratégique
Du point de vue financier, l’hypothèse de López propose deux axes majeurs :
- Identification précoce des gagnants
- Investir dans des sociétés promettant un leadership dans le développement de LLMs multimodaux.
- Ne pas se limiter aux géants déjà établis (Google, Microsoft, OpenAI, Anthropic, Meta), mais aussi considérer des entreprises avec des modèles spécialisés de haute qualité et à fort potentiel de déploiement mondial.
- Infrastructures critiques
- Les opérateurs de centres de données et fournisseurs de matériel spécialisé (GPU, TPU, puces IA sur mesure) deviendraient des pièces centrales de l’écosystème.
- Des acteurs comme NVIDIA, AMD, Broadcom ou des fabricants émergents de accélérateurs IA revendiqueraient une position stratégique.
Dans cette optique, l’analogie avec le secteur de l’énergie n’est pas purement conceptuelle : tout comme les utilities dépendent des réseaux de transmission et de production, le futur de la computation basée sur des LLMs dépendra de la capacité installée et de l’efficacité du hardware disponible.
Risques et scénarios alternatifs
Bien que la théorie de López soit techniquement crédible, plusieurs risques pourraient freiner ou modifier son déploiement :
- Limitations physiques et énergétiques : l’exécution massive de LLMs avancés demande une consommation énergétique bien supérieure à celle du logiciel traditionnel.
- Goulots d’étranglement hardware : la disponibilité en GPU et chips spécialisés est limitée et leur fabrication est sujette à des tensions géopolitiques.
- Régulation : une concentration excessive de pouvoir pourrait entraîner des interventions réglementaires limitant l’intégration verticale entre LLM et infrastructure.
- Résistance organisationnelle et culturelle : certaines entreprises, notamment dans les secteurs sensibles (défense, santé, finance), pourraient se montrer réticentes à externaliser toute leur logique métier.
En alternative, un marché hybride pourrait émerger, où coexisteraient des LLM capables d’exécuter une grande partie de la logique tout en conservant certaines couches externes pour des raisons de contrôle, sécurité ou efficacité.
Délais et signaux à surveiller
Il n’y a pas de consensus sur l’échéance de cette transformation. Certains experts tablent sur plus d’une décennie, mais López pense que “nous verrons cela plus tôt que tard”.
Pour les investisseurs et stratèges, plusieurs signaux clés indiquent que le changement pourrait s’accélérer :
- L’émergence de LLMs multimodaux capables d’exécuter des interfaces interactives complexes sans code intermédiaire.
- La consolidation de fournisseurs d’infrastructures avec leurs propres modèles, clôturant ainsi le cycle de production et d’exécution.
- La mise en œuvre réelle dans des secteurs à forte valeur (finances, énergie, santé) utilisant exclusivement des LLMs sans backend traditionnel.
- Une baisse drastique des coûts par inférence pour les modèles de grande taille.
Conclusion : un changement de paradigme avec une forte concentration de valeur
La proposition de Javi López n’est pas seulement une spéculation technique ; c’est une hypothèse de marché qui, si elle se réalise, transformerait en profondeur la distribution de la valeur dans l’économie numérique.
Dans ce futur, le logiciel ne serait plus un actif différenciateur mais une capacité standardisée exécutée par un nombre restreint de plateformes d’IA. Les opportunités d’investissement et d’expansion se concentreraient sur :
- Le développement de LLMs multimodaux de référence.
- L’infrastructure critique pour leur déploiement massif.
- Des modèles économiques intégrant ces deux éléments sous un contrôle unifié.
Toute disruption comporte ses risques, mais aussi ses enjeux : les premiers à repérer les gagnants et à gérer ces risques en tireront les plus grands bénéfices. Et, à l’image de l’électricité, le prix et la fiabilité pourraient devenir les facteurs clés dans le choix du fournisseur.
Questions fréquentes (FAQ)
1. Que signifie que le logiciel devienne une “commodité” ?
Il deviendra un service standardisé, avec peu de fournisseurs, une différenciation minimale, compétant principalement sur le prix et la fiabilité.
2. Qui seraient les principaux bénéficiaires de cette transition ?
Les entreprises qui contrôleront à la fois le développement de LLMs avancés et la gestion de l’infrastructure pour leur déploiement massif.
3. Quels risques cette évolution comporte-t-elle ?
Concentration économique et technologique, forte dépendance à quelques fournisseurs, consommation énergétique accrue, et risques réglementaires potentiels.
4. Quelles opportunités pour les investisseurs ?
Investir dans les leaders du développement de LLMs, dans le matériel spécialisé (GPU, TPU, puces sur mesure) et dans les opérateurs de centres de données capables d’accompagner cette croissance.
Source : Noticias inteligencia artificial
Chronologie critique de comment (et pourquoi) Google resserre la marge du web ouvert