Une nouvelle étude menée par des experts en intelligence artificielle révèle une vérité souvent ignorée : les modèles comme ChatGPT ou Gemini ne comprennent en réalité pas ce qu’ils disent. Ils se contentent de prédire les mots suivants en fonction de vastes quantités de données, sans rien saisir du sens.
Il se peut que l’IA vous ait déjà écrit une lettre, résolu un problème médical ou même prodigué des conseils sentimentaux. Sa lucidité, son ton humain ou sa soi-disant sagesse peuvent vous surprendre. Pourtant, la question fondamentale demeure : comprend-elle réellement ce qu’elle exprime ?
Les chercheurs de renom, tels que Dan Jurafsky, Yann LeCun ou Ravid Shwartz-Ziv, ont répondu par la négative dans leur étude intitulée “From Tokens to Thoughts: How LLMs and Humans Trade Compression for Meaning”. Selon eux, ces modèles linguistiques ne pensent pas, ne raisonnent pas : ils se contentent de compresser l’information.
La recherche compare l’organisation du savoir chez l’humain et celle des modèles de langage. Si ces derniers peuvent générer des réponses cohérentes et parfois impressionnantes, ils ne possèdent aucune compréhension véritable. Contrairement aux humains, qui naviguent à travers des idées contradictoires, des intuitions, du contexte et de l’ambiguïté, les IA simplifient la réalité selon des motifs statistiques.
Le popularisateur numérique Corti, via une publication virale sur X, expliquait : « Les LLM sont optimisés pour compresser, non pour comprendre. Ils n’ont pas d’intuition. Ils ne vivent pas dans l’ambiguïté comme nous. » La différence est essentielle : l’humain perçoit, ressent et interprète, tandis que l’IA prédit des mots.
Ce contraste souligne que notre esprit, avec ses associations chaotiques, ses souvenirs et ses émotions, est ce qui fait notre singularité. Les IA cherchent à réduire cette complexité à des modèles prévisibles, quand nous, humains, valorisons le nuance, l’exception et le détail inattendu. En ce sens, nos idées sont souvent floues, irrégulières, riches de contradictions, ce qui nous rend profondément humains.
Leur étude montre aussi que, même si les modèles de langage peuvent classer des concepts en catégories larges semblables aux nôtres, ils échouent à distinguer ce qui est typique ou atypique, à prioriser le contexte ou à saisir le sens de “normal” ou “rare” dans une conversation, faute d’expériences, d’intentions ou d’émotions.
Que signifie tout cela pour vous ? Une IA peut vous écrire un poème, mais elle ignore ce qu’est l’amour. Elle peut évoquer une crise existentielle sans en ressentir l’angoisse. Elle peut décrire une recette, mais ne goûte pas le plat. Elle imite, mais ne vit pas.
Dans un monde où nous dépendons de plus en plus de l’IA pour décider ou créer, il est crucial de se rappeler : un bon résultat ne signifie pas compréhension. La machine ne « ressent » rien, elle ne “comprend” pas vraiment.
Cette recherche nous enseigne aussi à rester humbles et à valoriser notre humanité. Notre pensée, même imparfaite, est une merveille évolutive qu’aucun algorithme ne pourra totalement reproduire : la capacité à changer d’avis, percevoir l’invisible, ressentir, ou deviner la vérité derrière un regard.
En somme, tandis que les ordinateurs calculent, les humains comprennent. Et cette différence, aussi technique qu’elle paraisse, reste fondamentalement humaine.
Pour lire l’étude complète : arxiv.org/abs/2505.17117.