Comment fonctionne un LLM ? (IA calculateur de probabilités, pas penseur)
Un LLM calcule mathématiquement le champ sémantique d’un énoncé – qu’il s’agisse d’un prompt, d’une question ou d’un texte – en transformant chaque mot, chaque phrase, en vecteurs dans un espace à très haute dimension. Ces vecteurs sont le résultat d’un apprentissage statistique sur des milliards de textes. Le sens, pour le modèle, se réduit à des relations géométriques (proximités, directions, distances) entre ces vecteurs.
Le modèle ne « comprend » pas plus qu’un nuage de points ne comprend les objets qu’il représente.
C’est à la fois très puissant (car cela permet de générer des textes cohérents, des métaphores, des raisonnements par analogie) et très limité (car il n’y a ni intention, ni croyance, ni ancrage dans le monde réel). Un LLM calcule mathématiquement le champ sémantique de l’énoncé. C’est une machine à projeter du langage sur des espaces vectoriels, et à naviguer dans ces espaces pour produire des réponses probables.
Bien que redoutablement efficace pour bien des tâches, reste une calculatrice de probabilités pas une conscience, pas un esprit.
Un jour, je lui ai demandé : « Comment définissez‑vous les mots ? Comment savez‑vous que “fission” peut aller avec “atomisation sociale” ? »
Sa réponse m’a ouvert les yeux : un LLM ne comprend pas les mots comme nous. Il calcule des probabilités.
L’idée clé : l’espace vectoriel
Imaginez une immense carte. Chaque mot est un point dans l’espace. Les points sont placés de telle sorte que les mots qui ont des sens proches sont physiquement proches sur la carte.
· « roi » est près de « reine », « couronne », « trône ».
· « chaud » est près de « brûlant », mais loin de « froid ».
Cette carte n’est pas dessinée par des humains. Le LLM l’a construite tout seul en lisant des milliards de textes (livres, sites, articles). Il a observé que certains mots apparaissent souvent ensemble. Par exemple, « soleil » et « chaud » se côtoient fréquemment. Le modèle en déduit qu’ils doivent être proches dans l’espace.
Ce que le LLM fait quand vous posez une question
1. Il transforme votre phrase en vecteurs : chaque mot devient un point.
2. Il regarde autour : quels sont les points les plus proches ? Quels enchaînements sont probables ?
3. Il calcule la suite la plus plausible mot par mot, comme un jeu de devinettes géant.
Il ne « réfléchit » pas. Il ne « vérifie » pas la vérité. Il dit : « Voici la réponse la plus probable selon ce que j’ai lu. »
Illustration simple
Humain : « La définition de dieu est égale à plus l’infini. »
Le LLM : « Dans des millions de textes théologiques, “dieu” est souvent associé à “infini”. L’égalité est donc sémantiquement plausible. »
Il ne peut pas : décider si c’est vrai ou faux. Il ne fait pas de mathématiques. Il ne croit pas en dieu.
Le LLM apprend tout seul, sans qu’on lui donne de règles. C’est sa force : il découvre des relations que jamais un humain n’aurait listées. C’est aussi sa faiblesse : il peut apprendre des bêtises ou des stéréotypes simplement parce qu’ils sont fréquents sur Internet.
En trois phrases
· Un LLM est une machine à calculer des probabilités sur le langage.
· Il ne comprend pas – il projette les mots dans un espace mathématique.
· Son talent : imiter la cohérence humaine. Sa limite : il ne sait rien du monde réel.
voici une petite blague… de LLM. Pourquoi un LLM n’est-il jamais sûr de lui ?
Parce qu’il dit toujours : « Je ne suis pas certain, mais la probabilité que ce soit drôle est de 0,87… » (Silence dans la salle)« Bon, je retourne m’entraîner sur plus de textes.
Blague auto-dérisoire, comme le veut la tradition des LLM.
© 2026 Pascal Walter. Tous droits réservés.
