Le jour où j'ai compris que le roi était nu
Il y a six mois, un directeur général m'a appelé en urgence. Son équipe venait de dépenser 1,2 million d'euros sur un projet de chatbot IA "révolutionnaire". Le résultat ? Un assistant qui répondait moins bien que la FAQ de son site web, avec une facture d'inférence qui doublait chaque trimestre. "On nous avait promis l'intelligence artificielle générale," m'a-t-il dit. "On a eu un perroquet sous stéroïdes."
Cette histoire n'est pas un cas isolé. C'est devenue la norme. Et il est temps de le dire clairement : les LLM généralistes tels que nous les connaissons ont atteint un plafond. Les progrès tangibles de GPT-5 et de ses clones se mesurent en petits pourcentages (entre +3% et +7% selon les benchmarks) et ces gains ne viennent plus du modèle lui-même, mais de l'ingénierie humaine autour : Mixture of Experts, fine-tuning, Chain-of-Thought, orchestration de prompts. Le moteur cale ; ce sont les mécaniciens qui font encore avancer la voiture.
La loi des rendements décroissants frappe les LLM de plein fouet
Le mur des données
Le problème fondamental est d'une simplicité brutale : les LLM généralistes ont dévoré la quasi-totalité du Web exploitable. Le corpus de données textuelles de qualité est fini. On estime qu'Internet contient environ 250 milliards de pages, mais après filtrage du spam, des doublons et du contenu de faible qualité, il reste une fraction exploitable qui a déjà été ingérée par les modèles actuels.
La conséquence est mathématique. Quand vous avez lu tous les livres de la bibliothèque, relire les mêmes ouvrages ne vous rend pas plus intelligent. Les LLM tournent en boucle sur des données usées, et chaque nouvelle itération produit des gains marginaux décroissants. Les courbes de scaling laws, si souvent brandies par les évangélistes de l'AGI, commencent à s'aplatir. Ce n'est pas moi qui le dis : ce sont les propres chercheurs des grands labos qui le reconnaissent en off.
L'AGI : un fantasme à 5 ans minimum
Soyons directs : l'AGI est un argument marketing, pas une réalité technique. Quand Sam Altman promet l'intelligence artificielle générale "dans quelques années", il parle à ses investisseurs, pas à ses ingénieurs. Les architectures Transformer actuelles, aussi brillantes soient-elles, ne produisent pas de raisonnement. Elles produisent de la prédiction statistique sophistiquée. La différence est fondamentale.
Un LLM ne "comprend" pas votre question. Il calcule la séquence de tokens la plus probable en fonction de son entraînement. C'est un tour de force d'ingénierie, mais c'est aussi un plafond structurel. Pour franchir la marche vers une intelligence véritablement générale, il faudrait des ruptures architecturales dont personne n'a aujourd'hui la moindre idée concrètement déployable.
Le gouffre financier des chatbots grand public
Pendant que les médias célèbrent chaque nouvelle version de ChatGPT, les chiffres racontent une autre histoire. OpenAI brûle 5 milliards de dollars par an. Les chatbots grand public consomment des budgets d'inférence colossaux pour générer des conversations dont la valeur commerciale est quasi nulle. Goldman Sachs a lâché le chiffre : 1 000 milliards de dollars investis dans l'IA pour "peu de résultats tangibles".
En parallèle, 57 entreprises du S&P 500 craignent ouvertement de ne jamais récupérer leurs investissements IA. Nous ne sommes plus dans la phase de l'enthousiasme. Nous sommes dans la phase où les comités de direction commencent à demander des comptes.
Pourquoi ce plateau change tout pour votre stratégie d'entreprise
Si vous êtes CIO, CTO ou dirigeant, ce plafonnement des LLM a une implication stratégique majeure : la course au modèle le plus gros est terminée pour vous. Cette course appartient aux hyperscalers (Google, OpenAI, Anthropic, Meta) qui ont les milliards nécessaires pour grappiller quelques points de benchmark. Votre avantage concurrentiel ne sera jamais la taille de votre modèle. Il sera dans ce que vous en faites avec vos données.
C'est un changement de paradigme complet. Pendant deux ans, les entreprises ont couru après la technologie. Il est temps de courir après la valeur.
L'illusion du "plug and play"
Trop d'organisations traitent encore les LLM comme un logiciel sur étagère. On branche ChatGPT Enterprise, on déploie Copilot, et on attend que la magie opère. C'est comme acheter une Ferrari et la garer dans un champ de boue : le problème n'est pas le moteur, c'est la route.
Vos données sont la route. Si elles sont fragmentées, non gouvernées, enfermées dans des silos départementaux et polluées par des doublons, aucun LLM au monde ne produira de valeur. La gouvernance des données n'est pas un sujet sexy. C'est le sujet qui sépare les 5% de projets IA qui réussissent des 95% qui échouent.
La feuille de route pragmatique : RAG, gouvernance et ROI dès la première itération
Le RAG comme architecture de valeur
Plutôt que d'attendre un hypothétique GPT-6 miraculeux, les entreprises qui génèrent du ROI aujourd'hui construisent des architectures RAG (Retrieval-Augmented Generation) ancrées dans leurs données propriétaires. Le principe est simple : au lieu de demander au LLM de "savoir" quelque chose, on lui fournit le contexte pertinent extrait de vos bases de connaissances internes, et il synthétise une réponse fondée sur vos documents réels.
Mais attention : le RAG naïf est aussi un piège. Un simple vector search sur des documents PDF ne suffit pas. Comme je l'ai détaillé dans mes analyses sur le GraphRAG, la véritable valeur émerge quand on structure les connaissances en graphes de relations (composants, services, règles, dépendances) permettant un raisonnement qui suit des chaînes de causalité, pas juste des similarités lexicales.
Les trois chantiers prioritaires pour 2026-2028
1. Agents métiers pour process critiques. Oubliez le chatbot généraliste. Construisez des agents spécialisés qui automatisent des workflows spécifiques : traitement de sinistres, analyse de conformité, qualification de leads B2B. Un agent qui fait une seule chose bien vaut dix chatbots qui font tout mal.
2. Pipelines d'inférence hybrides (cloud et on-premise). La souveraineté n'est pas un caprice européen. C'est une nécessité opérationnelle. Vos données sensibles doivent rester sous votre contrôle, et votre architecture d'inférence doit fonctionner même si un fournisseur cloud américain décide de changer ses conditions du jour au lendemain. L'approche hybride (modèles légers en local pour les données sensibles, cloud pour le reste) est la seule stratégie résiliente.
3. Knowledge bases propriétaires. Votre avantage concurrentiel réside dans les connaissances que vos concurrents ne possèdent pas. Capitalisez dessus. Structurez vos connaissances métier, formalisez les expertises tacites de vos collaborateurs, et construisez des bases de connaissances qui deviennent le carburant de vos systèmes IA. C'est ce patrimoine informationnel, et non le LLM sous-jacent, qui créera la différenciation durable.
Le ROI dès la première itération
Voici une règle que j'applique systématiquement avec mes clients : si votre premier déploiement IA ne génère pas de valeur mesurable en 90 jours, vous avez un problème de cadrage, pas un problème de technologie. Le ROI ne vient pas du modèle. Il vient de la précision avec laquelle vous avez identifié le processus métier à optimiser, mesuré le coût actuel de ce processus, et défini le critère de succès quantifiable.
Les entreprises qui réussissent ne commencent pas par la technologie. Elles commencent par la question : "Quel processus me coûte le plus cher et pourrait être partiellement automatisé ?" Ensuite seulement, elles choisissent l'outil.
La hype est finie, tant mieux
Le plafonnement des LLM généralistes n'est pas une mauvaise nouvelle. C'est une libération. Il nous force à sortir du fantasme AGI et à revenir aux fondamentaux de la création de valeur : comprendre son métier, gouverner ses données, mesurer ses résultats.
Les investisseurs européens ont ici une opportunité historique. Pendant que les Américains continuent de brûler des milliards dans la course au modèle le plus gros, nous pouvons investir dans l'IA qui transforme concrètement le back-office et le middle-office de nos entreprises. Pas des chatbots. Pas des démos impressionnantes. Des systèmes qui réduisent les coûts, accélèrent les processus et améliorent les décisions.
La hype est finie. Place à la vraie valeur. Et si vous ne savez pas par où commencer, c'est probablement par vos données.
