Yann LeCun, I-JEPA et la fin des LLM : ce que ça change pour les pros du digital
Depuis l'irruption de ChatGPT fin 2022, les grands modèles de langage ont colonisé les discours sur l'intelligence artificielle au point de sembler incontournables. Les dirigeants de PME investissent dans des abonnements, les responsables marketing automatisent leurs briefs, les agences intègrent des workflows génératifs à tour de bras. Pourtant, une voix dissonante s'élève depuis plusieurs années avec une autorité difficile à ignorer : celle de Yann LeCun, l'un des pères fondateurs du deep learning et directeur scientifique de l'IA chez Meta.
LeCun ne dit pas que les LLM sont inutiles. Il dit qu'ils sont fondamentalement limités, qu'ils ne mèneront jamais à une intelligence artificielle générale, et que la prochaine révolution ne viendra pas d'un GPT-5 ou d'un Gemini Ultra mais d'une architecture radicalement différente : les world models. Cette prise de position, appuyée par des travaux concrets comme l'architecture I-JEPA publiée par Meta AI, commence à remodeler sérieusement le débat dans les cercles techniques. Et elle mérite votre attention bien avant que ses effets n'arrivent dans vos outils du quotidien.
Cet article n'est pas un cours d'informatique. C'est une mise au point stratégique pour les professionnels du digital qui ont besoin de comprendre où va vraiment l'intelligence artificielle afin de prendre des décisions d'investissement et de positionnement éclairées. Parce que si LeCun a raison, et les signaux s'accumulent en ce sens, alors une partie significative de ce que vous construisez autour des LLM aujourd'hui devra être repensée d'ici 2026.
Les LLM dominent le débat sur l'IA générative mais accumulent des limites structurelles que les pros du digital ne peuvent plus ignorer
| Critère | LLMGPT, Claude, Gemini… | World Model / JEPAI-JEPA, V-JEPA, AMI… |
|---|---|---|
| Type de données | Texte uniquement | Multimodal — vidéo, image, capteurs |
| Objectif d'apprentissage | Prédire le prochain token (statistique) | Prédire des représentations abstraites du monde |
| Compréhension causale | Aucune — corrélations uniquement | Oui — relations causales intégrées |
| Planification long terme | Très limitée | Native — interface planification / action |
| Hallucinations | Structurelles — inhérentes au paradigme | Réduites — ancrage dans la réalité |
| Efficacité d'entraînement | Très élevée — coût GPU massif | Meilleure généralisation avec moins de données |
Un grand modèle de langage fonctionne en prédisant le prochain token le plus probable dans une séquence. C'est une mécanique statistique d'une puissance remarquable, capable de produire des textes cohérents, des codes fonctionnels, des résumés pertinents. Mais cette mécanique n'implique aucune compréhension du monde réel. Un LLM ne sait pas ce qu'est une table, il sait que le mot 'table' apparaît fréquemment dans des contextes où l'on parle de surfaces planes et de repas. Cette distinction, qui peut sembler philosophique, a des conséquences très pratiques.
Les hallucinations en sont la manifestation la plus connue. Quand un modèle invente une source bibliographique ou attribue une citation à la mauvaise personne, ce n'est pas un bug isolé : c'est la conséquence directe d'une architecture conçue pour produire du texte vraisemblable plutôt que pour vérifier la vérité. Les équipes marketing qui utilisent des LLM pour produire du contenu SEO ou des fiches produits le savent : la relecture humaine reste indispensable, et elle coûte du temps. L'automatisation promise n'est jamais totale, parce que le modèle ne comprend pas ce qu'il écrit au sens causal du terme.
Au-delà des hallucinations, les LLM peinent structurellement sur le raisonnement en plusieurs étapes, la planification à long terme et la compréhension des relations causales physiques. Demandez à un LLM de résoudre un problème de logistique complexe impliquant des contraintes temporelles et spatiales réelles, et vous obtiendrez une réponse qui semble correcte mais qui s'effondre dès qu'on la confronte aux faits. Ces limites ne disparaîtront pas avec plus de paramètres ou plus de données. Elles sont inscrites dans la logique même du paradigme prédictif sur lequel reposent tous les LLM actuels, qu'il s'agisse de GPT-4, Claude, Mistral ou Gemini.
Le coût énergétique et économique des LLM remet en question leur scalabilité pour les PME
Entraîner et faire tourner des LLM à grande échelle mobilise des ressources computationnelles considérables. GPT-4 aurait coûté plus de 100 millions de dollars à entraîner selon plusieurs estimations publiées. Pour les entreprises qui dépendent d'API tierces, ce coût se traduit en tarifs d'utilisation qui augmentent dès que les volumes montent. Une PME qui automatise sérieusement sa production de contenu ou son service client via des LLM se retrouve rapidement avec une dépendance fournisseur forte et des coûts variables difficiles à budgéter. C'est une réalité que les architectures de nouvelle génération comme les world models promettent de transformer en profondeur.
Yann LeCun porte une critique radicale des LLM et propose une vision alternative de l'intelligence artificielle fondée sur les world models
Yann LeCun est Prix Turing 2018, cofondateur du deep learning avec Geoffrey Hinton et Yoshua Bengio, et directeur de FAIR, le laboratoire de recherche en IA de Meta. Sa légitimité pour critiquer le paradigme dominant est donc absolue. Depuis au moins 2022, il répète sur toutes les tribunes disponibles que les LLM, aussi impressionnants soient-ils, représentent une voie sans issue vers l'AGI, l'intelligence artificielle générale. Son argument central est que prédire des mots ne suffit pas pour développer une intelligence capable de comprendre et d'agir dans le monde physique.
Sa proposition alternative s'articule autour du concept de world model, un système d'IA capable de construire une représentation interne du monde, d'en modéliser les contraintes physiques et causales, et de planifier des actions en fonction d'objectifs à long terme. L'idée n'est pas nouvelle en théorie, elle est au cœur des travaux de Judea Pearl sur la causalité ou des recherches en robotique depuis des décennies, mais LeCun lui donne une forme architecturale concrète et publie des résultats qui commencent à convaincre la communauté scientifique. Son document de référence, 'A Path Towards Autonomous Machine Intelligence', publié en 2022 et régulièrement mis à jour, constitue le manifeste le plus complet de cette vision alternative.
La notion d'AGI en 2026 n'est plus une spéculation marginale mais un horizon stratégique crédible
Plusieurs laboratoires, dont DeepMind, OpenAI et Meta AI, ont annoncé des jalons concrets vers l'AGI dans les deux à trois prochaines années. Les définitions varient et les positions divergent, mais la convergence de ces annonces signale quelque chose d'important : le débat sur l'AGI est sorti du domaine de la science-fiction pour entrer dans celui de la planification industrielle. Pour un dirigeant de PME ou un responsable marketing, cela signifie que les outils d'IA disponibles dans 18 mois pourraient avoir des capacités qualitativement différentes de ceux d'aujourd'hui, ce qui rend toute stratégie d'investissement trop rigide potentiellement obsolète avant d'être amortie.
L'architecture I-JEPA représente une rupture technique concrète avec la logique des modèles génératifs actuels
I-JEPA, pour Image Joint Embedding Predictive Architecture, est une architecture développée par les équipes de Meta AI et publiée officiellement en 2023. Son principe de fonctionnement diffère fondamentalement de celui des modèles diffusion ou des architectures génératrices traditionnelles. Là où un modèle comme Stable Diffusion génère une image pixel par pixel en apprenant à reproduire des distributions visuelles, I-JEPA apprend à prédire des représentations abstraites de régions manquantes d'une image dans un espace de features de haut niveau.
Ce changement de paradigme est plus profond qu'il n'y paraît. En travaillant sur des représentations abstraites plutôt que sur des pixels bruts, I-JEPA est contraint d'apprendre des propriétés structurelles et sémantiques du monde visuel, pas seulement des corrélations statistiques de surface. LeCun parle d'apprentissage de “représentations du monde” plutôt que d'imitation de données. Les résultats empiriques montrent qu'I-JEPA atteint des performances supérieures à des architectures concurrentes sur des benchmarks de vision avec moins de données d'entraînement, ce qui est un signal fort d'une meilleure généralisation.
JEPA comme brique vers les world models multimodaux et le raisonnement causal
I-JEPA n'est pas un produit fini, c'est une brique architecturale dans un projet plus large. LeCun conçoit une famille d'architectures JEPA, potentiellement étendues à la vidéo, à l'audio et au texte, dont la composition permettrait à terme de construire des systèmes capables de modéliser des séquences d'événements dans le temps, de prédire les conséquences d'actions, et d'apprendre à partir de très peu d'exemples comme le fait un enfant humain. Ce n'est pas encore de l'AGI, mais c'est une progression cohérente vers quelque chose qui en est beaucoup plus proche que GPT-4, ce qui n'est pas une petite affirmation.
Pour les dirigeants de PME et les responsables marketing, le passage aux world models redéfinit les usages concrets de l'IA générative d'ici 2026
La question pratique pour un dirigeant ou un responsable marketing n'est pas de comprendre les détails techniques d'I-JEPA, c'est d'évaluer comment cette transition technologique affecte ses décisions d'investissement et ses workflows actuels. La réponse la plus honnête est la suivante : les outils que vous utilisez aujourd'hui, qu'il s'agisse de ChatGPT, Midjourney, Claude ou des dizaines de solutions SaaS construites par-dessus ces modèles, vont continuer à s'améliorer à court terme, mais ils approchent d'un plafond architectural. Les prochaines percées ne viendront pas d'un prompt engineering plus sophistiqué mais d'une refonte des fondations.
Cela a des implications directes sur votre stratégie digitale. Si vous avez investi massivement dans des workflows de production de contenu entièrement automatisés via LLM, l'arrivée de systèmes capables de véritablement comprendre votre secteur, vos clients et le contexte de vos communications pourrait rendre ces workflows partiellement obsolètes ou, au contraire, les rendre enfin vraiment fiables sans supervision humaine constante. Les équipes qui auront maintenu une compréhension critique des capacités et des limites de l'IA seront mieux placées pour absorber cette transition que celles qui auront simplement automatisé sans comprendre.
Repenser sa stack d'outils IA avec une logique d'adaptabilité plutôt que de dépendance
Une erreur fréquente que nous observons chez Quillet Digital est de construire des processus d'entreprise sur des outils IA spécifiques plutôt que sur des capacités génériques. Une PME qui a tout misé sur une intégration profonde avec un seul fournisseur LLM se retrouvera en position de faiblesse lorsque les architectures de nouvelle génération arriveront sur le marché commercial, probablement d'ici 12 à 24 mois selon les projections les plus réalistes. La bonne approche consiste à concevoir ses automatisations autour de résultats attendus et de données maîtrisées, en maintenant la flexibilité de changer de modèle sous-jacent sans refondre l'ensemble du système.
Anticiper la transition vers les world models est un avantage concurrentiel réel pour les consultants digitaux et les agences web marketing
Pour les agences et les consultants en digital, la transition vers les world models représente une opportunité de repositionnement stratégique majeure. La plupart des acteurs du marché se sont positionnés sur l'utilisation tactique des LLM : prompting, intégration API, automatisation de workflows. C'est une valeur ajoutée réelle mais qui tend à se commoditiser rapidement à mesure que les outils no-code deviennent plus accessibles. La compétence différenciante de demain sera la capacité à comprendre les nouvelles architectures, à évaluer leur pertinence pour des cas d'usage client spécifiques, et à guider des organisations dans une transition technologique dont les contours sont encore flous pour la majorité des décideurs.
Investir dès maintenant dans une veille active sur les travaux de LeCun, sur les publications de Meta AI, DeepMind et des laboratoires académiques comme le MILA, c'est construire une avance que vos concurrents mettront du temps à rattraper. Le fossé entre ce qui se passe dans les labos et ce qui arrive dans les produits commerciaux est généralement de 18 à 36 mois. Vous avez donc une fenêtre pour vous positionner en expert de la prochaine vague avant qu'elle ne devienne le nouveau standard.
La maîtrise des concepts fondamentaux de l'IA devient un différenciateur commercial pour les agences web
Les clients, qu'ils soient dirigeants de PME ou responsables marketing dans des entreprises plus structurées, commencent à distinguer les agences qui comprennent vraiment l'IA de celles qui se contentent d'utiliser des interfaces. Savoir expliquer pourquoi un LLM hallucine, ce qu'un world model change dans la capacité d'une IA à comprendre un brief complexe, ou comment I-JEPA améliore la compréhension visuelle des systèmes IA, ce ne sont pas des connaissances anecdotiques. Ce sont des arguments de vente concrets pour des clients qui ont été déçus par des promesses de l'IA générative non tenues et qui cherchent des partenaires capables de les guider avec honnêteté. Chez Quillet Digital, nous faisons le pari que cette profondeur d'analyse est précisément ce qui distingue une vraie expertise digitale d'une simple exécution technique, aujourd'hui comme demain.
-
Un world model est un système d'IA capable de se représenter le monde physique et de raisonner sur des situations concrètes, au-delà de la simple manipulation du langage. Contrairement aux LLM qui prédisent des tokens de manière statistique, les world models visent à comprendre les relations causales entre les événements. Cette approche cherche à reproduire davantage le fonctionnement du raisonnement humain.
-
Yann LeCun estime que les LLM sont fondamentalement limités parce qu'ils apprennent uniquement à partir de texte, sans ancrage dans la réalité physique ou sensorielle du monde. Selon lui, cette architecture ne peut pas mener à une intelligence artificielle générale, car elle ne comprend pas réellement ce qu'elle produit. Il leur reproche notamment leur incapacité à planifier efficacement ou à raisonner de façon robuste.
-
I-JEPA est un modèle développé par Meta AI qui apprend en prédisant des représentations abstraites d'images plutôt que des pixels bruts. Il s'appuie sur une approche auto-supervisée qui privilégie la compréhension sémantique des données visuelles plutôt que leur reconstruction exacte. Ce modèle illustre concrètement la vision de LeCun pour un apprentissage machine plus efficace et plus ancré dans la perception.
-
Si les world models s'imposent, les outils de création de contenu et d'analyse pourraient devenir capables de comprendre le contexte réel des campagnes, pas seulement d'en générer le texte. Cela ouvrirait la voie à des IA capables de raisonner sur les comportements d'achat, les tendances de marché ou l'expérience utilisateur de façon bien plus fine. Les pros du digital devront anticiper une transformation profonde des plateformes qu'ils utilisent au quotidien.
-
Non, la disparition des LLM n'est pas imminente, et ces deux approches pourraient coexister ou même se combiner sur le moyen terme. Les LLM restent très performants pour les tâches de génération de texte, de synthèse et d'assistance rédactionnelle à court terme. C'est davantage leur position de paradigme dominant qui est remise en question, au profit d'architectures hybrides plus robustes.
-
Il est essentiel de suivre de près les avancées en recherche en IA au-delà des seuls outils grand public, pour anticiper les ruptures technologiques à venir. Former les équipes à comprendre les limites actuelles des LLM permet de mieux évaluer quand et comment adopter de nouvelles solutions. Développer une culture de veille technologique et de pensée critique face aux promesses marketing de l'IA devient un véritable avantage concurrentiel.