AMI Labs : quand LeCun remet en question l’hégémonie des LLM
Yann LeCun, prix Turing et ancien architecte de l’IA chez Meta, vient de lever 1,03 milliard de dollars pour AMI Labs — une levée de fonds en seed record en Europe. Cette opération financière n’est pas une simple success story entrepreneuriale : elle cristallise une tension fondamentale dans le domaine de l’intelligence artificielle. LeCun plaide ouvertement pour une bifurcation technologique. Tandis que l’industrie s’intoxique aux grands modèles de langage (LLM), il propose une architecture concurrente appelée JEPA (Joint Embedding Predictive Architecture), destinée à construire des « modèles du monde » plutôt que des machines à prédire des tokens.
La thèse : les LLM ne suffiront pas
L’hypothèse centrale est radicale. LeCun affirme que l’obsession de l’industrie pour les LLM est une erreur structurelle. Ces modèles excellent à générer du texte fluide en prédisant le prochain mot dans une séquence, mais ils peinent face aux tâches exigeant une compréhension physique du monde : contrôler un drone en vol, anticiper les trajectoires d’une voiture autonome, optimiser la manipulation d’objets par un robot. Pour ces usages, les world models — capables de simuler mentalement l’évolution de l’environnement — offrent une approche théoriquement plus robuste. AMI Labs parie sur cette bifurcation.
Contexte : trois décennies de recherche convergent
Yann LeCun n’est pas un novice en quête de disruption. Son parcours incarne la continuité de l’apprentissage machine depuis les années 1990. En 1998, ses travaux pionniers sur les réseaux de neurones convolutifs (CNN) ont jeté les fondations de la vision par ordinateur moderne. Chez Meta (Facebook), où il a dirigé l’équipe d’IA pendant une décennie, il a consolidé une vision particulière : l’IA ne doit pas se limiter à prédire le prochain token ou l’image suivante, elle doit construire une représentation compressée de la causalité du monde.
Ce paradigme s’inscrit en continuité avec ses publications scientifiques récentes. Entre 2022 et 2025, LeCun et ses collaborateurs ont publié plusieurs articles détaillant JEPA : une architecture où le modèle apprend non pas les pixels bruts de l’observation suivante, mais une représentation abstraite (embedding) de ce qui va se produire. Cette approche théorique emprunte aux intuitions de prédiction du monde développées en neurosciences cognitives et robotique. Contrairement aux LLM qui nécessitent des milliards de tokens pour apprendre les régularités du langage, JEPA opère sur des espaces latents compressés, promettant une efficacité énergétique bien supérieure.
AMI Labs émerge ainsi à un moment charnière : les limitations des LLM commencent à devenir évidentes — hallucinations persistantes, incapacité à raisonner sur la causalité, coûts computationnels exponentiels. Les investisseurs, incluant Jeff Bezos, Nvidia et Samsung, ne financent pas seulement une personne, mais une réorientationStratégique que plusieurs équipes de recherche entrevoient inévitable.
Architecture JEPA : prédire l’essence, pas la surface
Comprendre JEPA exige de distinguer deux niveaux de prédiction. Les LLM actuels — GPT-5.4 d’OpenAI ou Claude Opus 4.6 d’Anthropic — prédisent les observations suivantes au niveau pixel ou token. Cette approche demande d’énormes capacités : il faut apprendre toutes les variations possibles de la surface pour capture les invariants profonds. C’est inefficace, gourmand en énergie, et fragile face aux variations mineures.
JEPA inverse cette logique. Le modèle apprend deux encodeurs :
- Encodeur d’entrée : compresse l’observation actuelle en une représentation abstraite (par exemple, « la balle est à 2 mètres, à 45°, vitesse 10 m/s »)
- Encodeur de prédiction : prédit directement cette représentation abstraite pour le timestep suivant, sans passer par les pixels bruts
Le gain théorique est élégant : si le monde obéit à des règles causales stables (la gravité, la physique), prédire dans l’espace des représentations compressées revient à apprendre ces règles plutôt que les variations superficielles. Un modèle JEPA confronté à une scène nouvelle — une boule sous un angle inédit — bénéficie de cette compréhension causale. Un LLM, lui, doit interpoler à partir de milliards de variantes textuelles.
Cette différence devient critique pour les agents IA autonomes. Un drone ou un taxi autonome qui opère dans un environnement physique continu bénéficie d’une représentation du monde prédictive et efficace. Les LLM, excellents pour le dialogue, peinent à cette tâche car ils n’encodent pas la physique : ils encodent des statistiques de texte.
Équipe et légitimité scientifique
AMI Labs ne part pas d’une feuille blanche. L’équipe rassemble des figures majeures de l’IA :
- Laurent Solly (COO) — ancien VP Europe chez Meta, manager de talents avec une profonde connaissance des écosystèmes tech européens
- Saining Xie (Chief Science Officer) — co-auteur des publications JEPA, spécialiste de vision 3D et prédiction du monde
- Pascale Fung — pionnière en IA conversationnelle et éthique, base Hong Kong
- Michael Rabbat — chercheur Meta en apprentissage fédéré et modèles distribuées
Cette constellation n’est pas du marketing. Chacun représente un domaine où les world models offrent un avantage structurel : la vision spatiale, la parole, le décentralisé. Yann LeCun lui-même demeure Chief Scientist, ce qui signifie que la direction stratégique reste entre les mains de celui qui a formulé les intuitions fondatrices.
Impact terrain : robotique et mobilité autonome
Où ces world models font la différence concrète ? Trois domaines affichent un potentiel immédiat.
1. Robotique industrielle et manipulation. Un robot qui doit saisir un objet non vu auparavant — une pomme, une pièce déformée — bénéficie d’une représentation du monde prédictive. Au lieu de mémoriser chaque variation morphologique, il comprend la causalité : « si je pousse à cet angle, avec cette force, la pièce se déplace ainsi. » Les LLM actuels n’offrent aucun avantage ici.
2. Véhicules autonomes. La conduite autonome exige de prédire les trajectoires futures d’autres usagers, d’anticiper les comportements non encore observés. Un modèle du monde — capable de simuler mentalement des scénarios — supporte ce raisonnement bien mieux qu’une chaîne de prédictions token-par-token. Nvidia GTC 2026 a d’ailleurs souligné que la tendance industrie pointe vers des architectures hybrides associant LLM et modèles de simulation.
3. Systèmes autonomes en environnement non structuré. Les drones livreurs, les robots d’exploration, les systèmes de surveillance adaptative — tous opèrent dans des contextes où l’imprévisibilité règne. Une world model entraînée à généraliser causalité offre une robustesse que les LLM peinent à construire.
La valorisation de 3,5 milliards de dollars en pre-money traduit une conviction : le marché de la robotique autonome (drones, manufacturing, mobilité) représente potentiellement plus de valeur créée que le marché des chatbots textuels. C’est une prise de position commerciale forte.
Perspectives contradictoires : les limites de la critique
Il convient de noter les tensions dans l’argument de LeCun.
D’abord, l’hypothèse de compressibilité. JEPA suppose que le monde physique admet une représentation compressée qui capture l’essentiel. Or, cette hypothèse n’a jamais été validée rigoureusement pour des environnements complexes (écosystèmes biologiques, systèmes chaotiques). Les LLM, eux, tablent sur une hypothèse plus faible : les statistiques du langage humain sont suffisamment riches. Jusqu’à présent, cette hypothèse s’est avérée robuste.
Ensuite, l’intégration du langage. Si les world models excellent pour la physique, le langage naturel — domaine où les LLM règnent — intègre de la causalité abstraite, du contexte social, de l’ambiguïté intentionnelle. Construire un world model capable d’encoder cela demande d’étendre JEPA bien au-delà de sa formulation actuelle. LeCun suggère une fusion future (world models + langage), mais ce programme reste théorique.
Enfin, l’accélération de l’industrie LLM. OpenAI, Google, Anthropic ne restent pas immobiles. Les variantes récentes de GPT et Claude proposent d’ores et déjà des capacités de raisonnement causal amélioré (chaînes de pensée étendues, planning). Il ne s’agit pas d’une bifurcation définitive, mais plutôt d’une convergence où les deux approches s’enrichissent mutuellement.
Prospective : deux mondes parallèles ?
Le pari d’AMI Labs suggère une segmentation future de l’IA :
- Domaine LLM : dialogue, génération textuelle, assistance conversationnelle, analyse sémantique — où les échelles et les miliards de tokens dominent
- Domaine world models : contrôle moteur, robotique, simulation, planification — où l’efficacité énergétique et la compréhension causale priment
Cette bifurcation traduit une vérité souvent occultée : l’intelligence artificielle n’est pas un phénomène monolithique. Des architectures différentes servent des besoins différents. L’écosystème français de startups IA, fragmenté et spécialisé, illustre déjà cette réalité. AMI Labs, avec son ancrage en Europe, pourrait catalyser une bifurcation comparable au niveau mondial.
FAQ : questions en suspens
1. Quand verrons-nous les premiers produits AMI Labs ?
AMI Labs opère actuellement en mode recherche-développement intensif, avec une période de maturation estimée à 18-24 mois avant les premiers déploiements industriels. Les partenaires (Nvidia, Samsung) disposent d’accès privilégié aux prototypes, suggérant une stratégie B2B initiale plutôt qu’une commercialisation grand public.
2. JEPA remplacera-t-il les LLM ?
Non. JEPA et les LLM adressent des problèmes distincts. Il est plus probable qu’on assiste à une convergence : des modèles hybrides intégrant world models et capacités linguistiques. Anthropic et OpenAI explorent déjà ces fusions.
3. Pourquoi la levée de fonds est-elle basée en Europe (Paris) ?
Trois raisons stratégiques : talent concentré (Saining Xie, Michael Rabbat opéraient depuis l’Europe), régulation plus prévisible (AI Act en vigueur), et positionnement symbolique — montrer que l’innovation IA n’est pas monopole américain. Ce choix reflète aussi une diversification géopolitique des investisseurs.
Conclusion : une bifurcation inévitable
AMI Labs ne résout pas la question de l’AGI (intelligence artificielle générale). Elle pose une question plus précise : comment construire des systèmes autonomes dans des environnements physiques sans reproduire la logique de token-prediction des LLM ? La réponse qu’elle propose — via world models et JEPA — repose sur une prémisse neuroscientifique solide : l’intelligence biologique construit d’abord des modèles du monde, puis y ajoute du langage.
La levée de fonds record traduit une conviction : ce programme scientifique mérite une infrastructure de R&D à échelle de Tesla ou de DeepMind. Que LeCun et son équipe réussissent ou échouent, AMI Labs aura forcé l’industrie à reconsidérer ses postulats. Dans un champ dominé par les LLM depuis ChatGPT (décembre 2022), cette bifurcation devient inévitable.
Ressources citées
- LeCun, Y., Goyal, S., Xie, S. (2024). « A Path Towards Autonomous Machine Intelligence ». Meta AI Research. [Publication scientifique fondatrice de JEPA]
- AMI Labs Official Site (2026). Advanced Machine Intelligence — Research & Development. www.amil.ai
- Reuters / TechCrunch coverage (Mars 2026). « Yann LeCun Raises $1.03B for AI Startup Challenging LLM Paradigm ».



