À retenir

• Yann LeCun (Turing Award, ex-Meta) fonde AMI Labs et lève 1,03 milliard € en seed round
• Pari sur les « world models » : apprendre par l’expérience, pas par le langage textuel
• JEPA (Joint Embedding Predictive Architecture) contre l’autorégressionisme des LLM : deux paradigmes en collision
• Le plus gros seed round européen jamais levé : Cathay Innovation, Greycroft, Bezos Expeditions, Nvidia, Samsung au rendez-vous

Quand le Turing Award dit non aux grandes modèles de langage

On les croyait victorieuses, définitives, incontournables. Les grandes modèles de langage—ChatGPT, Claude, Gemini—ont conquis le monde en moins de trois ans. Et voilà que Yann LeCun, figure tutélaire de l’intelligence artificielle, dont le CV serait enviable à Dieu lui-même (Turing Award 2018, père de la convolution, fondateur du FAIR de Meta), pose une question proscrite dans les salons technologiques parisiens : et si nous nous trompions de route ?

Le 9 mars 2026, AMI Labs annonce sa levée : 1,03 milliard d’euros en seed round, à une valorisation pré-money de 3,5 milliards. Vous avez bien lu. Un seed round. Européen. Français. À Paris. C’est le plus gros jamais levé sur le continent. Et ce n’est pas pour faire un ChatGPT de plus—c’est pour construire quelque chose de radicalement différent.

Le chercheur qui dit non aux LLM

Pendant que Meta traite Yann LeCun comme un prophète encombrant—son créateur intellectuel, oui, mais aussi la voix dissidente qui crie que l’industrie construit des cathédrales sur du sable—, lui fonde AMI Labs avec une conviction sereine. Alex LeBrun (ex-Nabla, ce dernier comprend l’infrastructure deep-tech) prend la direction générale. L’équipe s’établit à Paris, avec des bureaux à New York, Montréal et Singapour. Un siège français pour une révolution technologique : cela ne s’était pas vu depuis longtemps.

LeCun enseigne toujours à NYU. Il ne disparaît pas dans une startup de luxe. Il continue à penser, à écrire sur X (anciennement Twitter), à mettre en forme ses intuitions. Et maintenant, il les finance à hauteur d’un milliard d’euros.

Pourquoi ce pari ? Parce que LeCun—et c’est ce qui rend son argument terrifiants pour l’établissement des LLM—pense que le modèle actuel a atteint ses limites naturelles. Non pas technique, naturelles. Les transformateurs autorégressifs sont merveilleux pour prédire le prochain token, magnifiques pour converser. Mais pour comprendre le monde ? Pour apprendre l’intelligence comme un enfant apprend à marcher, en essayant, en échouant, en recalibrant ?

JEPA contre GPT : deux visions de l’intelligence

Voici le cœur du débat philosophique—ou plutôt, architectonique—qui oppose aujourd’hui LeCun aux prophètes de l’AGI linguistique.

Les LLM apprennent par prédiction textuelle autorégressive : donner les mots précédents, prédire le suivant. Un milliard de fois. Sophistiqué, très sophistiqué. Efficace dans les domaines où le texte capture la complexité. Mais limité : ces modèles ne comprennent pas la physique du monde. Ils ne savent pas qu’une tasse ne traverse pas une table. Ils le savent parce que le texte qu’on leur a montré le dit, pas parce qu’ils l’ont appris.

JEPA—Joint Embedding Predictive Architecture, la créature intellectuelle de LeCun—procède autrement. Observez une vidéo. Compressez ce que vous voyez en une représentation abstraite, un « code latent ». Prédisez l’état futur de ce code sans passer par la reconstruction pixel-par-pixel. Apprenez les lois du monde dans cet espace compressé.

C’est l’apprentissage par l’expérience. Pas par le texte. Pas par la description humaine. Par l’immersion.

Imaginaires : un bébé qui regarde tomber une balle apprend la gravité sans lire Galilée. C’est JEPA.

Les investisseurs semblent avoir compris. Cathay Innovation, Greycroft, Bezos Expeditions (le fonds du fondateur d’Amazon), Nvidia, Samsung—la litanie des noms qui pèsent—prennent position à la table de jeu.

Un milliard pour prouver que le monde a tort

Il y a une arrogance délicieuse dans ce geste. LeCun lève le plus gros seed round jamais vu en Europe, non pas pour accélérer une technologie éprouvée, mais pour invalider une certitude devenue dogme. Les LLM, c’est l’avenir, consensus unanimous. Les modèles de langage vont nous conduire à l’AGI. Les fondateurs de startups IA parlent d’échelles, de données, de compute. Augmentez le tout, murmurent-ils, et l’intelligence émergente.

LeCun dit : non. Vous oubliez la physique. Vous oubliez l’apprentissage incarné. Vous avez construit des oracles de texte, pas de l’intelligence au sens fort du terme.

Et la machine financière écoute. Un milliard d’euros pour tester cette hypothèse. Si LeCun a raison, la prochaine décennie de l’IA se redessine. Si le consensus actuel persiste, eh bien, c’est un capital de recherche exceptionnel investi dans une fausse piste—mais une fausse piste menée par le Turing Award, donc estimable.

Un pari français dans une guerre américaine

Voilà ce qui fascine véritablement : l’emplacement du jeu. Paris. Quand on pense à l’IA de pointe, on imagine la Silicon Valley, le MIT, les laboratoires de Google à Mountain View. Pas la Marais ou Belleville.

Et pourtant. La France possède une tradition mathématique ancienne, des penseurs en computer science de poids (Yann LeCun lui-même, formé en grande partie par le système français). L’Europe a commencé à bouger : régulation plus réfléchie qu’aux États-Unis, écosystème deep-tech croissant, capital patient.

AMI Labs est peut-être un signal : la prochaine couche d’innovation en IA ne viendra pas seulement de Palo Alto. Elle peut germer ailleurs, portée par des penseurs qui refusent le consensus, avec des capitaux dispatchés à travers le monde.

Et si LeCun avait raison ?

Scénario 1 : les world models deviennent la base de la prochaine génération d’systèmes autonomes. Robots, voitures autonomes, systèmes de contrôle industriel—tous construits sur JEPA ou ses descendantes. AMI Labs devient à l’IA incarnée ce que Tesla a été aux véhicules électriques. Le pari devient un empire.

Scénario 2 : les LLM conservent leur primauté, mais intègrent progressivement les principes des world models. Multimodalité, apprentissage par l’expérience, non seulement par le texte. La distinction entre les deux approches s’estompe. Tout le monde gagne.

Scénario 3 : c’est plus compliqué. Les deux paradigmes coexistent longtemps, servent des usages différents, rendent tous les investisseurs riches. L’AGI arrive ou n’arrive pas. Nous continuons.

Le quatrième scénario, celui où LeCun se trompe et le capital disparaît, est évidemment possible. Mais avec ce profil d’investisseurs, c’est le moins probable.

FAQ : Vos questions sur AMI Labs et les world models

Pourquoi les « world models » sont-ils différents des LLM ?

Les LLM prédisent le texte suivant donné le contexte textuel—une approche statistique, unidimensionnelle. Les world models apprennent à prédire l’état futur du monde à partir de l’observation, en compressant la réalité dans des représentations abstraites. C’est apprendre par l’expérience, comme les animaux et les enfants.

Yann LeCun peut-il vraiment « prouver » que le consensus actuel a tort ?

Pas juridiquement, évidemment. Mais scientifiquement et techniquement : oui. Si AMI Labs produit des systèmes autonomes supérieurs à ceux basés sur des LLM purs, dans des domaines clés (robotique, simulation, contrôle), cela remettrait en question le dogme. La science progresse par ces chocs.

Devrai-je surveiller AMI Labs ?

Absolument. Même si vous n’êtes pas investisseur, AMI Labs est un laboratoire d’idées qui teste l’hypothèse la plus intéressante du moment : que l’intelligence requiert plus que du texte. Ses publications, ses produits, ses pivots vous apprendront beaucoup sur la direction réelle de l’IA en 2026-2030.