Yann LeCun quitte Facebook pour créer ses « world models » face à des IA « pas plus intelligentes qu’un chat de gouttière »
Le chercheur français Yann LeCun, l’une des trois figures du deep learning et prix Turing 2018, officialise sur Facebook son départ de Meta pour la fin 2025, après douze ans passés à la tête du laboratoire Fair et alors que Mark Zuckerberg ayant clairement réorienté son groupe vers les grands modèles de langage que le scientifique estime sévèrement limités.
La Tribune Publié le 20/11/25
Le jour où l’on apprenait qu’Anthropic levait à nouveau des milliards pour affiner ses modèles textuels, Yann LeCun, responsable de la recherche IA et visage médiatique de Meta dans ce domaine, s’en va. Après douze ans passés à bâtir et diriger le Facebook Artificial Intelligence Research (Fair) à Paris, le chercheur français de 65 ans a annoncé, le 19 novembre, sur Facebook, qu’il lancerait sa propre start-up avant la fin de 2025.
L’objectif de cette nouvelle entité est clair : développer des modèles d’IA capables de comprendre le monde physique. Pour LeCun, il s’agit ni plus ni moins de « mener à la prochaine grande révolution de l’IA : des systèmes susceptibles de comprendre le monde physique, dotés d’une mémoire permanente, capables de raisonner et de concevoir des actions complexes ». C’est un positionnement direct à contre-courant de la stratégie actuelle de Meta.
Le fossé stratégique et hiérarchique : l’ère Zuckerberg II
Le départ de l’une des figures majeures de l’IA mondiale, co-lauréat du prix Turing en 2018 pour ses travaux pionniers sur les réseaux neuronaux convolutifs, consacre un désaccord de fond avec l’orientation récente du groupe de Mark Zuckerberg. Ces derniers mois, le PDG de Meta a débauché l’entrepreneur Alexandr Wang, cofondateur de Scale AI, pour le placer à la tête d’une nouvelle entité baptisée « Superintelligence Labs », rassemblant l’ensemble des ressources consacrées à l’IA. Ironie du sort ou mise à l’écart progressive, Yann LeCun, responsable de la recherche IA chez Meta, s’est vu intégré à cette unité et placé sous la responsabilité directe d'Alexandr Wang.
Au-delà de ce remaniement hiérarchique, c’est l’objectif qui a changé. Le groupe s’est massivement réorienté vers le développement des grands modèles de langage (LLM), ces briques logicielles construites sur l’ingestion et la manipulation de gigantesques quantités de texte, et qui propulsent des interfaces comme ChatGPT ou Gemini. Cette stratégie, largement adoptée par l’industrie, est la cible favorite de Yann LeCun, qui la considère comme une impasse coûteuse et un piège pour la recherche fondamentale.
L’IA limitée du chat de gouttière contre les « World Models »
Le chercheur n’a eu de cesse de dénoncer publiquement les limites des LLM. Il a popularisé une formule choc pour déconstruire l’enthousiasme généralisé des investisseurs et du grand public : « Les IA actuelles ne sont pas plus intelligentes qu’un chat de gouttière. » Selon lui, ces modèles de langage « manipulent le langage, mais ne comprennent rien au monde réel », ce qui les rend incapables de faire franchir un cap décisif vers une véritable intelligence humaine. Les LLM excellent à prédire le mot suivant, mais ne possèdent aucune notion de la causalité physique ou de la persistance des objets.
LeCun mise au contraire sur les « world models ». Son alternative est une IA qui apprend non pas en avalant des pétaoctets de texte, mais en expérimentant le monde par ingestion d’images et de vidéos, ou par l’intermédiaire d’une enveloppe robotique. Cette approche, qu’il compare à l’apprentissage d’un enfant, permettrait à l’algorithme d’acquérir une compréhension fine du fonctionnement réel du monde et d’appréhender des situations pour lesquelles il n’a pas été programmé. Une telle avancée ouvrirait la voie à de nouvelles applications, notamment en matière de robotique, en rendant les machines réellement autonomes.
L’héritage français de Fair et la boussole LeCun
Malgré sa liberté de parole, le départ de LeCun est un symbole fort pour l’écosystème français. C’est à Paris que le Francilien avait fondé Fair en 2015. Ce laboratoire a été le berceau de LLama, le modèle qui a repositionné Meta dans la course à l’IA générative open source, et a formé des talents majeurs du secteur, dont Guillaume Lample, aujourd’hui à la tête de Mistral AI. L’influence de ce laboratoire sur la tech française est indiscutable.
Fort de son prestigieux pedigree et de son prix Turing, co-attribué avec Yoshua Bengio et Geoffrey Hinton, le chercheur est une véritable boussole pour l’industrie. « Si Yann le dit, c’est que c’est vrai », résume un chercheur parisien. Cette influence est aussi nourrie par ses 800 000 abonnés sur X (anciennement Twitter), où il n’hésite pas à se lancer dans des passes d’armes cinglantes avec des figures comme Elon Musk.
Le risque d’un optimisme trop pur
Son rôle au sein de Meta lui garantissait, selon ses dires, une « liberté de parole inhabituelle », notamment celle de défendre une vision purement scientifique, à rebours des discours catastrophistes sur le risque existentiel de l’IA. Il estime ainsi que l’IA n’est pas intrinsèquement dangereuse et n’a pas besoin d’être « gardée dans un coffre-fort ».
Mais sa posture strictement scientifique l’amène à minimiser les enjeux stratégiques et sociaux. Sa vision optimiste de l’avenir de l’IA le place en divergence claire avec son ancien complice du deep learning, Yoshua Bengio. Ce dernier s’inquiète : « Lui et moi pensons que d’ici à quelques années, les IA atteindront un niveau d’intelligence humaine. Mais lui pense qu’on peut laisser faire, que tout ira bien. L’histoire montre pourtant que les entreprises privilégient souvent leurs profits au détriment de l’intérêt général. »
LeCun, lui, campe sur ses positions. Il assure qu’on peut faire confiance aux États et aux entreprises, jugeant qu’ » un pays ou une entreprise ne dominera pas le monde en découvrant le "secret de l’intelligence" ». Il tranche même : « Il n’y a pas de course géopolitique autour de l’IA. » C’est sur cette conviction que le pionnier s’en va désormais lancer sa propre course.