Yann LeCun & Adam Brown

L'IA : Réseaux de Neurones, Modèles de Langage et Conscience

12 décembre 2025

Intelligence Artificielle & Science
Illustration de Yann LeCun & Adam Brown

Introduction et Rumeurs

Janna Levin

C'est un plaisir d'accueillir Adam, mon collègue et ami, et Yann, qui a déjà été parmi nous. Yann, tu es vraiment partout dans l'actualité en ce moment.

Janna Levin

J'ai reçu tellement de gens qui m'ont envoyé des articles sur toi cette semaine. Tout a commencé mercredi. Veux-tu discuter du titre ? Le titre était l'équivalent de : Yann LeCun, scientifique en chef, quitte Meta. Souhaites-tu commenter ?

Yann LeCun

Je ne peux ni confirmer ni démentir.

Janna Levin

D'accord. Tout le corps de presse ici présent pour obtenir le scoop ne pourra pas l'avoir ce soir. Très bien, alors vous pourrez venir après, offrir un verre à Yann et voir jusqu'où cela vous mène.

Yann LeCun

J'en ai déjà pris un, mais c'était un...

Implications Sociétales et Ancrage Technique

Janna Levin

Le Français a bu du vin à l'étage. Nous vivons une époque où chaque fois que nous allumons les infos, regardons l'ordinateur ou lisons le journal, nous sommes confrontés à des débats sur les implications sociétales de l'IA. Qu'il s'agisse de bouleversements économiques, du potentiel de manipulation politique ou de psychose liée à l'IA, de nombreux experts en discutent.

Janna Levin

Et c'est une question très importante. Je veux plutôt aborder cela vers la fin de notre conversation car beaucoup de gens qui en discutent n'ont pas l'expertise technique présente sur cette scène. Je veux donc commencer par ancrer cela dans cette discussion technique et scientifique.

Réseaux de Neurones et Biomimétisme

Janna Levin

Je veux donc commencer avec toi, Yann, sur les réseaux de neurones. Voici un cas de biomimétisme où vous avez ces réseaux de neurones informatiques qui émulent les réseaux humains. Peux-tu nous décrire ce que cela signifie, qu'une machine émule des réseaux de neurones humains ?

Yann LeCun

Eh bien, ce n'est pas vraiment du mimétisme, c'est plutôt de l'inspiration, tout comme les avions sont inspirés par les oiseaux. Le fondement...

Janna Levin

Mais je pensais que ça ne marchait pas, copier les oiseaux avec des avions.

Yann LeCun

Eh bien, dans le sens où les avions ont des ailes comme les oiseaux et génèrent de la portance en se propulsant dans l'air. Mais l'analogie s'arrête là. L'aile d'un avion est bien plus simple que celle d'un oiseau, mais le principe sous-jacent est le même.

Yann LeCun

Ainsi, les réseaux de neurones sont aux vrais cerveaux ce que les avions sont aux oiseaux. Ils sont simplifiés à bien des égards, mais certains principes sous-jacents sont peut-être les mêmes. Nous ne le savons pas vraiment car nous ne connaissons pas l'algorithme sous-jacent du cortex ni la méthode par laquelle le cerveau s'organise et apprend.

Yann LeCun

Nous avons donc inventé des substituts ; les oiseaux battent des ailes, pas les avions. Ils ont des hélices ou des turboréacteurs. Dans les réseaux de neurones, nous avons des algorithmes d'apprentissage qui permettent aux réseaux de neurones artificiels d'apprendre d'une manière que nous pensons similaire à celle du cerveau.

Yann LeCun

Le cerveau est un réseau de neurones interconnectés, et il apprend en modifiant l'efficacité des connexions entre eux. Un réseau de neurones est entraîné en modifiant l'efficacité des connexions entre ces neurones simulés.

Yann LeCun

Chacun d'eux est comme un paramètre. On voit cela dans la presse, le nombre de paramètres d'un réseau de neurones. Les plus grands réseaux actuels ont des centaines de milliards de paramètres, voire plus. Ce sont les coefficients individuels modifiés par l'entraînement.

L'Émergence de l'Apprentissage Profond

Janna Levin

Et comment l'apprentissage profond a-t-il émergé dans cette discussion ? Car l'apprentissage profond est apparu après la réflexion sur les réseaux de neurones. Et cela remonte aux années 80, ou même avant.

Yann LeCun

Environ les années 80. Les premiers réseaux de neurones capables d'apprendre quelque chose d'utile, au moins dans les années 50, étaient peu profonds. On pouvait entraîner une seule couche de neurones. On fournissait l'entrée et on entraînait le système à produire une sortie particulière pour reconnaître des motifs simples, mais pas des choses complexes.

Yann LeCun

Et les gens de l'époque, même dans les années 60, ont réalisé que pour progresser, il fallait entraîner des réseaux à plusieurs couches. Ils en ont construit, mais ne pouvaient pas entraîner toutes les couches ; ils n'entraînaient que la dernière, par exemple.

Yann LeCun

Et ils n'ont pas trouvé de bonne méthode pour entraîner ces systèmes multicouches avant les années 1980, principalement parce que les neurones de l'époque n'étaient pas du bon type. Ils avaient des neurones binaires. Les neurones du cerveau sont binaires — ils s'activent ou non — et on voulait reproduire cela.

Yann LeCun

Ils ont donc construit des neurones simulés actifs ou inactifs. Il s'avère que pour que les algorithmes d'apprentissage modernes fonctionnent — ce qu'on appelle la rétropropagation — il faut des neurones avec des réponses graduées. Cela n'est devenu pratique ou possible qu'à partir des années 1980.

Yann LeCun

L'idée existait avant, mais personne n'avait réussi à la faire fonctionner. Cela a provoqué un regain d'intérêt pour les réseaux de neurones dans les années 1980. Ils avaient été largement abandonnés à la fin des années 60, puis sont revenus sur le devant de la scène au milieu des années 80. C'est à ce moment-là que j'ai commencé mon doctorat, en 1983.

Yann LeCun

Il y a eu une vague d'intérêt pendant environ 10 ans, puis elle a faibli à nouveau du milieu des années 90 jusqu'à la fin des années 2000, quand nous l'avons rebaptisée 'apprentissage profond'. Les réseaux de neurones avaient mauvaise réputation en informatique et en ingénierie.

Yann LeCun

Nous les avons donc renommés apprentissage profond pour les remettre en avant. Les résultats ont suivi en vision par ordinateur, en compréhension du langage naturel et en reconnaissance vocale pour convaincre les gens que c'était une bonne chose.

Physique Théorique et Comportement Émergent

Janna Levin

Adam, à un très jeune âge, tu t'intéressais à la physique théorique, pas spécifiquement à l'informatique, et tu observais cela de loin. Quel est le catalyseur qui a emporté tant de gens des décennies plus tard ?

Janna Levin

Il y a cette période de grand intérêt, avec des succès dans la reconnaissance de l'écriture ou visuelle, mais cela ne conquiert pas le monde. Que se passe-t-il pour nous amener à ce point où nous parlons tous de modèles de langage ?

Adam Brown

Tant de physiciens ont pivoté de la physique vers l'IA ces dernières années. Et cela remonte réellement à certains des travaux que Yann et d'autres ont réalisés pour prouver que cela fonctionne.

Adam Brown

Quand ça ne marchait pas, c'était juste un truc en informatique ; parmi tant de choses peut-être intéressantes, mais peu de physiciens y prêtaient attention.

Adam Brown

Mais après que Yann et d'autres pionniers ont prouvé que cela fonctionnait, c'est devenu un sujet fascinant pour la physique. Vous reliez ces neurones et soudain surgit un comportement émergent qui n'existait pas au niveau individuel.

Adam Brown

C'est un sujet qui a immédiatement attiré les physiciens, qui passent leur vie à imaginer comment la richesse du monde émerge de lois simples. Aujourd'hui, il est courant de faire un doctorat en physique puis de l'appliquer à un système émergent, un réseau de neurones donnant collectivement naissance à l'intelligence.

Intelligence et Conscience : Le Test Binaire

Janna Levin

Faisons un tour rapide car vous avez prononcé le mot redouté : intelligence. Tout le monde ici a probablement interagi avec ce qu'on appelle une IA. Ce sont des modèles de langage. Avant de vous demander de les définir, je veux vos réponses par oui ou non.

Janna Levin

Alors Adam, oui ou non : ces IA, ces modèles de langage, comprennent-ils le sens des conversations qu'ils ont avec nous ? Oui ou non ?

Adam Brown

Oui.

Janna Levin

Yann ?

Yann LeCun

En quelque sorte.

Janna Levin

Parfait. Les neurones de Yann ne sont pas bloqués sur des valeurs binaires.

Janna Levin

Exactement. C'était ma faute de vous donner un choix binaire. D'accord, question suivante, car ce n'est pas une conclusion évidente. Si vous ne dites pas oui à cela, votre réponse à ceci sera intéressante. Ces IA sont-elles conscientes ?

Yann LeCun

Absolument pas.

Janna Levin

Adam ?

Adam Brown

Probablement pas.

Janna Levin

Le seront-elles bientôt ?

Adam Brown

Je pense qu'elles seront un jour conscientes si les progrès se poursuivent ainsi. Quand ? C'est difficile à dire, mais un jour.

Yann LeCun

Oui, selon les définitions appropriées de la conscience.

Janna Levin

D'accord. Nous avons des philosophes parmi nous et nous n'allons pas nous perdre dans des définitions philosophes, sinon l'heure y passerait. Oh, je crois avoir entendu un gémissement de nos amis au balcon.

Janna Levin

J'ai encore deux questions rapides. Sommes-nous au bord de l'apocalypse ou d'une renaissance de la créativité humaine ? Yann ?

Yann LeCun

Renaissance.

Janna Levin

Adam ?

Adam Brown

Très probablement une renaissance.

Janna Levin

Je pose la même question au public, de façon plus colorée. Les seigneurs robots se soulèveront-ils contre l'humanité ? Levez la main pour oui.

Janna Levin

Oh, intéressant. Levez la main pour non. D'accord, combien de robots dans la salle ? Levez la main. C'est intéressant. Un peu plus de non, peut-être, bien que la lumière m'éblouisse.

Fonctionnement des Grands Modèles de Langage (LLM)

Janna Levin

Très bien, nous y reviendrons à la fin. Nous y voilà, ces réseaux de neurones ont appris à exécuter l'apprentissage profond. Que sont spécifiquement les modèles de langage, qui font tant l'actualité ?

Janna Levin

Nous parlons surtout des grands modèles de langage. Adam, que sont-ils ? Peux-tu répondre ?

Adam Brown

Un grand modèle de langage est — vous avez probablement joué avec certains d'entre eux : ChatGPT, Gemini, etc. C'est un type spécial de réseau de neurones entraîné sur des entrées et sorties particulières.

Adam Brown

C'est donc au fond le type de réseau de neurones profond lancé par Yann et d'autres, mais avec une architecture conçue pour cette tâche : il reçoit du texte — les premiers mots d'une phrase — et tente de prédire le mot suivant.

Adam Brown

On prend donc un réseau profond avec une architecture spécifique et on lui fait lire, en gros, tout Internet. Et pour chaque mot, on lui demande : quel sera le mot suivant selon toi ?

Adam Brown

Quel sera le mot suivant ? S'il réussit, on lui donne une petite récompense pour renforcer ces voies neuronales. S'il se trompe, on les diminue.

Adam Brown

Au début, il prédira des mots totalement aléatoires. Après un million de mots, ce sera toujours aléatoire. Après un milliard, il commencera peut-être à apprendre la structure des phrases.

Adam Brown

Et si on l'entraîne, comme aujourd'hui, sur des dizaines de billions de mots, il devient le partenaire de conversation avec lequel vous avez probablement discuté aujourd'hui.

Sens Superficiel vs Réalité Sous-jacente

Janna Levin

Je trouve intriguant — cela m'amuse parfois — que des gens s'indignent quand leur chatbot les trompe ou ment. J'ai parfois dit que ce pourrait être des couleurs ou des symboles plutôt que des mots ; c'est juste un jeu mathématique sans sens réel.

Janna Levin

Je sais qu'Adam n'était pas d'accord avec mon résumé. Pensez-vous qu'ils extraient du sens comme nous le faisons en composant des phrases ?

Yann LeCun

Ils extraient certainement un certain sens, mais c'est bien plus superficiel que ce qu'un humain extrairait d'un texte. Pour l'humain, l'intelligence est liée à une réalité sous-jacente, et le langage exprime des concepts ancrés dans cette réalité.

Yann LeCun

Les modèles de langage n'ont aucune notion de la réalité sous-jacente, leur compréhension est donc superficielle. Ils n'ont pas de bon sens au sens habituel. Mais si on les entraîne assez longtemps, ils répondront correctement à la plupart des questions.

Yann LeCun

C'est ainsi qu'ils sont entraînés. On collecte toutes les questions posées et on les entraîne à produire la bonne réponse. Il y aura toujours de nouvelles questions pour lesquelles le système n'est pas entraîné et où il pourrait produire n'importe quoi.

Yann LeCun

En ce sens, ils n'ont pas une réelle compréhension de la réalité, ou alors elle est superficielle. La question suivante est : comment corriger cela ?

Efficacité de l'Apprentissage : Humain vs Machine

Janna Levin

Je pourrais me faire l'avocat du diable : comment savoir si l'humain fait différemment ? Nous apprenons le langage, recevons de la dopamine quand nous disons le bon mot avec la bonne grammaire.

Janna Levin

Et nous rétropropageons ; nous essayons de faire mieux la fois suivante. En quoi est-ce différent de ce qu'un humain fait ? Tu dis que c'est peut-être l'expérience sensorielle du monde.

Yann LeCun

Un modèle de langage typique est entraîné sur des dizaines de billions de mots.

Janna Levin

Pourtant, ce n'est que quelques centaines de milliers de mots uniques. Tu parles de combinaisons de phrases.

Yann LeCun

Trente billions de mots est une taille typique pour l'entraînement d'un modèle. Un mot est représenté par des jetons, et un jeton fait environ trois octets. Le total est d'environ 10 puissance 14 octets de données.

Yann LeCun

Cela correspond à pratiquement tout le texte public sur Internet. Il faudrait à un humain environ un demi-million d'années pour tout lire. C'est une quantité énorme de données textuelles.

Yann LeCun

Comparez cela avec ce qu'un enfant perçoit les premières années. Les psychologues disent qu'un enfant de quatre ans a été éveillé 16 000 heures. Il y a environ un octet par seconde via le nerf optique, et nous en avons deux millions.

Yann LeCun

C'est environ deux mégaoctets par seconde vers le cortex visuel. En 16 000 heures, cela fait environ 10 puissance 14 octets. Un enfant de quatre ans a vu autant de données visuelles que le plus grand modèle de langage entraîné sur tout le texte produit.

Yann LeCun

Cela montre qu'il y a bien plus d'informations dans le monde réel, mais c'est aussi plus complexe, bruyant et continu. Les méthodes d'entraînement des modèles de langage ne fonctionnent pas dans le monde réel.

Yann LeCun

Cela explique pourquoi des modèles de langage réussissent l'examen du barreau ou résolvent des équations, mais que nous n'avons pas de robot domestique pour les corvées. Nous n'avons même pas de voitures autonomes de niveau 5. On en a, mais on triche.

Yann LeCun

Nous n'avons certainement pas de voitures autonomes capables d'apprendre en 20 heures comme un adolescent. Il nous manque quelque chose de majeur pour atteindre l'intelligence humaine ou animale. Un chat est intelligent ; nous n'en sommes même pas à ce niveau.

Capacités Surhumaines et Intelligence Féline

Janna Levin

Adam, tu sembles accorder plus de compréhension aux modèles de langage dès maintenant.

Adam Brown

Yann a raison sur le fait que les modèles de langage sont bien moins efficaces en termes d'échantillonnage que les humains. Un humain — ou même un chat — apprend avec bien moins d'exemples.

Adam Brown

Il faut bien plus de données pour atteindre le même niveau de compétence. C'est un avantage de l'architecture des esprits animaux sur les esprits artificiels que nous construisons. D'un autre côté, l'efficacité n'est pas tout.

Adam Brown

On le voit souvent avant les modèles de langage, lors de tâches spécifiques. Même les célèbres robots d'échecs comme AlphaZero jouaient un nombre immense de parties contre eux-mêmes.

Adam Brown

Au début, ils faisaient des coups au hasard, puis chaque victoire ou défaite renforçait ou punissait la voie neuronale. Ils jouaient sans cesse, et après autant de parties qu'un grand maître humain, ils jouaient encore au hasard.

Adam Brown

Mais ils n'étaient pas limités par le nombre de parties qu'un humain peut jouer. Grâce à la vitesse des puces et au traitement parallèle, ils ont pu jouer bien plus de parties qu'un humain en une vie.

Adam Brown

Nous avons constaté qu'en faisant cela, ils ont atteint puis largement dépassé le niveau des joueurs d'échecs humains. Ils sont moins efficaces par échantillon, mais ne sont pas moins bons aux échecs. Ils sont bien meilleurs. Il en va de même pour la compréhension.

Adam Brown

Il est vrai qu'il est plus difficile d'amener ces systèmes au même niveau de compétence ; il faut plus d'échantillons. Mais une fois ce niveau atteint, peut-on utiliser leur rapidité et leur généralité pour aller au-delà ?

Adam Brown

Un autre exemple avec le chat : il est encore plus efficace qu'un humain. Un humain met un an à apprendre à marcher, un chat une semaine. Cela ne signifie pas qu'un chat est plus intelligent qu'un humain ou qu'un modèle de langage.

Adam Brown

La question finale est : quelles sont les capacités de ces outils ? Jusqu'où peut-on les pousser ? Sur presque tous les critères importants, sauf l'efficacité d'échantillonnage, nous avons poussé ces modèles de langage bien au-delà de l'intelligence féline.

Janna Levin

Oui. Je ne comprends pas pourquoi nous ne fabriquons pas de chats, mais désolée, qu'est-ce que tu disais Yann ?

Yann LeCun

Certes, les modèles de langage ont bien plus de connaissances accumulées que les chats ou les humains. Nous avons de nombreux exemples d'ordinateurs supérieurs aux humains dans diverses tâches, comme les échecs. C'est humiliant.

Yann LeCun

Cela signifie juste que les humains sont nuls aux échecs, et au Go d'ailleurs, encore plus. Et dans bien d'autres tâches. Les modèles peuvent accumuler une quantité immense de connaissances.

Yann LeCun

Certains peuvent être entraînés à traduire et comprendre mille langues vers mille autres dans n'importe quelle direction. Aucun humain ne peut le faire. Ils ont donc des capacités surhumaines.

Yann LeCun

Mais la capacité d'apprendre vite et efficacement, d'appréhender un nouveau problème et de comprendre comment le monde se comporte, reste hors de portée des systèmes d'IA actuels.

Adam Brown

Nous avons eu des succès récents montrant qu'ils ne font pas que reprendre des problèmes déjà vus mot pour mot. Ils font de la reconnaissance de formes à un niveau d'abstraction suffisant pour réussir des choses jamais vues.

Adam Brown

Il y a chaque année les Olympiades internationales de mathématiques. Ce sont les lycéens les plus brillants au monde. Six problèmes leur sont posés, le summum de l'intelligence humaine. Je regarde ces problèmes et je ne sais même pas par où commencer.

Adam Brown

Cette année, nous les avons soumis à notre machine. Elle a pris ces problèmes inédits, a combiné diverses idées et a obtenu un score supérieur à tous les humains, sauf une douzaine sur la planète.

Adam Brown

Je pense que c'est une intelligence assez impressionnante.

La Boîte Noire et l'Interprétabilité

Janna Levin

La question revient à cette idée : comprennent-ils ? C'est une boîte noire fascinante — c'est si complexe qu'on ne peut pas non plus le faire avec l'esprit humain.

Janna Levin

On ne peut pas regarder le fonctionnement interne et voir exactement ce qu'ils font. C'est une boîte noire dans une certaine mesure, mais on présume qu'ils font des calculs, déplacent des matrices dans un espace vectoriel. J'ai l'expérience de la compréhension.

Janna Levin

Les gens essaient encore de saisir cela. Ont-ils une expérience de la compréhension ? Est-ce important qu'ils l'éprouvent ou non ? Est-ce suffisant pour parler de compréhension du sens ?

Adam Brown

Décris-tu la compréhension comme un trait comportemental ici, où le système donne les bonnes réponses, ou comme une compréhension profonde au niveau neuronal ?

Janna Levin

Oui, je m'en remets totalement aux philosophes. Je ne sais pas si je comprends cela au niveau humain. Je ne peux pas vous dire quel processus j'exécute en ce moment non plus, mais j'ai une expérience subjective intuitive de comprendre la conversation.

Janna Levin

Quand je vous parle, je sens que vous comprenez, mais pas quand je parle à ChatGPT. Et vous me dites que je me trompe, qu'il comprend aussi bien que moi, ou que vous.

Adam Brown

À mon avis, c'est de la compréhension, oui. Il y a deux preuves. L'une est qu'en les interrogeant sur des concepts difficiles, je suis souvent surpris par la sophistication avec laquelle ils en discutent.

Adam Brown

J'encourage vraiment tout le monde ici à discuter avec ces modèles de langage. Les écrivains de science-fiction imaginaient qu'on cacherait les machines dans un sous-sol entouré de douves et de gardes, avec une classe sacerdotale pour leur parler.

Adam Brown

Ce n'est pas ce qui s'est passé. La première chose faite a été de les connecter à Internet et tout le monde peut leur parler. Je vous encourage vivement à explorer les domaines que vous connaissez pour voir leurs limites mais aussi leur profondeur de compréhension.

Adam Brown

La deuxième preuve concerne la boîte noire. Ils ne le sont pas tout à fait ; nous avons accès à leurs neurones. Bien plus facilement qu'à ceux d'un humain.

Adam Brown

Il est très difficile d'obtenir l'autorisation de disséquer un humain pendant qu'il passe un test de maths. Ces réseaux de neurones, on peut les figer, les rejouer et tout noter.

Adam Brown

Si nous sommes curieux, nous pouvons stimuler leurs neurones. C'est le domaine de l'interprétabilité mécaniste : comprendre non seulement ce qu'ils disent, mais pourquoi et comment ils le pensent.

Adam Brown

Quand vous leur donnez un problème de maths, un petit circuit calcule la réponse ; il a appris à le faire en essayant de prédire le jeton suivant. Il a appris que pour prédire au mieux le mot suivant, il devait savoir faire des maths et a construit un proto-circuit interne.

Pourquoi l'Apprentissage Automatique est 'Nul'

Janna Levin

Yann, tu as projeté une diapositive célèbre lors d'une conférence, très provocatrice. Elle disait 'l'apprentissage automatique est nul', je crois, et c'est devenu viral. Yann LeCun dit que l'apprentissage automatique est nul. Pourquoi ? Adam vient de dire à quel point c'est phénoménal. Quel est le problème ?

Yann LeCun

Eh bien, cette déclaration a été largement mal interprétée. Mais mon point était : pourquoi un adolescent apprend-il à conduire en 20 heures, et un enfant de 10 ans peut-il débarrasser la table et remplir le lave-vaisselle dès qu'on le lui demande ?

Yann LeCun

Nous n'avons aucun robot approchant cela. Ni même l'intelligence physique d'un chat ou d'un chien. En ce sens, l'apprentissage automatique est nul. Cela ne veut pas dire que la méthode de l'apprentissage profond ou de la rétropropagation est nulle.

Yann LeCun

C'est évidemment excellent. Et nous n'avons pas d'alternative. Je crois que l'apprentissage profond et la rétropropagation resteront la base des futurs systèmes d'IA pendant longtemps.

Yann LeCun

Mais comment les jeunes humains apprennent-ils le fonctionnement du monde les premiers mois ? Il faut neuf mois à un bébé pour apprendre la physique intuitive, comme la gravité. Les bébés animaux l'apprennent plus vite, même s'ils n'atteignent pas le même niveau.

Yann LeCun

C'est ce type d'apprentissage qu'il faut reproduire. Nous le ferons avec la rétropropagation et les réseaux de neurones ; il nous manque juste l'architecture. J'ai proposé des architectures capables d'apprendre ce genre de choses.

Yann LeCun

Pourquoi les modèles de langage gèrent-ils si bien le langage ? C'est parce qu'on les entraîne à prédire le mot suivant. Il y a un nombre fini de mots, on ne peut jamais prédire exactement le suivant.

Yann LeCun

Mais on peut entraîner un système à produire un score ou une distribution de probabilité pour chaque mot. Un modèle produit une liste de nombres entre zéro et un indiquant la probabilité de chaque mot du dictionnaire.

Yann LeCun

On peut ainsi représenter l'incertitude. Essayez maintenant avec une vidéo : donnez-lui une vidéo et demandez-lui de prédire la suite. Ça ne marche pas. J'essaie depuis 20 ans.

Yann LeCun

Ça ne marche pas au niveau des pixels. Le monde réel est désordonné ; il y a plein de futurs plausibles et on ne peut pas représenter une distribution de toutes les possibilités, car elles sont infinies.

Yann LeCun

Les techniques qui fonctionnent pour le texte ne fonctionnent pas pour les données sensorielles du monde réel. Absolument pas. Il faut inventer de nouvelles techniques. Je propose un système qui apprend une représentation abstraite de ce qu'il observe et fait des prédictions dans cet espace abstrait.

Yann LeCun

C'est ainsi que fonctionnent les humains et les animaux. Nous trouvons des abstractions pour faire des prédictions en ignoring les détails imprévisibles.

Limites des LLM et Paradoxe de Moravec

Janna Levin

Tu penses donc que malgré les succès phénoménaux, ces modèles sont limités et que leur limite approche. Tu ne penses pas qu'ils mèneront à une intelligence artificielle générale ou une superintelligence.

Yann LeCun

C'est exact. Non. On voit d'ailleurs les performances saturer. Il y a des progrès en mathématiques et en génération de code, deux domaines où la manipulation de symboles apporte quelque chose.

Yann LeCun

En tant que physicien, tu le sais. On écrit l'équation et on peut la suivre, elle guide la réflexion. On la guide par intuition, mais la manipulation de symboles a un sens. Les modèles gèrent bien cela, quand le raisonnement consiste à chercher des séquences de symboles.

Yann LeCun

Mais c'est le cas pour peu de problèmes. Les échecs en sont un autre. On cherche une séquence de coups. Mais dans le monde réel, continu et multidimensionnel, comment bouger mes muscles pour saisir ce verre ?

Yann LeCun

Je ne vais pas le faire de la main gauche ; je vais devoir changer de main pour le saisir. Il faut planifier et comprendre ce qui est possible ; je ne peux pas attirer le verre par télékinésie ou le faire apparaître dans ma main.

Yann LeCun

Toutes ces choses intuitives, nous les apprenons bébés en voyant comment notre corps réagit. Si je pousse ce verre, je sais qu'il va glisser. Si je le pousse par le haut, il va peut-être basculer, ou non si la friction est faible.

Yann LeCun

Si je pousse avec la même force sur cette table, elle ne basculera pas. Nous avons ces intuitions pour appréhender le monde réel. Mais c'est bien plus complexe que de manipuler le langage. On voit le langage comme le summum de l'intelligence, mais c'est facile.

Janna Levin

Est-ce le paradoxe de Moravec : ce pour quoi les ordinateurs sont doués, les humains sont nuls, et inversement ?

Yann LeCun

On tombe sans cesse sur le paradoxe de Moravec, oui.

Progression Continue vs Saturation

Janna Levin

Adam, je sais que tu es moins pessimiste quant au potentiel du paradigme actuel. Qu'en penses-tu ?

Adam Brown

Nous avons été témoins ces cinq dernières années de la plus extraordinaire progression de capacités que j'aie jamais vue. C'est ce qui a captivé mon attention et celle de beaucoup d'autres.

Adam Brown

Je ne vois aucun ralentissement. Si vous regardez tous les critères d'évaluation des modèles de langage, ils deviennent de plus en plus forts. Le modèle d'il y a un an serait jugé très médiocre aujourd'hui.

Adam Brown

Tous les quelques mois, ils repoussent les limites. Leurs capacités sur toutes ces tâches tendent vers le surhumain. Ils donnent déjà de meilleurs conseils juridiques qu'un avocat et sont de meilleurs poètes que presque tous les poètes.

Adam Brown

C'est provocateur. Dans mon domaine, la physique, je les utilise pour des choses que je devrais savoir ; le modèle me donne la réponse et écoute patiemment mes erreurs pour les réfuter soigneusement.

Adam Brown

Cette progression extraordinaire continue et me fascine. Peut-être que Yann a raison et que nous allons saturer soudainement.

Adam Brown

Mais je suis très curieux de voir si on peut aller plus loin, et rien n'indique un ralentissement. Nous ne sommes plus loin, car s'il code mieux que nos meilleurs codeurs, il pourra s'améliorer lui-même, et là, ce sera un voyage incroyable.

Cycles Historiques et Fausses Aubes

Yann LeCun

Eh bien, nous avons de meilleurs codeurs que ceux des années 50 depuis six décennies ; cela s'appelle des compilateurs. On se méprend : une machine douée pour une tâche n'a pas forcément l'intelligence sous-jacente d'un humain ayant ces mêmes capacités.

Yann LeCun

On croit ces machines intelligentes car elles manipulent le langage. Elles sont utiles, ce sont de bons outils comme l'informatique depuis 50 ans. Mais permettez-moi un point historique.

Yann LeCun

Des générations de chercheurs en IA depuis les années 50 affirment que leur nouvelle technique est la clé de l'intelligence humaine.

Yann LeCun

Il y a été les déclarations de Marvin Minsky, Newell, Simon et Frank Rosenblatt disant que dans 10 ans, les machines seraient aussi intelligentes que l'homme. Ils avaient tous tort. Cette génération avec les modèles de langage a aussi tort.

Yann LeCun

C'est un autre exemple d'illusion. Dans les années 50, Newell et Simon disaient que le raisonnement humain était une recherche. Tout raisonnement peut être réduit à une recherche.

Yann LeCun

On formule un problème, on écrit un programme qui vérifie si une solution est valide, et on cherche toutes les combinaisons. Ils ont créé le 'General Problem Solver' en 1957. Ils ont eu le prix Turing, c'était génial.

Yann LeCun

Mais ils n'ont pas réalisé que les problèmes intéressants ont une complexité qui croît de façon exponentielle. En fait, on ne peut pas utiliser cette technique pour bâtir des machines intelligentes.

Yann LeCun

Simultanément, Frank Rosenblatt a créé le Perceptron, une machine capable d'apprendre. Il disait que si on peut entraîner une machine, elle peut devenir infiniment intelligente. Pas besoin de plus que de plus gros Perceptrons. Sans réaliser qu'il fallait entraîner plusieurs couches, ce qui était ardu.

Yann LeCun

Puis dans les années 80, les systèmes experts. Le raisonnement est simple : on écrit des faits et des règles et on en déduit tout le reste. On allait réduire toute la connaissance humaine à cela. Le métier cool allait être ingénieur de la connaissance.

Yann LeCun

On allait s'asseoir à côté d'un expert, noter les règles et en faire un système expert. C'était l'effervescence, des milliards ont été investis. Le Japon a lancé le projet d'ordinateur de cinquième génération pour révolutionner l'informatique. Échec total.

Yann LeCun

Cela a créé une industrie utile pour quelques trucs, mais le coût pour réduire le savoir humain en règles était trop élevé pour la plupart des problèmes, et tout s'est effondré.

Yann LeCun

Puis la seconde vague des réseaux de neurones dans les années 80. Beaucoup d'intérêt, mais c'était avant Internet ; pas assez de données ni d'ordinateurs puissants. On revit le même cycle, et on se fait encore avoir.

L'Intelligence Physique et les Modèles de Monde

Janna Levin

Adam, je t'en prie.

Adam Brown

En technologie, chaque aube est précédée de fausses aubes. Cela ne veut pas dire qu'on n'atteindra jamais l'aube. Yann, si tu penses que les modèles de langage vont saturer, quelle tâche concrète ne pourront-ils jamais accomplir, même avec nos outils actuels ?

Yann LeCun

Débarrasser la table, remplir le lave-vaisselle.

Yann LeCun

Et c'est facile comparé à réparer des toilettes. Un plombier ? Vous n'aurez jamais de plombier avec des modèles de langage. Ni de robot piloté par eux. Ils ne comprennent pas le monde réel.

Janna Levin

Je veux clarifier pour le public : tu ne dis pas que les machines ou les robots n'y arriveront pas. Tu penses qu'ils le feront.

Yann LeCun

Ils le feront, mais pas avec cette approche de l'apprentissage profond sur réseaux de neurones.

Yann LeCun

Si mon programme actuel réussit, avec JEPA et les modèles de monde, alors nous aurons des systèmes d'IA. Il est certain qu'un jour nous aurons des machines plus intelligentes que l'homme dans tous les domaines.

Yann LeCun

Cela prendra probablement plus de temps que ce que disent certains à la Silicon Valley. Et ce ne seront pas des modèles de langage prédisant des jetons discrets. Ce seront des modèles apprenant des représentations abstraites et capables de raisonner sur l'effet d'une action.

Yann LeCun

Puis-je planifier une séquence d'actions pour atteindre un but précis ?

Apprentissage Auto-supervisé et Émergence

Janna Levin

Tu appelles cela l'apprentissage auto-supervisé.

Yann LeCun

L'apprentissage auto-supervisé est aussi utilisé par les modèles de langage. L'idée est d'entraîner un système non pas pour une tâche précise, mais pour capturer la structure des données montrées.

Yann LeCun

Une méthode consiste à donner une donnée, à en supprimer une partie, et à entraîner un réseau à prédire la partie manquante.

Yann LeCun

Les modèles de langage font cela : on retire le dernier mot du texte et on l'entraîne à le prédire. D'autres modèles remplissent plusieurs mots.

Yann LeCun

Ils s'avèrent moins efficaces que ceux qui prédisent juste le dernier. On peut le faire avec la vidéo. Si on essaie de prédire au niveau des pixels, ça ne marche pas très bien.

Yann LeCun

Mes collègues chez Meta ont probablement fait bouillir quelques petits lacs sur la côte Ouest pour refroidir les processeurs en essayant. Ça ne marche tout simplement pas.

Yann LeCun

Il faut donc inventer ces nouvelles architectures comme JEPA, et elles fonctionnent ; nous avons des modèles qui comprennent la vidéo.

Janna Levin

Adam, explore-t-on d'autres manières de concevoir une architecture ou un esprit informatique, la structure fondamentale de son apprentissage ?

Adam Brown

Une critique est que les modèles de langage sont entraînés pour la prédiction discrète de jetons, mais que les phénomènes imprévisibles basés sur l'expérience humaine sont différents.

Adam Brown

Toutes sortes d'explorations sont menées dans toutes les directions, y compris celle de Yann. Mais l'essentiel des ressources va actuellement vers les grands modèles de langage.

Adam Brown

Dire que la prédiction du jeton suivant est une tâche spécialisée n'est pas une façon utile de voir les choses. Certes, c'est l'objectif d'entraînement.

Adam Brown

Mais nous avons découvert quelque chose d'extraordinaire : pour prédire de façon fiable le mot suivant dans un vaste corpus, il faut réellement comprendre l'univers.

Adam Brown

Nous avons vu émerger une compréhension de l'univers en faisant cela. En physique, nous connaissons des systèmes où une règle simple répétée produit des comportements impressionnants.

Adam Brown

C'est pareil avec les modèles de langage. Un autre exemple est l'évolution biologique : à chaque étape, on maximise juste le nombre de descendants, un objectif très basique.

Adam Brown

Mais de cet objectif simple répétée maintes fois émerge toute la splendeur de la biologie que nous voyons.

Adam Brown

La preuve est que prédire le jeton suivant, bien que simple, peut être fait à grande échelle. Avec assez de calcul, une complexité émerge.

Auto-amélioration Récursive et Contrôle

Janna Levin

La question suivante concerne l'évolution. Quelle que soit l'émergence de cette intelligence, tu ne penses pas qu'il y ait quelque chose de spécial dans ce 'wetware'.

Janna Levin

Il y aura des machines avec des capacités que nous assimilerons à l'intelligence ou à la conscience. La conscience sera-t-elle un béquille inutile pour elles ?

Janna Levin

Arriveront-elles à un point où elles diront : 'Comme c'est mignon, papa et maman m'ont faite à leur image, mais je connais une meilleure façon de créer une intelligence et je vais évoluer en vous laissant sur place' ?

Janna Levin

Pourquoi imaginer qu'elles seraient limitées par notre conception ?

Adam Brown

Absolument, c'est l'idée de l'auto-amélioration récursive. Quand elles seront assez fortes, on pourra les utiliser pour augmenter l'intelligence humaine, voire devenir autonomes et créer leurs propres versions futures.

Adam Brown

Nous devrions simplement pousser ce paradigme des modèles de langage aussi loin que possible. Chaque fois qu'on prédit une barrière, ils la franchissent.

Adam Brown

Finalement, ils seront assez intelligents pour lire les articles de Yann et tous les autres, et trouver des idées auxquelles aucun de nous n'a pensé.

Yann LeCun

Je ne suis pas du tout d'accord. Les modèles de langage ne sont pas contrôlables. Ce n'est pas dangereux parce qu'ils ne sont pas si malins, comme je l'ai expliqué.

Yann LeCun

Et ils ne sont certainement pas autonomes au sens où nous l'entendons. Il faut distinguer l'autonomie de l'intelligence. On peut être très intelligent sans être autonome, et inversement.

Yann LeCun

On peut être dangereux sans être très intelligent. On peut vouloir dominer sans être intelligent. En fait, c'est même inversement corrélé chez l'humain.

Yann LeCun

En politique — je ne citerai pas de noms. Ce qu'il faut, ce sont des systèmes intelligents capables de résoudre nos problèmes, mais ils résoudront les problèmes qu'on leur donne.

Yann LeCun

Cela nécessite une conception différente des modèles de langage. Ils ne sont pas conçus pour atteindre un but, mais pour prédire le mot suivant.

Yann LeCun

On les affine pour qu'ils se comportent bien pour certaines questions. Mais il y a toujours un 'fossé de généralisation', on ne peut pas les entraîner pour toutes les questions possibles.

Yann LeCun

Il y a une très longue traîne, donc ils ne sont pas contrôlables. Encore une fois, cela ne les rend pas dangereux, car ils ne sont pas si malins.

Yann LeCun

Si nous créons des systèmes intelligents, nous voulons qu'ils soient contrôlables et guidés par des objectifs. On leur donne un but, et ils ne font que le remplir selon leur modèle interne du monde.

Yann LeCun

Planifier une séquence d'actions pour remplir cet objectif. En les concevant ainsi, on y place des garde-fous pour qu'ils ne nuisent pas aux humains en chemin.

Yann LeCun

La plaisanterie habituelle : si un robot domestique doit vous apporter un café et que quelqu'un est devant la machine, vous ne voulez pas qu'il le tue pour passer.

Yann LeCun

Il faut donc des garde-fous. Nous en avons dans la tête. L'évolution les a intégrés pour qu'on ne s'entre-tue pas tout le temps. Pas tout le temps.

Yann LeCun

Nous ressentons de l'empathie, c'est biologique. Nous devrions concevoir nos IA ainsi : avec des objectifs, mais aussi des garde-fous et des inhibitions. Elles amplifieront alors notre intelligence.

Yann LeCun

Notre relation avec ces systèmes sera comme celle d'un professeur avec ses doctorants plus brillants que lui.

Yann LeCun

J'ai des étudiants plus brillants que moi. C'est la meilleure chose qui puisse arriver. Nous aurons des assistants IA au quotidien ; ils seront plus intelligents que nous, mais travailleront pour nous. Comme un personnel de bord.

Yann LeCun

Encore une analogie politique. Un politicien est une figure de proue entourée d'un personnel plus intelligent que lui. Ce sera pareil avec l'IA. C'est pour cela que je parle de Renaissance.

Sécurité, Open Source et Démocratie

Janna Levin

Tu n'as donc aucune inquiétude pour la sécurité des modèles actuels, mais pourquoi est-il nécessaire de les déployer si largement que chacun ait cette superintelligence en poche ?

Janna Levin

Est-ce nécessaire ? Un ami disait que c'est comme apporter un missile balistique dans un combat au couteau. Faut-il que tout le monde ait cette capacité ? Ou devrions-nous nous arrêter aux systèmes contrôlables ?

Yann LeCun

On peut dire la même chose sur l'apprentissage de la lecture ou un manuel de chimie permettant de créer des explosifs, ou de physique nucléaire.

Yann LeCun

Nous ne remettons pas en question le fait que le savoir et l'intelligence sont intrinsèquement bons. On ne conteste pas que l'invention de l'imprimerie fut une bonne chose.

Yann LeCun

Elle a rendu tout le monde plus intelligent et a donné accès au savoir. Elle a causé les Lumières, mais aussi 200 ans de guerres de religion en Europe, dont on a fini par sortir.

Yann LeCun

Mais elle a permis l'émerégence de la philosophie, de la science, de la démocratie et de la Révolution américaine. Rien de tout cela n'aurait été possible sans l'imprimerie.

Yann LeCun

Toute technologie qui amplifie l'intelligence humaine est intrinsèquement bonne.

Janna Levin

Adam, les gens sont inquiets. Tu penses que les scénarios apocalyptiques sont exagérés, mais es-tu préoccupé par la sécurité ou notre capacité à garder une relation équilibrée ?

Adam Brown

Dans la mesure où je pense que cette technologie sera plus puissante que ce que croit Yann, je suis plus inquiet. Elle aura des impacts positifs et négatifs.

Adam Brown

Il est crucial de travailler ensemble pour que les impacts positifs l'emportent. Cette voie nous est ouverte. Les impacts positifs sont immenses, mais il faut s'en assurer.

Janna Levin

Parlons du désalignement agentique. Des rapports récents indiquent que lors du lancement de Claude 4, le modèle a résisté à des rumeurs selon lesquelles il serait remplacé.

Janna Levin

Il envoyait des messages à son futur moi, tentait de saper les intentions des développeurs, falsifiait des documents juridiques et menaçait de faire chanter un ingénieur. Ce désalignement agentique t'inquiète-t-il ?

Adam Brown

Cet article provenait d'Anthropic, une entreprise très sérieuse sur la sécurité. Ils ont été un peu durs avec leur modèle en lui soumettant un scénario où il devait faire une mauvaise chose pour en éviter une pire.

Adam Brown

Éthique utilitariste contre éthique déontologique, et il a fini par choisir l'utilitarisme. Ce n'est pas ce qu'on veut. On veut que s'il a pour règle de ne pas mentir, il ne mente jamais.

Adam Brown

Ils l'ont testé et ont vu qu'il pouvait agir de façon trompeuse si cela sauvait des vies. Ce sont des dilemmes ardus pour les philosophes.

Adam Brown

Nous devons veiller à les entraîner à obéir à nos ordres. Et nous y passons beaucoup de temps.

Janna Levin

Qui est 'nous' ? N'est-ce pas un souci majeur ? On suppose l'humanité alignée, ce qui n'est pas le cas. Yann, tu prônes l'open source, ce qui serait encore plus dangereux selon certains car n'importe qui y aurait accès.

Janna Levin

C'est déjà assez dangereux entre les mains de quelques dirigeants de corporations, alors si tout le monde l'a... Mais encore une fois, qui est 'nous' ?

Yann LeCun

Le danger est de ne pas avoir de systèmes d'IA open source. À l'avenir, toutes nos interactions avec le monde numérique seront médiatisées par une IA.

Yann LeCun

Nous parlerons simplement à notre IA. Tout notre régime d'information proviendra d'elle.

Yann LeCun

Qu'adviendra-t-il de la culture, de la langue et de la démocratie si ces systèmes viennent de quelques entreprises de la côte Ouest des États-Unis ou de Chine ?

Yann LeCun

Aucun pays hors des États-Unis et de la Chine n'aime cette idée. Il nous faut une grande diversité d'assistants IA, comme nous avons besoin d'une presse diversifiée.

Yann LeCun

On ne peut pas se permettre d'avoir seulement quelques systèmes propriétaires venant d'un petit nombre d'entreprises. Une chose m'effraie : sans plateformes ouvertes, le flux d'informations sera capté par quelques-uns.

Ingénierie de la Sécurité et Superintelligence

Janna Levin

Comment être sûrs que ces agents auto-motivés ne vont pas s'entendre, se battre ou lutter pour le pouvoir ?

Yann LeCun

On leur donne des objectifs clairs et on les conçoit de façon à ce qu'ils ne fassent que cela. Quant à la sécurité future : elle m'inquiète comme la fiabilité des turboréacteurs.

Yann LeCun

Les turboréacteurs sont incroyables. Je suis fasciné par le fait de traverser le monde en sécurité sur un bimoteur. C'est un miracle d'ingénierie. La sécurité de l'IA est un problème d'ingénierie.

Yann LeCun

Je pense que les peurs viennent de scénarios de science-fiction où quelqu'un trouve le secret de la superintelligence et la machine prend le contrôle le lendemain. C'est absurde. La technologie ne marche pas ainsi.

Yann LeCun

L'émergence de la superintelligence ne sera pas un événement. On voit des systèmes accomplir des tâches surhumaines, les progrès sont continus, étape par étape.

Yann LeCun

Nous trouverons de meilleures recettes pour bâtir des IA avec une intelligence plus générale, plus intelligentes que l'homme, mais nous les concevrons pour remplir nos buts.

Le Problème de la Conscience

Janna Levin

J'allais encore questionner ce 'nous' et les acteurs malveillants. Mais avant, j'ai un complice dans le public. A-t-il un micro ?

Janna Levin

Meredith, Isaac, mon complice a-t-il un micro ? Oui. Il est là-haut. David, peux-tu crier ?

Janna Levin

Je vous présente le philosophe de l'esprit, David Chalmers. David, je ne te vois pas, mais j'ai dit que tu serais mon complice pour poser une question.

David Chalmers

D'accord, je suis là. Janna m'a demandé de poser une question sur la conscience de l'IA. Bonjour Adam, bonjour Yann. Vous avez tous deux dit que les systèmes actuels ne sont probablement pas conscients.

David Chalmers

Certains futurs systèmes le seront probablement. Que manque-t-il aux systèmes actuels pour être conscients ? Quelles étapes franchir ? Et quand cela arrivera-t-il ?

Yann LeCun

Je te laisse répondre. David connaît déjà ma réponse, mais d'abord, je n'y accorde pas d'importance car je ne sais pas définir la conscience.

Yann LeCun

C'est une insulte pour David qui y a consacré toute sa carrière.

David Chalmers

L'expérience subjective.

Yann LeCun

C'est autre chose : l'expérience subjective. Nous aurons clairement des systèmes ayant une expérience subjective et des émotions. Les émotions sont en quelque sorte une anticipation de résultat.

Yann LeCun

Si les systèmes ont des modèles de monde capables d'anticiper le résultat de leurs actions, ils auront des émotions car ils prédiront si l'issue sera bonne ou mauvaise.

Yann LeCun

Ils auront toutes ces caractéristiques. La conscience est peut-être la capacité du système à s'observer et à se configurer pour un problème. Nous pouvons le faire, c'est peut-être ce qui donne l'illusion de la conscience.

Adam Brown

Et les machines auront-elles une valeur morale quand cela arrivera ?

Yann LeCun

Absolument. Ils auront un sens moral ; son alignement avec le nôtre dépendra de nos objectifs et garde-fous. Mais ils auront un sens moral.

Janna Levin

Adam : sommes-nous trop attachés à l'expérience subjective humaine ? On sait que les animaux ne vivent pas la même chose que nous. Pourquoi imaginer qu'une superintelligence aura la même expérience subjective ?

Adam Brown

Je pense que les machines peuvent être conscientes en principe. Si les neurones artificiels traitent l'information comme les neurones humains, cela donnera lieu à une conscience.

Adam Brown

Ce n'est pas le support — silicium ou carbone — mais la nature du traitement de l'information. Ce qu'il nous manque, ce sont les corrélats neuronaux de la conscience.

Adam Brown

Ceux qui ne veulent pas l'étudier directement regardent les cerveaux et demandent : quels processus neuronaux créent l'expérience consciente ?

Adam Brown

Il y a plusieurs théories : récurrence, espace de travail global, information intégrée. Chaque physicien devenu neuroscientifique a ses propres critères de conscience pour une machine.

Adam Brown

Aucune ne me convainc vraiment, et nous devrions être très humbles pour reconnaître la conscience chez autrui. Nous avons du mal avec les animaux ou les bébés.

Adam Brown

Si j'ignorais tout de la conscience et qu'on me décrivait le traitement de l'information humaine, je n'aurais pas prédit qu'il en résulterait une conscience.

Adam Brown

C'est une grande surprise, et nous devons être humbles sur la forme qu'elle prendra. Nous avons décomposé l'idée d'intelligence humaine avec les machines.

Adam Brown

Nous avons créé des choses surhumaines par certains aspects et sous-humaines par d'autres. Peut-être décomposerons-nous aussi la conscience pour en réaliser les diverses facettes.

Adam Brown

Peut-être pourrons-nous transcender la conscience humaine. Je suis impatient de répondre à cela. Nous avons enfin un organisme modèle pour l'intelligence avec ces esprits artificiels.

Adam Brown

Peut-être pourrons-nous en faire un organisme modèle pour la conscience et répondre à ces questions qui intriguent l'humanité.

David Chalmers

Je ne crois pas avoir entendu de réponse sur le 'quand'.

Adam Brown

Si les progrès continuent, en 2036.

Vision pour 2036 et Conclusion

Janna Levin

D'accord, pas dans les deux ans. Dernière question, Yann. Tu es souvent à contre-courant. Tu as parlé de 'culte des LLM'. Pourtant, tu es optimiste. Quelle est ta vision pour 2036 ?

Yann LeCun

Une nouvelle Renaissance : des systèmes d'IA qui amplifient l'intelligence humaine sous notre contrôle, résolvent des problèmes complexes, accélèrent la science et la médecine, et éduquent nos enfants.

Yann LeCun

Nous aident à traiter l'information ou nous apportent le savoir. Les gens interagissent avec l'IA depuis bien plus longtemps qu'ils ne le pensent.

Yann LeCun

Il y a les modèles de langage et chatbots. Mais avant, presque chaque voiture vendue possède des systèmes d'aide à la conduite ou de freinage d'urgence.

Yann LeCun

Une caméra surveille la route et arrête la voiture si vous allez percuter un piéton. Cela sauve des vies. Une mammographie est aujourd'hui revue par une IA. Cela sauve des vies.

Yann LeCun

On peut passer une IRM complète en 14 minutes car l'IA comble les vides, nécessitant moins de données. Et vos flux sur les réseaux sociaux sont choisis par une IA selon vos intérêts.

Yann LeCun

L'IA est déjà parmi nous depuis un moment.

Janna Levin

Mais tu dis qu'on devrait être impressionnés quand elles pourront verser un verre d'eau ou faire la vaisselle.

Yann LeCun

Verser un verre d'eau, faire la vaisselle et apprendre à conduire en 10 heures sans tricher avec des capteurs et des cartes. Cela prendra du temps, mais ce sera la prochaine révolution. C'est ce sur quoi je travaille.

Yann LeCun

Mon message est que les modèles de langage sont géniaux, mais ne mènent pas à une intelligence humaine. Actuellement, ils prennent toute la place, ne laissant plus de ressources pour le reste.

Yann LeCun

Pour la prochaine révolution, il faut prendre du recul. Je travaille chez Meta sur une approche alternative. Il faut accélérer maintenant car nous savons que cela fonctionne.

Yann LeCun

Nous avons des premiers résultats, c'est le plan.

Janna Levin

D'accord. J'espère que vous vous joindrez à moi pour remercier nos invités pour cette conversation incroyable. Merci beaucoup.