Prix de la Reine Elizabeth 2025 : Discussion avec les pionniers de l'IA
6 novembre 2025
Intelligence Artificielle
Introduction et présentation des lauréats
Bonjour à tous. Bon après-midi, bonjour. Je suis ravie d'avoir été choisie pour vous présenter ce groupe de personnes vraiment distingué réuni autour de cette table. Six des personnes les plus brillantes et les plus influentes de la planète aujourd'hui, et je ne pense pas que ce soit une exagération. Voici donc les lauréats du Prix de la Reine Elizabeth 2025 pour l'ingénierie, et il honore les lauréats que nous voyons aujourd'hui pour leur impact singulier sur la technologie de l'intelligence artificielle actuelle. Compte tenu de vos réalisations pionnières dans l'apprentissage automatique avancé et l'IA, et de la manière dont les innovations que vous avez aidé à construire façonnent nos vies aujourd'hui, je pense qu'il est clair pour tout le monde pourquoi c'est une occasion vraiment rare et passionnante de vous réunir autour d'une table. Pour ma part, je suis très impatiente de vous entendre réfléchir au moment présent que nous traversons, celui que tout le monde essaie d'anticiper et de comprendre, ainsi qu'à votre parcours qui vous a menés ici aujourd'hui. Mais aussi de comprendre comment votre travail et vous, en tant qu'individus, vous êtes influencés et avez eu un impact les uns sur les autres, ainsi que sur les entreprises et les technologies que vous avez créées. Enfin, j'aimerais vous entendre regarder vers l'avenir et nous aider tous à voir un peu plus clairement ce qui nous attend, ce que vous êtes les mieux placés pour faire. Je suis donc très heureuse de vous avoir tous avec nous aujourd'hui et j'attends avec impatience cette discussion. Je vais commencer en passant d'une vue d'ensemble à une perspective très personnelle. Je veux entendre de chacun d'entre vous le déclic personnel, ce moment 'eureka' dans votre carrière qui, selon vous, a eu un impact sur le travail que vous avez accompli ou qui a été un tournant vous menant sur cette voie jusqu'à aujourd'hui, que ce soit au début de votre carrière, dans vos recherches ou beaucoup plus récemment. Quel a été votre moment d'éveil personnel qui a eu un impact sur la technologie ? Devrions-nous commencer par vous, Yoshua ?
Moments de déclic et parcours personnels
Merci. Oui, avec plaisir. Je citerais deux moments. L'un, quand j'étais étudiant de troisième cycle et que je cherchais un sujet de recherche intéressant, j'ai lu certains des premiers articles de Jeff Hinton et je me suis dit : 'waouh, c'est tellement passionnant'. Peut-être existe-t-il quelques principes simples, comme les lois de la physique, qui pourraient nous aider à comprendre l'intelligence humaine et à construire des machines intelligentes. Et puis le second moment dont je veux parler s'est produit il y a deux ans et demi, après la sortie de ChatGPT, quand j'ai réalisé : 'oh-oh, qu'est-ce qu'on fait ?'. Que se passera-t-il si nous construisons des machines qui comprennent le langage, qui ont des objectifs, et que nous ne contrôlons pas ces objectifs ? Que se passera-t-il si elles sont plus intelligentes que nous ? Que se passera-t-il si des gens abusent de ce pouvoir ? C'est pourquoi j'ai décidé de réorienter complètement mon programme de recherche et ma carrière pour essayer de faire tout ce que je pouvais à ce sujet.
Ce sont deux choses très divergentes. Très intéressant. Bill, parlez-nous de votre moment de construction de l'infrastructure qui alimente ce que nous avons aujourd'hui.
Eh bien, je vais aussi vous donner deux moments. Le premier remonte à la fin des années 90, j'étais à Stanford et j'essayais de comprendre comment surmonter ce qu'on appelait à l'époque le mur de la mémoire, le fait que l'accès aux données depuis la mémoire est bien plus coûteux en énergie et en temps que les opérations arithmétiques sur ces données. Et il m'est venu à l'esprit d'organiser les calculs en ces noyaux connectés par des flux, de sorte que l'on puisse faire beaucoup d'arithmétique sans avoir à faire beaucoup d'accès à la mémoire. Cela a essentiellement ouvert la voie à ce que l'on a appelé le traitement de flux et, finalement, au calcul sur GPU. À l'origine, nous l'avons construit en pensant pouvoir appliquer les GPU non seulement aux graphismes, mais aussi aux calculs scientifiques généraux. Le deuxième moment s'est produit lors d'un petit-déjeuner avec mon collègue Andrew Ng à Stanford ; à l'époque, il travaillait chez Google à trouver des chats sur Internet en utilisant 16 000 processeurs avec cette technologie appelée réseaux de neurones.
Mm-hmm, ce dans quoi Fei-Fei a également eu un rôle.
Et il m'a essentiellement convaincu que c'était une excellente technologie. Avec Bryan Catanzaro, j'ai répété l'expérience sur 48 GPU chez NVIDIA et quand j'ai vu les résultats, j'ai été absolument convaincu que c'était ce que NVIDIA devait faire. Nous devions construire nos GPU pour faire de l'apprentissage profond (deep learning) car cela a des applications énormes dans toutes sortes de domaines au-delà de la détection de chats. Ce fut une sorte de déclic pour commencer à travailler très dur sur la spécialisation des GPU pour l'apprentissage profond et pour les rendre plus efficaces.
Et c'était quand ? En quelle année ?
Le petit-déjeuner était en 2010 et je pense que nous avons répété l'expérience en 2011.
D'accord. Jeff, parlez-nous de votre moment.
Je suppose qu'un moment très important a été lorsqu'en 1984 environ, j'ai essayé d'utiliser la rétropropagation pour apprendre le mot suivant dans une séquence de mots. C'était un minuscule modèle de langage et j'ai découvert qu'il apprenait des caractéristiques intéressantes pour la signification des mots. Ainsi, en lui donnant simplement une chaîne de symboles et en essayant de prédire le mot suivant, il pouvait apprendre à convertir les mots en ensembles de caractéristiques capturant le sens du mot, et faire en sorte que les interactions entre ces caractéristiques prédisent les caractéristiques du mot suivant. C'était en fait un minuscule modèle de langage de la fin de 1984 que je considère comme le précurseur de ces grands modèles de langage. Les principes de base étaient les mêmes, c'était juste minuscule. Nous avions 100 exemples d'entraînement.
Mais il a fallu 40 ans pour en arriver là.
Et il a fallu 40 ans pour en arriver là, et la raison en était que nous n'avions pas la puissance de calcul ni les données. Et nous ne le savions pas à l'époque. Nous ne comprenions pas pourquoi nous ne résolvions pas tout simplement avec la rétropropagation.
Ce nous amène logiquement à Jensen. Nous n'avons pas eu la puissance de calcul pendant 40 ans et voilà que vous la construisez. Parlez-nous de vos moments de réelle clarté.
Eh bien, pour ma carrière, j'ai fait partie de la première génération de concepteurs de puces capable d'utiliser des représentations de plus haut niveau et des outils de conception pour concevoir des puces. Et cette découverte m'a été utile lorsque j'ai appris une nouvelle façon de développer des logiciels vers 2010, simultanément auprès de trois laboratoires différents. Ce qui se passait à l'Université de Toronto, des chercheurs nous ont contactés en même temps que des chercheurs de NYU et de Stanford, et j'ai vu les premières indications de ce qui s'est avéré être l'apprentissage profond à peu près au même moment, en utilisant un cadre de conception structuré pour créer des logiciels. Et ce logiciel s'est avéré incroyablement efficace. Cette seconde observation, voir à nouveau l'utilisation de cadres de travail, de représentations de plus haut niveau et de structures comme les réseaux d'apprentissage profond pour développer des logiciels, était très similaire à la conception de puces pour moi. Les schémas étaient très similaires et j'ai réalisé à ce moment-là que nous pourrions peut-être développer des logiciels et des capacités qui s'adaptent très bien, tout comme nous avons fait évoluer la conception des puces au fil des ans. Ce fut donc un moment important pour moi.
Et quand pensez-vous qu'a été le moment où les puces ont vraiment commencé à aider à la mise à l'échelle des LLM que nous avons aujourd'hui ? Parce que vous avez dit 2010, il s'est encore écoulé 15 ans.
Oui. La particularité de l'architecture de NVIDIA est qu'une fois que vous parvenez à faire fonctionner quelque chose correctement sur un GPU parce qu'il est devenu parallèle, vous pouvez le faire fonctionner sur plusieurs GPU. Cette même sensibilité de mise à l'échelle de l'algorithme pour s'exécuter sur de nombreux processeurs d'un GPU est la même logique et le même raisonnement qui permettent de le faire sur plusieurs GPU, puis sur plusieurs systèmes et même plusieurs centres de données. Une fois que nous avons réalisé que nous pouvions faire cela efficacement, le reste consiste à imaginer jusqu'où extrapoler cette capacité. De combien de données disposons-nous ? Quelle taille les réseaux peuvent-ils atteindre ? Quelle dimensionnalité peuvent-ils capturer ? Quel genre de problèmes peuvent-ils résoudre ? Tout cela n'est que de l'ingénierie à ce stade. L'observation selon laquelle les modèles d'apprentissage profond sont si efficaces est vraiment l'étincelle. Le reste n'est qu'une extrapolation technique.
Fei-Fei, parlez-nous de votre moment.
Oui, j'ai aussi deux moments à partager. Vers 2006 et 2007, je passais du statut d'étudiante diplômée à celui de jeune professeure adjointe et j'appartenais à la première génération d'étudiants en apprentissage automatique lisant les articles de Yann, Yoshua et Jeff. J'étais obsédée par la résolution du problème de la reconnaissance visuelle, c'est-à-dire la capacité des machines à voir du sens dans les objets des photos de la vie quotidienne. Et nous étions confrontés à ce problème d'apprentissage automatique appelé généralisabilité : après avoir appris à partir d'un certain nombre d'exemples, pouvons-nous reconnaître un nouvel échantillon ? J'ai essayé tous les algorithmes possibles, des réseaux bayésiens aux machines à vecteurs de support en passant par les réseaux de neurones. Et la pièce manquante que mon étudiant et moi avons réalisée est que les données manquaient. Si vous regardez l'évolution d'animaux intelligents comme les humains, nous avons été inondés de données dès les premières années de notre développement, mais nos machines en étaient affamées. Nous avons donc décidé de faire quelque chose de fou à l'époque : créer un ensemble de données à l'échelle d'Internet sur trois ans, appelé ImageNet, comprenant 15 millions d'images triées sur le volet par des personnes du monde partout dans le monde, à travers 22 000 catégories. Pour moi, le déclic à ce moment-là a été que le Big Data est le moteur de l'apprentissage automatique.
Et c'est maintenant le facteur limitant, la brique de base de tous les algorithmes que nous voyons.
Oui, cela fait partie de la loi d'échelle de l'IA d'aujourd'hui. Et le second moment a eu lieu en 2018, j'étais la première directrice scientifique de l'IA chez Google Cloud. Une partie de notre travail consistait à servir toutes les industries verticales possibles, n'est-ce pas ? De la santé aux services financiers, du divertissement à l'industrie manufacturière, de l'agriculture à l'énergie. C'était quelques années après ce que nous appelons le moment ImageNet AlexNet, et quelques années après AlphaGo, et j'ai réalisé
AlphaGo étant l'algorithme capable de battre les humains au jeu de société chinois Go.
Oui. Et en tant que directrice scientifique chez Google, j'ai réalisé qu'il s'agissait d'une technologie civilisationnelle qui allait impacter chaque individu ainsi que chaque secteur d'activité. Et si l'humanité doit entrer dans une ère de l'IA, quel est le cadre directeur pour que non seulement nous versions dans l'innovation, mais que nous apportions aussi de la bienveillance grâce à cette technologie puissante pour tout le monde ? C'est alors que je suis retournée à Stanford en tant que professeure pour cofonder l'Institut pour l'IA centrée sur l'humain et proposer le cadre de l'IA centrée sur l'humain, afin de maintenir l'humanité et les valeurs humaines au centre de cette technologie.
Développer, mais aussi observer l'impact et la suite, c'est là que nous intervenons tous. Yann, voulez-vous conclure cette partie ? Quel a été votre moment fort ?
Oui, je remonte probablement à loin. J'ai réalisé quand j'étais étudiant de premier cycle que j'étais fasciné par la question de l'IA et de l'intelligence plus généralement, et j'ai découvert que des gens dans les années 50 et 60 avaient travaillé sur l'entraînement des machines au lieu de les programmer. J'étais vraiment fasciné par cette idée, probablement parce que je pensais être soit trop stupide, soit trop paresseux pour construire une machine intelligente de toutes pièces, n'est-ce pas ? Il vaut donc mieux la laisser s'entraîner elle-même ou s'auto-organiser, et c'est ainsi que l'intelligence dans la vie se construit. Elle s'auto-organise. J'ai trouvé ce concept fascinant et je n'ai trouvé personne quand j'ai obtenu mon diplôme d'ingénieur — je faisais de la conception de puces, au fait — qui voulait aller en doctorat et travaillait là-dessus. Mais j'ai contacté des gens intéressés par le sujet et j'ai découvert les articles de Jeff, par exemple. C'était la personne au monde que je voulais le plus rencontrer en 1983 quand j'ai commencé mon doctorat, et nous nous sommes finalement rencontrés deux ans plus tard. Et
Et aujourd'hui vous êtes amis, diriez-vous ?
Oui. Nous avons déjeuné ensemble en 1985 et nous pouvions pratiquement finir les phrases l'un de l'autre. J'avais un article écrit en français pour une conférence où il était l'orateur principal, et il a réussi à déchiffrer les mathématiques. C'était un peu comme de la rétropropagation pour entraîner des réseaux multicouches. On savait depuis les années 60 que la limitation de l'apprentissage automatique était due au fait que nous ne pouvions pas entraîner de machines avec plusieurs couches. C'était vraiment mon obsession et c'était aussi la sienne. J'avais donc un article qui proposait une façon de le faire et il a réussi à lire les maths. C'est ainsi que nous nous sommes liés et
Et c'est ce qui vous a lancé sur cette voie depuis lors.
Exactement. Après cela, une fois que l'on peut entraîner des systèmes complexes comme celui-ci, on se pose la question : comment les construire pour qu'ils fassent quelque chose d'utile, comme reconnaître des images ? À l'époque, Jeff et moi avions ce débat lorsque j'étais en post-doctorat avec lui à la fin des années 80. Je pensais que le seul paradigme d'apprentissage automatique bien formulé était l'apprentissage supervisé. On montre une image à la machine et on lui donne la réponse, n'est-ce pas ? Et lui disait : non, la seule façon de progresser est l'apprentissage non supervisé. Je rejetais cela à l'époque. Et ce qui s'est passé au milieu des années 2000, quand Yoshua et moi avons commencé à nous réunir pour relancer l'intérêt de la communauté pour l'apprentissage profond, nous avons en fait misé sur l'apprentissage non supervisé, ou l'apprentissage auto-supervisé comme nous l'appelons maintenant.
Qui n'est qu'une boucle de renforcement, n'est-ce pas ?
Ce n'est pas du renforcement. No, il s'agit essentiellement de découvrir la structure dans les données sans entraîner la machine à effectuer une tâche particulière, ce qui est la manière dont les LLM sont entraînés. Un LLM est entraîné à prédire le mot suivant, mais ce n'est pas vraiment une tâche. C'est juste un moyen pour le système d'apprendre une bonne représentation ou de capturer la structure.
N'y a-t-il pas de système de récompense qui, désolée d'être technique, dise 'c'est correct, continue' ? Sinon, comment saurait-il ?
Eh bien, c'est correct si vous prédisez le mot suivant correctement, non ?
Oui. D'accord. Mais c'est différent des récompenses dans l'apprentissage par renforcement où l'on dit 'c'est bien'.
C'est exact. Oui.
Et donc en fait, je vais rejeter la faute sur vous. Il s'avère que vous, Fei-Fei, avez produit cet énorme ensemble de données ImageNet qui était étiqueté, et nous avons donc pu utiliser l'apprentissage supervisé pour entraîner les systèmes. Cela a fonctionné bien mieux que prévu. Nous avons donc temporairement abandonné tout le programme de travail sur l'apprentissage auto-supervisé et non supervisé parce que l'apprentissage supervisé fonctionnait si bien. Nous avions trouvé quelques astuces. Yoshua a persévéré. J'ai dit que je ne l'avais pas fait. Non, vous ne l'avez pas fait. Je ne l'ai pas complètement fait non plus, mais cela a recentré toute l'industrie et la communauté de recherche sur l'apprentissage profond, supervisé, etc. Il a fallu encore quelques années, peut-être vers 2016 ou 2017, pour dire aux gens que cela ne nous mènerait pas là où nous voulons. Nous devons faire de l'apprentissage auto-supervisé maintenant. Les LLM en sont vraiment le meilleur exemple. Mais ce sur quoi nous travaillons actuellement, c'est l'application de cela à d'autres types de données comme la vidéo, les données de capteurs, pour lesquelles les LLM ne sont vraiment pas très bons. C'est le nouveau défi des prochaines années.
L'état actuel de l'IA : Bulle ou révolution ?
Cela nous amène au moment présent et je pense que vous avez tous vu cette vague d'intérêt de la part de personnes qui n'avaient aucune idée de ce qu'était l'IA auparavant, qui n'y trouvaient aucun intérêt, et maintenant tout le monde s'y rue. C'est devenu plus qu'une innovation technique, n'est-ce pas ? C'est un énorme boom économique, c'est devenu un enjeu de stratégie géopolitique et tout le monde essaie de comprendre ce que c'est. Jensen, je m'adresse à vous d'abord. Je veux que vous réfléchissiez tous à ce moment précis. NVIDIA en particulier fait la une des journaux chaque jour, chaque heure, chaque semaine, et vous êtes devenu l'entreprise la plus valorisée au monde. Il y a donc quelque chose que les gens veulent. Pouvez-vous nous dire, craignez-vous que nous arrivions à un point où les gens ne comprennent pas tout à fait, que nous allions tous trop vite et qu'il y ait un retour de bâton, une bulle qui va éclater avant de se stabiliser ? Et sinon, quelle est la plus grande idée fausse sur la demande issue de l'IA par rapport à l'ère point-com, par exemple ?
Pendant l'ère point-com, pendant la bulle, la grande majorité de la fibre déployée était de la fibre noire (dormante). Cela signifie que l'industrie a déployé beaucoup plus de fibre qu'elle n'en avait besoin. Aujourd'hui, presque chaque GPU que vous pouvez trouver est activé et utilisé. Je pense qu'il est important de prendre du recul et de comprendre ce qu'est l'IA. Pour beaucoup de gens, l'IA, c'est ChatGPT et la génération d'images, et c'est vrai. C'est l'une des applications. L'IA a progressé de manière phénoménale ces dernières années. Sa capacité non seulement à mémoriser et à généraliser, mais aussi à raisonner et à penser efficacement en s'appuyant sur la recherche, lui permet de produire des réponses et de faire des choses bien plus précieuses maintenant. C'est beaucoup plus efficace. Et le nombre d'entreprises capables de bâtir des activités utiles à d'autres entreprises — par exemple, une entreprise de programmation logicielle que nous utilisons appelée Cursor, ils sont très rentables et nous utilisons énormément leur logiciel. C'est incroyablement utile. Ou BridgeBio ou Open Evidence qui servent le secteur de la santé, ils s'en sortent très, très bien, produisant de très bons résultats. Les capacités de l'IA ont tellement grandi que nous assistons à deux exponentielles simultanées. D'un côté, la quantité de calcul nécessaire pour produire une réponse a énormément augmenté. De l'autre, l'utilisation de ces modèles d'IA croît également de manière exponentielle. Ces deux exponentielles provoquent une énorme demande de calcul. Maintenant, quand on prend du recul, on se demande fondamentalement ce qui différencie l'IA d'aujourd'hui de l'industrie logicielle du passé ? Eh bien, les logiciels du passé étaient pré-compilés et la quantité de calcul nécessaire n'était pas très élevée. Mais pour que l'IA soit efficace, elle doit être consciente du contexte. Elle ne peut produire l'intelligence qu'au moment présent. On ne peut pas la produire à l'avance et la récupérer. Ça, c'est du contenu. L'intelligence artificielle doit être produite et générée en temps réel. En conséquence, nous avons maintenant une industrie où le calcul nécessaire pour produire quelque chose de précieux et de très demandé est substantiel. Nous avons créé une industrie qui nécessite des usines. C'est pourquoi je rappelle que l'IA a besoin d'usines pour produire ces jetons (tokens), pour produire l'intelligence. C'est une situation inédite où l'ordinateur fait en réalité partie d'une usine. Nous avons besoin de centaines de milliards de dollars pour ces usines afin de servir les milliers de milliards de dollars d'industries qui reposent sur l'intelligence. Si vous regardez les logiciels par le passé, c'étaient des outils utilisés par des gens. Pour la première fois, l'IA est une intelligence qui augmente l'humain. Elle s'attaque au travail, elle effectue des tâches.
Vous dites donc que non, ce n'est pas une bulle.
Je pense que nous sommes bien au début du déploiement de l'intelligence. Et le fait est que la plupart des gens n'utilisent toujours pas l'IA aujourd'hui. Un jour, dans un avenir proche, presque tout ce que nous ferons, à chaque instant de la journée, impliquera l'IA d'une manière ou d'une autre. Entre aujourd'hui, où l'utilisation est assez faible, et demain, où l'utilisation sera pratiquement continue, nous n'en sommes qu'à la première étape de ce déploiement.
Et même si la piste des LLM s'épuise, vous pensez que les GPU et l'infrastructure que vous construisez pourront toujours être utiles dans un paradigme différent ? J'aimerais ouvrir la discussion aux autres.
Eh bien, le LLM est une partie de la technologie de l'IA. Les IA sont des systèmes de modèles, pas seulement des LLM, même si le LLM en est une grande partie. Mais ce sont des systèmes de modèles, et la technologie nécessaire pour que l'IA soit bien plus productive qu'elle ne l'est aujourd'hui, peu importe comment on l'appelle, nous avons encore beaucoup de technologie à développer.
Qui veut intervenir, surtout si vous n'êtes pas d'accord ?
Je ne pense pas que nous devrions encore les appeler LLM. Ce ne sont plus seulement des modèles de langage. Ils commencent comme tels, du moins pour le pré-entraînement, mais plus récemment, il y a eu beaucoup de progrès pour en faire des agents. En d'autres termes, passer par une séquence d'étapes pour accomplir quelque chose de manière interactive avec un environnement, avec des gens actuellement via un dialogue, mais de plus en plus avec une infrastructure informatique. Et la technologie change. Ce n'est plus du tout la même chose qu'il y a trois ans. Je ne pense pas que nous puissions prédire où en sera la technologie dans deux, cinq ou dix ans. Mais nous voyons les tendances. L'une des choses que je fais est d'essayer de réunir un groupe d'experts internationaux pour suivre ce qui se passe avec l'IA, où elle va, quels sont les risques, comment ils sont atténués, et les tendances sont très claires à travers de nombreux benchmarks. Maintenant, parce que nous avons réussi à améliorer la technologie par le passé, cela ne signifie pas que ce sera pareil à l'avenir. Il y aurait alors des conséquences financières si les attentes ne sont pas satisfaites. Mais sur le long terme, je suis tout à fait d'accord.
Et pour les autres ? Pensez-vous que les valorisations soient justifiées au regard de ce que vous savez de la technologie et de ses applications ?
Je pense qu'il y a trois tendances qui expliquent ce qui se passe. La première est que les modèles deviennent plus efficaces. Si vous regardez simplement l'attention par exemple, en passant de l'attention classique au GQA puis au MLA, vous obtenez des résultats identiques ou meilleurs avec beaucoup moins de calcul. Cela stimule alors la demande là où des choses qui auraient été trop chères auparavant deviennent abordables, et maintenant vous pouvez faire plus avec l'IA. En même temps, les modèles s'améliorent et continueront peut-être à s'améliorer avec les transformeurs, ou peut-être qu'une nouvelle architecture apparaîtra, mais nous ne reculerons pas. Nous continuerons d'avoir de meilleurs modèles.
Et vous aurez toujours besoin de GPU même si nous n'avons plus de transformeurs...
Oui, absolument. En fait, cela les rend beaucoup plus précieux par rapport à des solutions plus spécialisées car ils sont plus flexibles et peuvent mieux évoluer avec les modèles. Mais le dernier point est que je pense que nous commençons à peine à effleurer la surface des applications. Presque chaque aspect de la vie humaine peut être amélioré en ayant une IA qui assiste quelqu'un dans sa profession, l'aide dans sa vie quotidienne, et je pense que nous n'avons atteint que 1 % de la demande finale pour cela. À mesure que cela se développe, le nombre d'utilisations va augmenter. Je ne pense donc pas qu'il y ait de bulle ici. Je pense que, comme l'a dit Jensen, nous surfons sur une multiple exponentielle, nous en sommes au tout début et cela va continuer.
D'une certaine manière, NVIDIA est immunisée contre cela car même si ce paradigme change et qu'il y a d'autres types d'IA et d'architectures, vous aurez toujours besoin des atomes en dessous. Cela a du sens pour vous. Vouliez-vous intervenir Fei-Fei ?
Oui, je pense que du point de vue du marché, il y aura sa propre dynamique et parfois il s'ajuste. Mais si l'on regarde la tendance à long terme, n'oublions pas que l'IA est, dans l'ensemble, encore un domaine très jeune, n'est-ce pas ? En entrant dans cette pièce, il y avait des équations de physique sur le mur. La physique est une discipline de plus de 400 ans, même si l'on regarde la physique moderne. L'IA a moins de 70 ans. Si l'on remonte à Alan Turing, cela fait environ 75 ans. Il y a donc encore beaucoup de nouvelles frontières à venir. Jensen et Yoshua parlent de LLM et d'agents, ce sont des approches plutôt basées sur le langage. Mais même si vous faites une introspection de l'intelligence humaine, il y a des capacités intelligentes au-delà du langage. J'ai travaillé sur l'intelligence spatiale, qui est vraiment la combinaison ou le pivot entre la perception et l'action, où les humains et les animaux ont une capacité incroyable à percevoir, raisonner, interagir avec et créer des mondes, ce qui va bien au-delà du langage. Et même les modèles basés sur le langage ou les LLM les plus puissants d'aujourd'hui échouent à des tests rudimentaires d'intelligence spatiale. De ce point de vue, en tant que discipline et en tant que science, il y a bien d'autres frontières à conquérir et à ouvrir, ce qui ouvre la voie à plus d'applications.
Yann, vous travaillez dans une entreprise et vous avez donc cette double perspective de chercheur et de travail dans un espace commercial. Êtes-vous d'accord ? Pensez-vous que tout cela est justifié et voyez-vous d'où cela vient ? Ou pensez-vous que nous atteignons une fin ici et que nous devons trouver une nouvelle voie ?
Je pense qu'il y a plusieurs points de vue selon lesquels nous ne sommes pas dans une bulle, et au moins un point de vue suggérant que nous y sommes, mais c'est un peu différent. Nous ne sommes pas dans une bulle dans le sens où il y a beaucoup d'applications à développer basées sur les LLM. Le LLM est le paradigme dominant actuel et il y a beaucoup à en tirer. C'est ce que disait Bill pour aider les gens dans leur vie quotidienne avec la technologie actuelle. Cette technologie doit être poussée et cela justifie tout l'investissement réalisé côté logiciel et aussi côté infrastructure. Une fois que nous aurons des appareils portables intelligents entre les mains de chacun pour les assister quotidiennement, la quantité de calcul requise, comme le disait Jensen, pour servir tous ces gens sera énorme. En ce sens, l'investissement n'est pas gaspillé. Mais il y a un sens dans lequel il y a une bulle, c'est l'idée que le paradigme actuel des LLM pourra être poussé jusqu'au point d'avoir une intelligence de niveau humain, ce à quoi je ne crois pas personnellement, et vous non plus. Nous avons besoin de quelques percées avant d'arriver à des machines qui ont vraiment le genre d'intelligence que nous observons non seulement chez les humains mais aussi chez les animaux. Nous n'avons pas de robots qui soient ne serait-ce qu'aussi intelligents qu'un chat, n'est-ce pas ? Il nous manque encore quelque chose d'important, c'est pourquoi les progrès de l'IA ne sont pas seulement une question d'infrastructure, de données, d'investissement et de développement du paradigme actuel. C'est en fait une question scientifique : comment progresser vers la prochaine génération de systèmes d'IA.
Perspectives sur l'intelligence de niveau humain et l'AGI
C'est pourquoi vous êtes tous ici, n'est-ce pas ? Parce que vous avez en fait lancé tout le mouvement et j'ai l'impression que nous nous dirigeons beaucoup vers le côté application technique, mais ce que vous dites, c'est que nous devons revenir à ce qui vous a amenés ici à l'origine. Sur cette question de l'intelligence de niveau humain, il ne nous reste plus beaucoup de temps, donc je voudrais faire un tour rapide. Je suis curieuse. Chacun d'entre vous peut-il dire combien de temps il faudra selon lui pour atteindre ce point où vous croirez qu'il existe une intelligence machine équivalente à celle d'un humain ou même d'un animal intelligent comme un poulpe ? À quelle distance sommes-nous ? Juste le nombre d'années.
Ce ne sera pas un événement ponctuel car les capacités vont s'étendre progressivement dans divers domaines. Peut-être ferons-nous des progrès significatifs au cours des cinq à dix prochaines années pour inventer un nouveau paradigme. Ensuite, les progrès viendront peut-être, mais cela prendra plus de temps qu'on ne le pense.
Certaines parties des machines surpasseront l'intelligence humaine et une partie de l'intelligence machine ne sera jamais similaire ou identique à l'intelligence humaine. Elles sont construites à des fins différentes et elles vont...
Quand arriverons-nous à ce dépassement ?
Une partie est déjà là. Combien d'entre nous peuvent reconnaître 22 000 objets dans le monde ? Combien d'humains adultes peuvent traduire cent langues ? C'est plus difficile. Oui. Je pense que nous devrions être nuancés et ancrés dans des faits scientifiques : tout comme les avions volent mais ne volent pas comme des oiseaux, l'intelligence artificielle fera beaucoup de choses puissantes, mais il y a une place profonde pour que l'intelligence humaine reste toujours critique dans notre société.
Jensen, avez-vous...
Nous avons assez d'intelligence générale pour traduire la technologie en une quantité énorme d'applications socialement utiles dans les années à venir. En ce qui concerne l'année, oui, nous le faisons aujourd'hui. Je pense donc que, premièrement, nous y sommes déjà. Deuxièmement, l'autre partie de la réponse est que cela n'a pas d'importance. Parce qu'à ce stade, c'est une question un peu académique. Nous allons appliquer la technologie, elle va continuer à s'améliorer et nous allons l'utiliser pour résoudre beaucoup de choses très importantes à partir de maintenant. Je pense donc que la réponse est que cela n'a pas d'importance. Et c'est aussi dès maintenant.
Si vous affinez un peu la question pour dire : dans combien de temps, si vous avez un débat avec cette machine, gagnera-t-elle toujours ? Je pense que cela arrivera certainement d'ici 20 ans. Nous n'y sommes pas encore, mais je pense que d'ici 20 ans, nous l'aurons assez certainement. Donc si vous définissez cela comme l'AGI, qu'elle gagnera toujours un débat contre vous, nous y parviendrons et probablement en moins de 20 ans.
D'accord.
Eh bien, je suis d'accord avec Jensen sur le fait que c'est la mauvaise question car notre but n'est pas de construire l'IA pour remplacer les humains ou être meilleure qu'eux. Notre but est de construire...
Mais c'est une question scientifique. Ce n'est pas que nous remplacerons les humains. La question est : pourrions-nous, en tant que société, construire quelque chose d'équivalent ?
Mais notre objectif est de construire l'IA pour augmenter les humains. Nous voulons donc compléter ce en quoi les humains sont bons. Les humains ne peuvent pas reconnaître 22 000 catégories ou, pour la plupart d'entre nous, résoudre ces problèmes des Olympiades de mathématiques. Nous construisons donc l'IA pour faire cela afin que les humains puissent faire ce qui est uniquement humain : être créatifs, faire preuve d'empathie et comprendre comment interagir avec les autres dans notre monde. Et je pense qu'il n'est pas certain pour moi que l'IA fasse jamais cela. Mais l'IA peut être d'une aide immense pour les humains.
Je me permets d'être d'un avis différent là-dessus. Je ne vois aucune raison pour laquelle, à un moment donné, nous ne serions pas capables de construire des machines capables de faire à peu près tout ce que nous faisons. Bien sûr, pour l'instant, c'est en retard sur le plan spatial et robotique, mais il n'y a aucune raison conceptuelle pour que nous ne puissions pas le faire. Concernant le calendrier, je pense qu'il y a beaucoup d'incertitude et que nous devrions planifier en conséquence. Mais il y a des données que je trouve intéressantes où l'on voit la capacité des IA à planifier sur différents horizons croître de manière exponentielle au cours des six dernières années. Si nous continuons sur cette tendance, cela placerait le niveau qu'un employé a dans son travail à la portée de l'IA d'ici environ cinq ans. Maintenant, ce n'est qu'une catégorie de tâches d'ingénierie et il y a beaucoup d'autres choses qui comptent. Par exemple, une chose qui peut changer la donne est que de nombreuses entreprises visent à se concentrer sur la capacité de l'IA à faire de la recherche en IA. En d'autres termes, faire de l'ingénierie, de l'informatique et concevoir la prochaine génération d'IA, y compris peut-être améliorer la robotique et la compréhension spatiale. Je ne dis pas que cela arrivera, mais le domaine de la capacité de l'IA à programmer de mieux en mieux et à comprendre les algorithmes progresse très vite. Et cela pourrait débloquer beaucoup d'autres choses. Nous ne savons pas et nous devrions rester vraiment agnostiques et ne pas faire de grandes affirmations car il y a beaucoup de futurs possibles.
Conclusion et remerciements
Notre consensus est donc qu'en quelque sorte, ce futur est déjà là, mais qu'il n'y aura jamais un seul moment précis, et votre rôle à tous ici aujourd'hui est de nous guider sur cette route jusqu'à ce que nous arrivions à un point où nous travaillerons aux côtés de ces systèmes. Je suis personnellement très enthousiaste de voir où nous allons aller avec cela. Si nous refaisons cela dans un an, ce sera un monde différent. Mais merci beaucoup de nous avoir rejoints, d'avoir partagé vos histoires et de nous avoir expliqué ce moment révolutionnaire majeur. Merci.
Merci. Merci.