Jensen Huang : L'avenir des usines d'IA et de la robotique
14 octobre 2025
Technologie & IA
Introduction et investissement de Sequoia
Bonjour à tous. Je m'appelle Konstantine Buhler et je suis associé chez Sequoia Capital, spécialisé dans l'investissement en IA. NVIDIA et Citadel Securities ont beaucoup de points communs. Ce sont toutes deux des entreprises exceptionnelles. Elles sont toutes deux—
Vraiment bien gérées. Des leaders vraiment brillants.
Elles sont exceptionnellement bien gérées, elles ont toutes deux été propulsées par la révolution informatique, et toutes deux sont des leaders dans leurs industries respectives grâce à la technologie. Elles partagent également un autre fait moins connu : dans les deux cas, leur premier investisseur externe était Sequoia Capital. Quand—
Un million de dollars. Ils ont risqué un million de dollars dans NVIDIA.
En 1993.
Vous en valiez la peine.
Un bon million de dollars. Ils ont pris un risque énorme.
C'était un peu plus pour Citadel Securities. Alors, quand on nous a demandé de parler d'IA à cette conférence, il était incroyablement clair qui serait la meilleure personne au monde pour s'exprimer. C'est l'homme qui a construit toute l'infrastructure de la révolution de l'IA sur laquelle repose toute cette IA, et l'homme qui a bâti l'entreprise la plus précieuse au monde. Veuillez vous joindre à moi pour accueillir Jensen Huang.
C'est agréable de se réveiller ainsi.
Vous travaillez depuis des heures.
Oui, en effet.
Jensen, nous avons une salle pleine d'investisseurs institutionnels qui comptent parmi les meilleurs au monde. Ils gèrent des milliers de milliards d'actifs sous gestion et recherchent constamment un avantage. Vous êtes quelqu'un qui a toujours un avantage. Dans chacune de nos conversations, vous avez des idées fascinantes sur ce à quoi ressemblera l'avenir. Au cours des 60 prochaines minutes, nous avons un programme ambitieux pour couvrir l'histoire de cet avantage, depuis les tout débuts de NVIDIA jusqu'à son ascension au centre de la révolution de l'IA, puis nous passerons la majeure partie du temps sur la suite pour NVIDIA et l'IA.
Les débuts de NVIDIA et l'informatique accélérée
D'accord.
Commençons par le tout début. C'est en 1993, vous avez 30 ans, quelle est l'intuition qui vous a donné l'avantage pour lancer NVIDIA ?
Nous traversions la révolution du PC et celle des CPU. C'était l'ère de la loi de Moore. C'était l'époque où les microprocesseurs intégrés, Intel, la loi de Moore, les lois d'échelle des transistors—c'était le sujet brûlant. Et c'était là que se trouvaient presque tous les dollars d'investissement dans la Silicon Valley dans l'industrie informatique. Nous avons observé quelque chose d'un peu différent. Nous avons dit qu'il y a de nombreux problèmes que—l'un des avantages des CPU est d'être à usage général. Mais le problème fondamental des technologies à usage général est qu'elles ont tendance à ne pas être très bonnes, voire extrêmement bonnes, pour des problèmes très difficiles. Nous avons donc conjecturé deux choses. Premièrement, nous avons observé qu'il existe des problèmes que nous pourrions résoudre avec un accélérateur plus spécifique à un domaine, plus ciblé, et que ces problèmes pourraient être intéressants à résoudre. Et nous avons observé que les technologies à usage général, la miniaturisation de ces transistors, finiraient par atteindre leurs limites. L'idée que l'on puisse continuer à réduire la taille des transistors et à l'adapter en utilisant cette technique—c'est un ensemble d'heuristiques appelées l'échelle de Dennard. L'échelle de Dennard, ainsi que Mead et Conway, ont établi ce qui constitue réellement les principes fondamentaux de la loi de Moore. Si vous y revenez, vous découvrirez qu'il y aura une limite à la miniaturisation des transistors et qu'un jour vous obtiendrez des rendements décroissants. Il existe de grands problèmes informatiques ; nous pensons que les problèmes informatiques que nous pourrions résoudre sont d'une échelle presque infinie, et donc un jour, une nouvelle approche informatique émergerait. Nous avons concentré notre entreprise sur l'augmentation, le complément de l'informatique à usage général avec cette technologie appelée informatique accélérée. C'était vraiment l'observation. Vous avez dit tout à l'heure que NVIDIA est toujours en avance sur la courbe. Souvent, si vous raisonnez à partir des principes fondamentaux—ce qui fonctionne incroyablement bien aujourd'hui—si vous pouvez raisonner à partir des principes fondamentaux et vous demander sur quelle base ce principe fondamental est construit et comment cela évoluerait avec le temps, cela vous permet, espérons-le, d'anticiper les changements.
L'invention de CUDA et la création de marchés
Lorsque vous avez construit l'accélérateur graphique, vous étiez en avance, mais ensuite des centaines d'autres concurrents sont apparus. Vous avez fini par gagner sur ce marché. Au début des années 2000, vous avez dit que cette technologie pourrait se généraliser. Vous parlez de la généralisation d'un CPU ; peut-être que le GPU pourrait aussi être généralisé pour plus de traitement. Parlons de CUDA. Comment est-ce arrivé ? D'où vous est venue cette intuition ? On raconte que cela vient de chercheurs. Comment avez-vous lu leurs travaux et conclu que le GPU pouvait être un dispositif informatique général ?
La raison pour laquelle NVIDIA était difficile à construire était que nous devions inventer une nouvelle technologie et inventer un marché. À l'époque, en 1993, pour créer une nouvelle plateforme informatique, il fallait un grand marché. Silicon Graphics, qui faisait des graphismes 3D à l'époque, avait des marchés trop petits pour permettre une nouvelle plateforme informatique. Si nous voulions créer une nouvelle architecture informatique, nous avions besoin d'un grand marché, et ce grand marché n'existait pas parce que l'architecture n'existait pas. C'était le problème de l'œuf et de la poule. Ce en quoi NVIDIA est devenue douée, c'est le marché moderne des jeux vidéo en 3D, auquel nous avons énormément contribué. Le gros problème de Sequoia Capital à l'époque avec les principes de financement de NVIDIA était que nous devions inventer la technologie et le marché simultanément. Les chances que cela arrive sont d'environ zéro pour cent. Je me souviens encore quand j'ai présenté l'histoire et que Don Valentine a dit : 'Jensen, où est ton application ? Où est l'application phare ?' J'ai répondu qu'il y avait cette entreprise appelée Electronic Arts. Je ne savais pas que Don venait d'investir dans Electronic Arts. J'ai dit qu'Electronic Arts allait nous aider à créer ce marché. Il a répondu : 'Jensen, je veux que tu saches que nous avons investi dans Electronic Arts, que leur directeur technique a 14 ans et qu'on l'emmène au travail en voiture, et tu me dis que c'est ça ton application phare.' Nous avons créé l'écosystème moderne du jeu graphique 3D et c'est l'une des plus grandes industries de divertissement au monde. Le problème fondamental des graphismes 3D est essentiellement de simuler la réalité. Si vous revenez aux principes fondamentaux, ce qu'il fait, c'est essayer de recréer la réalité. La mathématique de la reproduction d'images photoréalistes et de mondes dynamiques est fondamentalement une simulation physique. L'algèbre linéaire y est évidemment très importante, et we have realized ce concept. La question est de savoir comment intégrer quelque chose d'usage général dans quelque chose de très spécialisé ? C'est la grande invention de notre entreprise. Nous avons inventé la technologie, nous avons inventé le marché et nous avons inventé les voies nous permettant de passer systématiquement d'une industrie très focalisée verticalement à une utilisation de plus en plus générale. Cela arrive rarement et ce chemin a été difficile, mais l'invention de CUDA est en partie une invention technologique, l'observation de la manière dont nous pouvons généraliser nos GPU. Une grande partie concerne l'invention de nouveaux produits, de nouvelles stratégies et l'invention d'écosystèmes qui créent finalement l'effet volant qui fait exister une plateforme informatique. Nous avons inventé toutes ces choses ; elles sont toutes inédites. En dehors d'ARM et de x86, quelle est l'autre plateforme informatique qui existe dans le monde et que presque tout le monde utilise ? Elle n'existe pas. Inventer une nouvelle plateforme informatique arrive rarement, et dans notre cas, cela nous a pris presque 30 ans.
La percée de l'apprentissage profond et cuDNN
Vous avez pu prendre ce dispositif d'accélération très spécialisé et extrêmement performant et le généraliser pour que les chercheurs et les universitaires du monde entier puissent exécuter leurs traitements beaucoup plus rapidement. Les limitations de la loi de Moore auxquelles ils étaient confrontés ont soudainement été considérablement assouplies. Faisons maintenant un bond en avant jusqu'au début des années 2010. À l'époque, l'apprentissage profond était une sorte de parent pauvre de l'université. L'idée des réseaux de neurones avait traversé une phase d'hiver. Puis, en 2012, il y a eu une percée avec AlexNet dans la vision par ordinateur, et tout cela a été accéléré sur des GPU NVIDIA. Est-ce à ce moment-là que vous avez réalisé que cette révolution de l'IA devenait réelle et, si oui, comment en avez-vous tiré profit ? Quel a été l'avantage pour faire de NVIDIA le centre de cette révolution ?
Deux moments fortuits et un autre qui est juste une excellente observation des principes fondamentaux concernant l'apprentissage profond. Le hasard a commencé quand j'essayais de résoudre la vision par ordinateur. Nous voulions résoudre la vision par ordinateur pour beaucoup de raisons différentes. La vision par ordinateur était vraiment fragile, très difficile à généraliser, une collection de tout un tas d'astuces, et je détestais vraiment la façon dont l'industrie évoluait ; nous étions assez frustrés par les progrès. Pendant ce temps, l'une de nos principales stratégies de démocratisation de l'architecture consistait à amener les scientifiques de l'enseignement supérieur à utiliser notre plateforme, à utiliser CUDA. J'ai commencé par le traitement sismique, la dynamique moléculaire, la physique des particules, la chimie quantique ; j'ai emmené NVIDIA CUDA partout. Il y avait une stratégie dans l'entreprise appelée 'CUDA partout'. Cela signifiait que Jensen transportait CUDA dans le monde entier. Je suis allé dans des universités partout et nous avons rencontré des chercheurs, et cette initiative a incité certains chercheurs à nous contacter en 2011 et 2012. Jeff Hinton, Andrew Ng et Yann LeCun essayaient de résoudre la vision par ordinateur parce qu'il y avait un concours à venir appelé ImageNet dont Fei-Fei est responsable. J'essayais de résoudre la vision par ordinateur. Lorsque vous essayez naturellement de résoudre un problème et que toutes ces personnes intéressantes résolvent des problèmes similaires, elles attirent votre attention. La grande observation est que nous pourrions créer un nouveau type de résolveur pour eux appelé cuDNN, un peu comme le SQL du stockage informatique ; nous avons inventé cuDNN qui est l'informatique en réseau. Cette bibliothèque a permis à chacun d'entre eux d'utiliser CUDA avec succès. J'ai vu les mêmes résultats que tout le monde. Tout le monde a vu le grand bond en avant de l'efficacité de la vision par ordinateur. Mais là où nous sommes allés plus loin, c'est en réfléchissant à la raison pour laquelle cela est si bon pour la vision par ordinateur et à quoi d'autre cela pourrait être bon. La capacité des réseaux de neurones profonds à être extrêmement profonds—ce qui signifie que chaque couche est entraînée indépendamment et que vous pouvez effectuer une rétropropagation à partir d'une fonction de perte jusqu'à son entrée—signifiait que vous pouviez apprendre presque n'importe quelle fonction. Nous en sommes venus à la conclusion qu'il s'agit d'un approximateur universel de fonctions. Si nous pouvons ensuite ajouter à son état—les transformateurs vous donnent la machine à états ultime—nous avons un approximateur universel de fonctions qui peut apprendre presque n'importe quelle fonction. La question est : quel problème peut-il résoudre ? Nous sommes arrivés à la conclusion que la plupart des problèmes que nous voulons résoudre pourraient avoir une composante d'apprentissage profond. Nous avons décidé de réfléchir à ce que l'apprentissage profond pourrait être dans 10 ou 20 ans. Nous avons décomposé le problème informatique et sommes arrivés à la conclusion que chaque couche de la pile informatique pouvait être réinventée. Cette décision a été l'une des meilleures décisions de l'histoire.
La première usine d'IA (DGX-1) et OpenAI
Je faisais des recherches sur l'IA à l'époque à Stanford et la contrainte majeure était toujours l'informatique. Nous avions des clusters limités pour exécuter ces algorithmes et NVIDIA est arrivée et a non seulement assoupli ce calcul, mais l'a rendu possible avec l'infrastructure CUDA. C'est en grande partie votre histoire, vous rendez possible de plus en plus de calculs. En 2016, vous avez très célèbrement créé la première usine d'IA au monde, la DGX-1. Vous l'avez même livrée en main propre à Elon Musk chez OpenAI, à—
J'ai construit ce tout nouvel ordinateur et il ne ressemble à rien de ce que le monde a jamais vu auparavant. Il ne fonctionne comme rien de ce que le monde a jamais vu auparavant. Je me souviens l'avoir annoncé à la GTC et le public était silencieux. J'ai annoncé ce truc et tout le monde a dit 'euh-huh'. Lors de cette GTC, j'ai invité Elon à parler des voitures autonomes ; il est monté sur scène et a dit : 'Jensen, c'est quoi cet ordinateur ?' J'ai dit 'DGX-1, laisse-moi—' et je l'ai construit pour cette raison et il a dit : 'Je pourrais en utiliser un.' J'ai pensé que j'avais enfin obtenu un bon de commande. Puis il a dit : 'J'ai cette organisation à but non lucratif.' Quand vous construisez quelque chose de tout nouveau, la dernière chose que vous voulez entendre, c'est que votre premier client est une organisation à but non lucratif. J'étais le livreur DoorDash de l'ordinateur et j'ai livré cet ordinateur à San Francisco chez OpenAI.
C'est une organisation à but non lucratif très rentable, ou à l'échelle de revenus d'une organisation à but non lucratif.
Nous travaillons ensemble depuis longtemps. Chaque modèle a été construit sur NVIDIA depuis lors.
Et ce truc est énorme. Physiquement, quand Jensen parle d'un ordinateur, nous parlons d'un appareil massif.
Nos GPU, un seul GPU est maintenant à l'échelle d'une baie, il pèse deux tonnes, consomme 120 000 watts et coûte environ trois millions de dollars. C'est un GPU. Nous vendons aussi des GPU plus petits, comme ceux utilisés par Jeff Hinton, qui coûtent entre cinq cents et mille dollars, qui se branchent sur votre PC et que vous pouvez utiliser pour les jeux vidéo ou l'IA. Mais nous avons aussi des GPU plus gros. Une usine d'IA d'un gigawatt coûte environ 50 milliards de dollars.
Le concept d'usines d'IA et l'infrastructure
Parlez-nous de ces usines d'IA, car vous avez peut-être la petite, qui pourrait être le mixeur d'IA, mais ensuite vous avez les très grandes, ces usines d'IA pour lesquelles vous avez tout misé en 2016 et avez commencé à dire que le monde allait avoir besoin d'usines d'IA. Comment avez-vous obtenu cet avantage, cette conviction, et quel impact cela a-t-il eu ?
Il suffit d'y réfléchir. Nous avons construit le premier, le DGX-1, c'était l'ordinateur le plus cher que le monde ait jamais vu, 300 000 dollars par nœud. Cela n'a pas été un grand succès. J'en suis venu à la conclusion que nous ne l'avions pas fait assez grand. Nous en avons fait un plus grand et le second a connu un succès phénoménal. La raison pour laquelle les choses bougent si vite est due aux cycles de produits de NVIDIA et à notre façon d'innover. Nous ne concevons pas une puce, nous concevons une infrastructure entière en une seule fois. Nous sommes la seule entreprise au monde aujourd'hui à qui vous pouvez donner un bâtiment, de l'énergie et une feuille de papier blanche, et nous pouvons tout créer à l'intérieur. Tout le réseau, les commutateurs, les CPU et les GPU de toute cette usine, nous pouvons les construire. Tout fonctionne avec la même pile logicielle de NVIDIA. Parce que nous pouvons intégrer ainsi, nous pouvons aussi avancer extrêmement vite. Chaque année, ils sont tous compatibles au niveau logiciel. L'avantage de la compatibilité logicielle est la vélocité. Nous construisons maintenant des usines d'IA aussi vite que nous le souhaitons, aux limites de ce qui est physiquement possible. Parce que nous co-concevons et modifions les algorithmes, les logiciels, le réseau, les CPU et les GPU en même temps, nous dépassons les limites de la loi de Moore. De manière générationnelle, nous introduisons des niveaux de performance environ 10 fois supérieurs chaque année. Lorsque nous augmentons les performances à puissance égale, nous réduisons vos coûts. Nous faisons baisser les coûts incroyablement vite, ce qui permet aux clients de faire de plus grandes choses et de générer plus de revenus avec la même usine. C'est pourquoi je l'appelle une usine ; ils gagnent de l'argent avec. Ces usines d'IA veulent continuer à augmenter l'échelle, les revenus et le débit. C'est la raison pour laquelle nous innovons si vite et cela explique notre succès.
La plateforme du futur : Travail numérique et IA physique
Jensen, vous êtes passé d'un composant à une plateforme entière, c'est le concept d'usine d'IA. Pour un public d'investisseurs, pouvez-vous décomposer ce qui entre dans la plateforme et aussi commencer à parler de ce à quoi ressemblera la plateforme à l'avenir ?
Il y a des CPU, des GPU, des processeurs réseau et trois types de commutateurs. Il y a un commutateur de mise à l'échelle (scale-up) qui transforme une baie en un ordinateur complet—nous avons inventé l'informatique à l'échelle de la baie. Vous faites une mise à l'échelle horizontale (scale-out) en prenant beaucoup de ces baies et en les connectant ensemble. Ce commutateur et ce réseau ont un ensemble de logiciels par-dessus. Vous créez un système géant de la taille d'un bâtiment, qui ferait probablement environ 100 mégawatts. Un gigawatt, c'est quelques milliers d'acres. Ensuite, vous connectez tous ces centres de données ensemble avec du réseau pour que tous les centres de données puissent réfléchir ensemble. L'IA transforme la façon dont les hyperscalers travaillent. Par exemple, la recherche est désormais propulsée par l'IA. Les systèmes de recommandation sont désormais des films générés par l'IA. Les activités de Google, d'Amazon, de Meta—des centaines de milliards de dollars de revenus sont désormais tous alimentés par l'IA. Même en l'absence d'OpenAI et d'Anthropic, toute cette industrie des hyperscalers est alimentée par l'IA. La première chose à observer est que tout cela doit passer des CPU classiques avec l'apprentissage automatique classique à l'apprentissage profond avec l'IA. Cette transition à elle seule représente des centaines de milliards de dollars.
Absolument.
Nous avons maintenant ce nouveau marché appelé IA et une nouvelle industrie qui produit de l'IA. OpenAI, Anthropic, xAI, Gemini de Google et Meta vont être des fabricants d'IA. Toute cette couche de créateurs de modèles d'IA construit également des usines d'IA. Ces IA vont alimenter la prochaine génération d'opportunités—les Harvey, les Open Evidence, les Cursor. Ces entreprises natives de l'IA vont s'attaquer à une industrie qui n'a jamais été adressable : l'industrie de la main-d'œuvre. C'est de la main-d'œuvre numérique, des IA agentiques cognitives qui vont compléter et augmenter le marché des entreprises. NVIDIA utilise déjà aujourd'hui 100 % de nos ingénieurs logiciels et concepteurs de puces ; chaque ingénieur aujourd'hui est augmenté par Cursor. Nous avons maintenant des IA pour tous nos ingénieurs. Les gains de productivité rendent le travail que nous faisons bien meilleur. Il y a une autre nouvelle industrie qui apparaît, appelée l'IA physique. Un robo-taxi est essentiellement un chauffeur numérique. Nous allons maintenant avoir des IA qui vont être incarnées dans tout ce qui bouge. Ces deux industries représentent environ 100 billions de dollars de l'économie mondiale et, pour la toute première fois, nous disposons d'une technologie capable d'augmenter cela. L'IA a besoin de réfléchir. Vous ne pouvez pas la précompiler, la mettre dans un binaire et la télécharger. Elle doit traiter le contexte en permanence pour produire un résultat. Elle a besoin d'une machine et d'ordinateurs pour faire cela. C'est la raison pour laquelle les usines d'IA existent. Ces usines d'IA seront dans le cloud, sur site et partout dans le monde. Pour comprendre pourquoi la robotique est si proche, vous pouvez maintenant solliciter une IA et elle pourrait générer une vidéo de moi prenant une bouteille et buvant une gorgée. S'elle peut générer tout cela, pourquoi ne pourrait-elle pas manœuvrer un robot pour le faire ? Si vous pouviez concevoir un chauffeur numérique capable de conduire une voiture, pourquoi ne pourriez-vous pas avoir un robot physique conduisant une voiture ? Si un robot physique peut être incarné pour conduire une voiture, pourquoi ne pourriez-vous pas incarner n'importe quel type de robotique ? Nous avons la capacité d'incarner presque n'importe quoi. Les futures IA pourront incarner et manipuler des voitures, des bras robotiques, des humanoïdes et des robots chirurgicaux. Ces deux marchés sont à la portée de l'IA. Nous avons maintenant vu la preuve d'un codeur logiciel IA. Si vous pouvez avoir un codeur logiciel IA, pourquoi ne pourriez-vous pas demander à ce codeur logiciel IA d'écrire un logiciel pour une campagne marketing ou pour vous aider à résoudre un problème comptable ? L'existence de cela signifie que le reste n'est que de l'ingénierie. Si les robotaxis existent, pourquoi ne pourriez-vous pas généraliser cela ? Le reste n'est que de l'ingénierie. C'est une bonne façon de raisonner à partir des principes fondamentaux sur la probabilité que nous puissions voir cette technologie proliférer. Pour passer à l'échelle et fournir cette intelligence aux applications, vous avez besoin d'usines d'IA.
Robotique et les trois ordinateurs
Parlons un peu plus de robotique. Vous avez une équipe de robotique exceptionnelle ; l'un de vos cadres qui dirige la robotique est ici aujourd'hui. Lors d'une conversation précédente, vous avez partagé quelques réflexions sur la façon dont la robotique pourrait évoluer. S'agira-t-il d'un projet humanoïde unique, de projets open source, comment ces projets open source vont-ils se lier ? Comment pensez-vous que la robotique se manifestera réellement dans le monde physique et selon quel calendrier ?
Les robo-taxis sont là maintenant. Leur capacité à se généraliser de ville en ville devient rapide. La raison en est la même technologie fondamentale. Vous êtes passé de fonctionnalités conçues par l'homme et de l'apprentissage automatique à l'utilisation d'un apprentissage plus profond et de modèles multi-modaux pour être maintenant largement de bout en bout. Dans ce voyage, nous sommes devenus de plus en plus généralisables. Le modèle d'IA que vous utilisez pour une voiture autonome et le modèle d'IA que vous utilisez pour un robot humanoïde sont très similaires ; c'est juste dans deux incarnations différentes. Je le sais avec certitude parce que je peux conduire une voiture et je peux manipuler mon corps ; c'est la même intelligence. La robotique se dirige vers des IA généralisables qui sont multi-incarnations et multi-modales. Pour créer cet avenir, vous avez besoin de trois choses. Vous avez besoin de l'usine d'IA pour entraîner les modèles. Vous avez besoin d'un endroit où l'IA pourrait apprendre à être une IA sans avoir à venir au monde tout de suite, afin qu'elle puisse essayer des billions d'itérations dans un monde virtuel. Ce monde virtuel ressemble à un jeu vidéo. Lorsqu'il a fini d'apprendre à être un excellent joueur de jeu vidéo, parce que l'écart entre la simulation et la réalité est extrêmement faible puisque le simulateur, que nous appelons Omniverse, est très bon, ce robot peut sortir de ce monde virtuel pour entrer dans le monde physique. Dans le monde physique, il a également besoin d'un ordinateur. Il vous faut donc trois ordinateurs : l'ordinateur d'entraînement de l'IA, l'ordinateur de simulation du monde virtuel et l'ordinateur où le robot actionne réellement son cerveau. NVIDIA propose ces trois ordinateurs et nous travaillons avec presque toutes les entreprises de robotique. Ce sera probablement l'un des plus grands marchés de tous.
IA agentique et le système d'exploitation moderne
Les modèles sont le système d'exploitation de l'ordinateur moderne. Vous construisez des applications sur ces modèles d'IA—pas seulement un, mais un système de modèles d'IA. Les applications auront une collection de différentes IA qu'elles connectent ensemble. Quel est l'espace applicatif au-dessus ? La façon la plus sensée de penser à l'espace applicatif au-dessus est la métaphore des humains numériques. Un ingénieur logiciel numérique pour le codage par IA va être une opportunité de marché de plusieurs billions de dollars. Il y aura des infirmiers, des comptables, des avocats et des spécialistes du marketing numériques par IA. Nous appelons tout cela l'IA agentique. Cette technologie évolue très bien. Pour la toute première fois, la technologie n'est plus seulement un outil ; nous allons devenir des ingénieurs logiciels numériques. Je ne serais pas surpris si vous en preniez sous licence et en embauchiez certains en fonction de la qualité et de l'expertise approfondie. Les futurs effectifs en entreprise seront une combinaison d'humains et d'humains numériques. Certains seront basés sur OpenAI, d'autres sur Harvey, Open Evidence, Cursor, Replit ou Lovable ; certains seront tiers et d'autres développés en interne. Nous avons développé beaucoup de nos propres IA en interne parce que nous avons des connaissances et des données propriétaires à protéger et des compétences dans le développement de ces IA. Au fil du temps, de plus en plus de personnes pourront cultiver leurs propres IA numériques car ce sera tout simplement plus facile à faire. L'IA agentique en entreprise augmentant la force de travail représente des milliers de milliards de dollars d'opportunités. L'IA doit réfléchir. Vous ne pouvez pas la précompiler et la télécharger ; elle doit traiter le contexte tout le temps pour produire un résultat. Réfléchir et générer nécessite des ordinateurs. C'est la raison pour laquelle les usines d'IA existent. Ces usines d'IA seront dans le cloud, sur site et partout dans le monde. Dans le cadre de l'infrastructure de l'IA, il va y avoir beaucoup de réflexion pour produire ces jetons, ou cette intelligence. C'est l'IA cognitive et la force de travail numérique. Le deuxième domaine est la robotique. Pour comprendre pourquoi la robotique est si proche, vous pouvez maintenant solliciter une IA et elle pourrait générer une vidéo de moi prenant une bouteille et buvant une gorgée. S'elle peut générer tout cela, pourquoi ne pourrait-elle pas manœuvrer un robot pour le faire ? Si vous pouviez concevoir un chauffeur numérique capable de conduire une voiture, pourquoi ne pourriez-vous pas avoir un robot physique conduisant une voiture ? Si un robot physique peut être incarné pour conduire une voiture, pourquoi ne pourriez-vous pas incarner n'importe quel type de robotique ? Nous avons la capacité d'incarner presque n'importe quoi. Les futures IA pourront incarner et manipuler des voitures, des bras robotiques, des humanoïdes et des robots chirurgicaux. Ces deux marchés sont à la portée de l'IA. Nous avons maintenant vu la preuve d'un codeur logiciel IA. Si vous pouvez avoir un codeur logiciel IA, pourquoi ne pourriez-vous pas demander à ce codeur logiciel IA d'écrire un logiciel pour une campagne marketing ou pour vous aider à résoudre un problème comptable ? L'existence de cela signifie que le reste n'est que de l'ingénierie. Nous avons maintenant des robotaxis ; c'est un robot incarné qui contrôle un volant et des roues. Si cela existe, vous pouvez le généraliser. Le reste n'est que de l'ingénierie. C'est une bonne façon de raisonner à partir des principes fondamentaux sur la probabilité que nous puissions voir cette technologie proliférer à travers les industries et la société. Pour passer à l'échelle et fournir cette intelligence aux applications, vous avez besoin d'usines d'IA.
Robotique (Suite)
Parlons un peu plus de robotique. Vous avez une équipe de robotique exceptionnelle ; l'un de vos cadres qui dirige la robotique est ici aujourd'hui. Dans une conversation précédente, vous avez partagé quelques réflexions sur la façon dont la robotique pourrait évoluer. S'agira-t-il d'un projet humanoïde unique ? S'agira-t-il de projets open source ? Comment ces projets open source vont-ils se lier ? Comment pensez-vous que la robotique se manifestera réellement dans le monde physique et selon quel calendrier ?
Les robo-taxis sont là maintenant. Leur capacité à se généraliser de ville en ville devient très rapide. La raison en est la même technologie fondamentale. Vous êtes passé de fonctionnalités conçues par l'homme et de l'apprentissage automatique à l'utilisation d'un apprentissage plus profond et de modèles multi-modaux pour être maintenant largement de bout en bout. Dans ce voyage, nous sommes devenus plus généralisables. Le modèle d'IA que vous utilisez pour une voiture autonome et le modèle d'IA que vous utilisez pour un robot humanoïde sont très similaires ; c'est juste dans deux incarnations différentes. Je le sais avec certitude parce que je peux conduire une voiture et je peux manipuler mon corps ; c'est la même intelligence. Je pourrais prendre une fourchette et un couteau et faire semblant d'être un chirurgien opérant un steak. C'est la même IA dans différentes incarnations. La robotique se dirige vers des IA généralisables qui sont multi-incarnations et multi-modales. Pour créer cet avenir, vous avez besoin de trois choses. Vous avez besoin de l'usine d'IA pour entraîner les modèles. Vous avez besoin d'un endroit où l'IA pourrait apprendre à être une IA sans avoir à venir au monde tout de suite, afin qu'elle puisse essayer des billions d'itérations dans un monde virtuel. Ce monde virtuel ressemble à un jeu vidéo. Lorsqu'il a fini d'apprendre à être un excellent joueur de jeu vidéo, parce que l'écart entre la simulation et la réalité est extrêmement faible puisque le simulateur, que nous appelons Omniverse, est très bon, ce robot peut sortir de ce monde virtuel pour entrer dans le monde physique. Dans le monde physique, il a également besoin d'un ordinateur. Il vous faut donc trois ordinateurs : l'ordinateur d'entraînement de l'IA, l'ordinateur de simulation du monde virtuel et l'ordinateur où le robot actionne réellement son cerveau. NVIDIA propose ces trois ordinateurs et nous travaillons avec presque toutes les entreprises de robotique. Ce sera probablement l'un des plus grands marchés de tous.
Marchés frontières : Santé, Télécoms et Quantique
NVIDIA touche à peu près tout dans la technologie aujourd'hui. Comme vous l'avez dit par le passé, vous commencez avec des marchés à zéro milliard de dollars et avez aidé à les transformer en marchés à mille milliards de dollars. La robotique est l'un des prochains marchés frontières. Y a-t-il d'autres marchés frontières qui vous passionnent particulièrement ? Vous avez mentionné la santé il y a un instant. Est-ce un domaine qui vous passionne ? Y en a-t-il d'autres que les investisseurs présents devraient surveiller ?
La technologie nécessaire pour la santé est vraiment compliquée et nous faisons des progrès rapides. Si vous pouvez comprendre la signification des mots et des séquences de caractères, et si vous pouviez comprendre la signification de structures comme le monde virtuel—la raison pour laquelle nous sommes capables de générer de la vidéo est que nous comprenons la représentation du monde virtuel—est-il possible que vous compreniez les protéines et les produits chimiques qui ont une structure ? La réponse est oui. Nous nous rapprochons de plus en plus de la compréhension de la signification des protéines, AlphaFold et d'autres. Nous sommes capables de comprendre la signification des cellules et nous avons récemment conclu un partenariat avec Arc et Evo2 est l'un des premiers exemples d'un modèle de fondation pour la représentation cellulaire. Vous pouvez maintenant lui parler et dire : 'Je veux que tu génères d'autres cellules avec ces propriétés' ou vous pourriez parler à une cellule et l'interroger sur ses propriétés, ce à quoi elle peut se lier et son métabolisme. Vous pourriez parler à une cellule comme vous pourriez parler à un chatbot. Il y a beaucoup de progrès là-bas. Je suis enthousmé par le travail que nous faisons pour apporter l'IA dans les télécommunications. La 5G et la 6G seront révolutionnées par l'IA. Je suis enthousmé par la collaboration que nous avons avec les ordinateurs quantiques afin de pouvoir avancer le calendrier de l'ordinateur quantique d'environ une décennie en créant des systèmes informatiques hybrides GPU-quantique où nous effectuons la correction d'erreurs, contrôlons l'ordinateur quantique et effectuons le post-traitement. Nous avons une nouvelle architecture appelée CUDA-Q, qui étend CUDA au quantique. Cela connaît une adoption incroyable. Il y a tout un tas de problèmes que nous pouvons maintenant résoudre et qui étaient difficiles à résoudre auparavant.
IA souveraine et politique mondiale
Parlons un peu de l'IA souveraine. Nous venons de recevoir Mario Draghi sur scène. Il parlait de l'importance de nouveaux investissements technologiques pour l'Union européenne, y compris l'IA à grande échelle. Cette révolution est matériellement différente dans le sens où les gouvernements sont très impliqués, tant dans la réglementation potentielle que dans l'achat d'usines d'IA. Quel est, selon vous, le chemin à suivre pour l'IA souveraine, la manière dont les pays disposent de leurs propres systèmes d'IA, et pour l'import-export, comment les États-Unis devraient-ils interagir avec le reste du monde en matière d'IA ?
Aucun pays ne peut se permettre d'externaliser toutes ses données nationales et d'importer sa propre intelligence en retour. Sur le principe fondamental, ce n'est pas sensé. Cependant, personne n'a besoin de tout construire soi-même. Vous pourriez acheter et importer, mais vous ne devriez pas renoncer à la production de votre propre intelligence nationale. Aujourd'hui, la technologie est plutôt difficile, mais elle devient plus facile rapidement. Il existe une quantité énorme de capacités open source. Je ne renoncerais pas à construire votre propre IA souveraine. Je ne renoncerais pas à prendre les données que vous avez et à créer votre propre intelligence nationale à partir d'elles. Désormais, des pays du monde entier le font. L'IA souveraine consistera probablement pour chaque pays à en importer une partie, à en acheter une partie et à en construire une partie. Nous voyons beaucoup d'élan autour de l'IA souveraine au Royaume-Uni, en France, en Italie, en Espagne, en Allemagne, au Japon et en Corée. L'IA souveraine surgit partout dans le monde.
Le marché chinois et la politique américaine
Un pays qui est souvent revenu sur le tapis est la Chine. Quelle est la bonne chose à faire pour les États-Unis en termes d'exportations d'usines d'IA vers la Chine ?
L'IA est une nouvelle technologie et nous devons être réfléchis sur la manière de la réglementer. Les États-Unis veulent gagner la course à l'IA et les décideurs politiques veulent faire ce qu'il faut pour que l'Amérique gagne. Cependant, il est important d'être conscient que ce qui nuit à la Chine peut aussi souvent nuire à l'Amérique, et même pire. Avant de nous précipiter vers des politiques nuisibles aux autres, réfléchissons aux politiques utiles à l'Amérique. Dans le cas de l'IA, les développeurs sont d'une importance vitale. Gagner les développeurs est ce qui crée la future plateforme. Nous voulons que le monde soit construit sur la technologie américaine. NVIDIA est une fière entreprise américaine et nous espérons pouvoir créer une technologie américaine sur laquelle le monde entier s'appuie. Beaucoup de chercheurs en IA sont en Chine. La Chine possède environ 50 % des chercheurs en IA au monde, des écoles incroyables et une passion pour l'IA. C'est une erreur de ne pas laisser ces chercheurs construire l'IA sur la technologie américaine. Comment équilibrer le fait de gagner et de rester en tête tout en s'assurant que le monde construit sur la pile technologique américaine ? C'est là l'équilibre. La nuance est requise ; ce n'est probablement pas tout ou rien. Une stratégie nuancée qui évolue avec le temps, qui permet aux États-Unis de rester en tête tout en continuant à gagner les chercheurs du monde entier est probablement le bon équilibre. Pour le moment, nous sommes hors de Chine. La Chine est passée de 95 % de part de marché à 0 %. Je ne peux imaginer aucun décideur politique pensant que c'est une bonne idée. Dans toutes nos prévisions, nous supposons zéro pour la Chine. Si quoi que ce soit arrive en Chine, ce sera un bonus. Mais c'est un grand marché. La Chine est le deuxième plus grand marché informatique au monde et c'est un écosystème dynamique. C'est une erreur pour les États-Unis de ne pas y participer. Espérons que nous continuerons à informer et à garder espoir en un changement de politique.
Sécurité de l'IA et cybersécurité
Jensen, vous étiez dans nos bureaux récemment pour une conférence sur l'IA et vous avez eu des idées brillantes sur l'avenir de la sécurité de l'IA et son importance. Il y a des acteurs étatiques qui pourraient interférer avec l'IA. Il y a des utilisateurs individuels qui pourraient mal utiliser l'IA. Selon vous, à quoi ressemble l'avenir de la sécurité de l'IA ?
La sécurité de l'IA à l'avenir ressemblera à la cybersécurité. Cela exigera que nous travaillions en tant que communauté. Tous vos responsables de la sécurité forment une grande communauté ; quand quelqu'un trouve une intrusion ou une vulnérabilité, nous la partageons avec tout le monde. Si le coût marginal de l'IA tombe à zéro, alors le coût marginal de l'IA axée sur la sécurité tombe également à zéro. Il est très probable que chaque IA soit entourée d'IA de cybersécurité qui la surveillent. Nous allons avoir des millions de protecteurs IA à l'intérieur et à l'extérieur de l'entreprise. Une IA doit elle-même être bonne, mais je ne pense pas que nous devions compter uniquement sur cela. Tout comme un logiciel peut avoir des bogues ou des virus, nous devons supposer la même chose de l'IA. Nous allons faire progresser l'IA de la manière la plus sûre possible, mais nous allons également entourer l'IA d'IA de sécurité.
Vous avez partagé que la dynamique du monde physique est découplée dans ce monde numérique. Là où dans le monde physique vous pourriez avoir une personne de sécurité pour cent personnes normales, cela pourrait être inversé dans un monde d'IA.
En cybersécurité, nous avons beaucoup plus d'agents de cybersécurité que nous n'avons de personnes travaillant dans l'entreprise sur la cybersécurité.
L'informatique générative
Vous avez également partagé cette idée qu'à l'avenir, nous n'allons pas seulement avoir du calcul rendu, mais que tout sera généré. Pouvez-vous expliquer cette prédiction et ce qu'elle signifie pour NVIDIA ?
Un excellent exemple de cela est Perplexity. Tout ce que vous voyez sur Perplexity lorsque vous posez une question est complètement généré. La recherche est une informatique basée sur la récupération ; Perplexity est génératif. Il lit le contenu et le génère pour vous. Un autre exemple est les vidéos que nous voyons aujourd'hui. Les pixels de Sora et Luma sont générés et conditionnés par vos prompts. Le mode de calcul à l'avenir sera probablement génératif. À chaque question que vous m'avez posée, je n'ai pas couru à mon bureau pour récupérer quelque chose. C'est l'ordinateur d'hier. L'ordinateur d'aujourd'hui interagit. Nous générons tout en temps réel en fonction du contexte présent et de ce qui se passe dans le monde. Votre futur ordinateur est un PDG, un artiste, un poète ou un conteur et vous collaborez avec lui pour créer un contenu unique. L'avenir de l'informatique est 100 % génératif. Derrière cela, vous avez besoin d'une usine d'IA. Je suis certain à 100 % que nous sommes au début de ce voyage. Nous n'en sommes qu'à quelques centaines de milliards de dollars dans ce qui sera probablement des billions de dollars d'infrastructure construite chaque année.
Et ce paradigme informatique ressemble beaucoup plus à l'esprit humain.
Oui, c'est de la réflexion.
Questions rapides
Alors, si vous êtes d'accord, et si nous générions quelques réponses lors d'un tour rapide ?
D'accord. Je suis sûr que le poulet frit est la réponse.
Quel est le KPI que Wall Street sous-évalue ?
Dans l'avenir des usines d'IA, votre débit par unité d'énergie régit les revenus de vos clients. Il ne s'agit pas seulement de choisir une meilleure puce ; il s'agit de décider quels seront vos revenus. Le taux de génération de jetons par unité d'énergie de votre usine est votre revenu.
L'élément le plus sous-estimé de la plateforme de NVIDIA.
La plupart des gens parlent de CUDA, mais il existe une suite de bibliothèques qui se trouvent au-dessus. cuDNN est l'une des bibliothèques les plus importantes jamais créées. Nous avons environ 350 de ces bibliothèques comme cuDF et cuLitho. C'est le trésor de NVIDIA.
Quelle est la technologie que vous pensez être largement sous-évaluée et celle qui, selon vous, pourrait être surévaluée ?
Omniverse—le monde virtuel pour l'apprentissage de l'IA physique—est profondément sous-évalué. Les gens ne savent tout simplement pas encore qu'ils en ont besoin, mais cela se répand dans toute l'industrie de la robotique. Une fois que vous commencerez à construire des robots, vous réaliserez à quel point il était visionnaire que nous ayons commencé à travailler sur Omniverse il y a presque une décennie.
Quel est le livre qui a le plus façonné votre philosophie d'entreprise et de leadership ?
L'un de mes livres préférés était un livre de calcul infinitésimal où j'ai réalisé que les mathématiques étaient en mouvement. Les livres de Clayton Christensen et le livre Positioning d'Al Ries étaient excellents. Sapiens est toujours bon. Crossing the Chasm de Geoffrey Moore est un bon livre. Lisez tous les livres de Christensen.
Plat réconfortant préféré ?
Le poulet frit.
Dernière question : si vous étiez un DSI dans le public avec 10 milliards de dollars à allouer à l'IA dans les années à venir, dans quoi les investiriez-vous ?
J'expérimenterais tout de suite la construction de votre propre IA. Nous sommes fiers d'intégrer les employés, et vous devez faire de même pour l'IA. Vous devez intégrer des employés numériques et leur enseigner la culture, les connaissances et les compétences. Notre département informatique sera le département RH de l'IA agentique à l'avenir. Ces employés numériques vont travailler avec des employés biologiques. Je ferais cela tout de suite.
Conclusion
Merci, Jensen. Nous avons entendu une histoire incroyable. L'histoire de NVIDIA est celle d'une généralisation exceptionnelle, passant d'un processeur graphique accéléré à la technologie qui alimente l'IA aujourd'hui. Nous avons parlé de services, de robotique, de politique étrangère et même de poulet frit. Merci beaucoup.
Merci. Bon travail.