Jensen Huang on OpenAI Stargate, AI Scaling Laws, and the Future of Computing
26 septembre 2025
Technology & Business
Introduction & The Evolution of AI Scaling
Je pense qu'OpenAI sera probablement la prochaine entreprise hyperscale de plusieurs billions de dollars.
Jensen, ravi d'être de retour, bien sûr avec mon partenaire Clark Tang. Je n'arrive pas à croire que cela fait déjà...
Bienvenue chez NVIDIA !
Oh, et de jolies lunettes. Elles vous vont vraiment bien. Le problème, c'est que maintenant tout le monde va vouloir que vous les portiez tout le temps. Ils diront : "Portez les lunettes rouges."
Je peux en témoigner.
Cela fait donc plus d'un an que nous avons fait le dernier podcast.
Ouais.
Aujourd'hui, plus de 40 % de votre chiffre d'affaires provient de l'inférence. Mais l'inférence est prête grâce à la chaîne de raisonnement. Elle est prête...
C'est sur le point d'augmenter d'un milliard de fois.
C'est ça, d'un million de fois, d'un milliard. C'est la partie...
C'est exact. C'est exact. C'est la partie que la plupart des gens n'ont pas encore complètement assimilée. C'est cette industrie dont nous parlions auparavant. C'est la révolution industrielle.
C'est vrai.
Honnêtement, j'ai eu l'impression que nous avons poursuivi ce podcast tous les jours depuis lors. En temps IA, cela fait environ cent ans.
Je regardais à nouveau le podcast récemment et parmi les nombreuses choses dont nous avons parlé qui ont le plus marqué, celle qui a probablement été la plus profonde pour moi était de vous voir taper sur la table pour rappeler qu'à l'époque il y avait une sorte de ralentissement dans le pré-entraînement et que les gens disaient : "Mon Dieu, c'est la fin du pré-entraînement."
La fin du pré-entraînement.
C'est ça, la fin du pré-entraînement, nous construisons trop. C'était il y a environ un an et demi. Et vous avez dit : "L'inférence n'ira pas vers un facteur 100 ou 1000, elle ira vers un milliard."
Mm-hmm.
Ce qui nous amène à l'endroit où nous en sommes aujourd'hui. Vous avez annoncé cet accord énorme et nous devrions commencer par là.
Je l'ai sous-estimé. Je tiens à le préciser officiellement, je l'ai sous-estimé. Nous avons maintenant trois lois de mise à l'échelle. Nous avons la loi de mise à l'échelle du pré-entraînement, la loi de mise à l'échelle du post-entraînement. Le post-entraînement, c'est essentiellement l'IA qui pratique une compétence jusqu'à ce qu'elle la maîtrise. Elle essaie donc une multitude de façons différentes. Et pour ce faire, vous devez faire de l'inférence. Ainsi, l'entraînement et l'inférence sont désormais intégrés dans l'apprentissage par renforcement. C'est très compliqué. C'est ce qu'on appelle le post-entraînement. Et la troisième est l'inférence. L'ancienne façon de faire de l'inférence se faisait en une seule fois. Mais la nouvelle façon, que nous apprécions, c'est la réflexion. Penser avant de répondre. Vous avez donc maintenant trois lois de mise à l'échelle. Plus vous réfléchissez longtemps, meilleure est la qualité de la réponse que vous obtenez. Pendant que vous réfléchissez, vous faites des recherches, vous vérifiez des faits concrets, vous apprenez des choses, vous réfléchissez davantage, vous apprenez encore plus, puis vous générez une réponse. Ne vous contentez pas de générer immédiatement. Ainsi, la réflexion, le post-entraînement, le pré-entraînement, nous avons maintenant trois lois de mise à l'échelle, et non plus une seule.
Vous le saviez l'année dernière, mais votre niveau de confiance cette année dans le fait que l'inférence soit multipliée par un milliard et sur l'élévation des niveaux d'intelligence qui en découlera est-il plus élevé ? Êtes-vous plus confiant cette année qu'il y a un an ?
Je suis plus confiant cette année parce que regardez les systèmes agentiques maintenant. L'IA n'est plus un modèle de langage, une IA est un système de modèles de langage. Ils fonctionnent tous en même temps, certains utilisent des outils, d'autres font des recherches, et il y a tout un tas de choses. Tout est multimodalité et regardez toutes les vidéos générées. C'est tout simplement dément.
The OpenAI Partnership & Stargate
Cela nous amène vraiment au moment crucial de cette semaine dont tout le monde parle, l'accord massif que vous avez annoncé il y a quelques jours avec OpenAI Stargate, où vous allez être un partenaire privilégié et investir cent milliards de dollars dans l'entreprise sur une certaine période. Ils vont construire 10 gigas. S'ils utilisaient NVIDIA pour ces 10 gigas, cela pourrait représenter plus de 400 milliards de revenus pour NVIDIA. Aidez-nous donc à comprendre un peu ce partenariat, ce qu'il signifie pour vous et pourquoi cet investissement est si logique pour NVIDIA.
Tout d'abord, je vais répondre à cette dernière question en premier, puis je reviendrai sur mon raisonnement. Je pense qu'OpenAI sera probablement la prochaine entreprise hyperscale de plusieurs billions de dollars.
D'accord. Pourquoi l'appelez-vous une entreprise hyperscale ?
Hyperscale comme Meta est un hyperscale, Google est un hyperscale. Ils vont avoir des services pour les consommateurs et les entreprises et ils seront très probablement la prochaine entreprise hyperscale de plusieurs billions de dollars au monde. Et je pense que vous seriez d'accord avec cela.
Je suis d'accord.
Si c'est le cas, l'opportunité d'investir avant qu'ils n'y arrivent est l'un des investissements les plus intelligents que nous puissions imaginer. Il faut investir dans des choses que l'on connaît, et il se trouve que nous connaissons ce domaine. L'opportunité d'y investir, le retour sur cet argent va être fantastique. Nous aimons cette opportunité d'investir. Nous ne sommes pas obligés de le faire et ce n'est pas requis, mais ils nous en donnent l'occasion. C'est une chose fantastique. Maintenant, laissez-moi commencer par le début. Nous sommes partenaires d'OpenAI sur plusieurs projets. Le premier projet est le déploiement de Microsoft Azure et nous allons continuer à le faire. Ce partenariat se passe à merveille. Nous avons plusieurs années de déploiement à faire, des centaines de milliards de dollars de travail à accomplir. Le deuxième est le déploiement d'OCI. Je pense qu'il y a cinq, six, sept gigawatts qui sont sur le point d'être déployés. Nous travaillons avec OCI, OpenAI et SoftBank pour construire cela. Ces projets sont sous contrat, nous y travaillons, il y a beaucoup à faire. Le troisième est CoreWeave. Je parle toujours d'OpenAI, tout cela dans le contexte d'OpenAI. Qu'est-ce que ce nouveau partenariat ? Ce nouveau partenariat consiste à s'associer à OpenAI pour construire leur propre infrastructure d'IA pour la première fois. Il s'agit pour nous de travailler directement avec OpenAI au niveau de la puce, du logiciel, du système et de l'usine d'IA pour les aider à devenir une entreprise hyperscale pleinement opérationnelle. Cela va durer un certain temps. Cela va compléter la quantité de, ils traversent deux exponentielles. La première exponentielle est le nombre de clients qui croît de manière exponentielle. La raison en est que l'IA s'améliore, les cas d'utilisation s'améliorent, et presque chaque application est connectée à OpenAI maintenant. Ils traversent l'exponentielle de l'utilisation. La seconde exponentielle est l'exponentielle computationnelle de chaque utilisation. Au lieu d'une simple inférence immédiate, il y a maintenant une réflexion avant de répondre. Ces deux exponentielles multiplient leurs besoins en calcul, nous devons donc déployer tous ces différents projets. Ce dernier projet s'ajoute à tout ce qu'ils ont déjà annoncé, à tout ce sur quoi nous travaillons déjà avec eux. C'est un ajout supplémentaire et cela soutiendra cette croissance exponentielle incroyable.
L'une des choses que vous avez dites et qui m'intéresse beaucoup, c'est qu'ils seront selon vous avec une forte probabilité une entreprise de plusieurs billions de dollars, et vous pensez que c'est un excellent investissement. En même temps, ils construisent eux-mêmes. Vous les aidez à construire leurs propres centres de données. Jusquici, ils sous-traitaient à Microsoft pour construire le centre de données. Maintenant, ils veulent construire eux-mêmes des usines complètes.
Ils veulent fondamentalement avoir une relation avec nous de la même manière qu'Elon et X.
Correct. Je veux dire, Elon et X construisent eux-mêmes.
Exactement. Mais je pense que c'est aussi...
C'est un accord très important. Quand on pense à l'avantage qu'avait Colossus, ils construisent en mode complet. C'est un hyperscale car s'ils n'utilisent pas la capacité, ils peuvent la vendre à quelqu'un d'autre. De la même manière avec Stargate, ils construisent une capacité monstrueuse, ils pensent qu'ils devront en utiliser la majeure partie, mais cela les met en position de la vendre également à quelqu'un d'autre. Cela ressemble beaucoup à AWS, GCP ou Azure. C'est ce que vous dites.
Oui. Je pense qu'ils l'utiliseront probablement eux-mêmes et, dans le cas de X, ils l'utiliseront probablement eux-mêmes. Mais ils aimeraient avoir la même relation directe avec nous, une relation de travail directe et une relation d'achat directe. Notre relation avec Meta et Zuck est directe. Notre relation avec Sundar et Google est directe. Notre partenariat avec Satya Nadella est direct. Ils ont atteint une échelle suffisante pour estimer qu'il est temps pour eux de commencer à établir ces relations directes. Je suis ravi de soutenir cela. Satya le sait, Larry le sait, et tout le monde est au courant de ce qui se passe et y est très favorable.
Market Growth & The End of General Purpose Computing
L'une des choses que je trouve mystérieuse, c'est que vous venez de mentionner Oracle à 300 milliards, Colossus ce qu'ils construisent, nous savons ce que les souverains construisent, et we savons ce que les hyperscales construisent. Sam parle en termes de billions. Mais parmi les 25 analystes financiers de Wall Street qui suivent votre action, l'estimation consensuelle prévoit essentiellement que votre croissance stagnera à partir de 2027 avec une croissance de 8 % de 2027 à 2030. Ce sont 25 personnes dont le seul travail est de prévoir le taux de croissance de NVIDIA. Clairement...
Cela nous convient. Nous n'avons aucun mal à dépasser les prévisions régulièrement.
C'est vrai. Je comprends cela, mais il y a ce décalage intéressant. Je l'entends tous les jours sur CNBC et Bloomberg. Je pense que cela touche aux questions de pénuries menant à un surplus auquel ils ne croient pas. Ils disent : "D'accord, on vous accorde 2026, mais en 2027, on en aura peut-être trop et vous n'en aurez plus besoin." Il est intéressant pour moi, et je pense qu'il est important de le souligner, que votre prévision consensuelle soit que cela n'arrivera pas. Nous avons également élaboré une prévision pour l'entreprise en tenant compte de tous ces chiffres. Ce qu'elle me montre, c'est qu'encore aujourd'hui, bien que nous soyons à deux ans et demi de l'ère de l'IA, il y a une divergence massive de convictions entre ce que disent Sam Altman, vous, Sundar, Satya, et ce que Wall Street croit encore. Encore une fois, cela vous convient.
Je ne pense pas non plus que ce soit incohérent.
D'accord, expliquez-nous cela un peu.
Tout d'abord, pour les constructeurs, nous sommes censés construire pour l'opportunité. Laissez-moi vous donner trois points de réflexion. Ces trois points vous aideront, je l'espère, à être plus à l'aise avec NVIDIA dans cet avenir. Le premier point, et c'est le point des lois de la physique, le plus important, est que l'informatique à usage général est terminée et que l'avenir appartient à l'informatique accélérée et à l'informatique par IA. La façon de voir les choses est qu'il y a des billions de dollars d'infrastructures informatiques dans le monde qui doivent être renouvelées. Lorsqu'elles seront renouvelées, ce sera pour l'informatique accélérée.
C'est vrai. C'est vrai.
C'est exact. La première chose que vous devez réaliser est que personne ne conteste le fait que l'informatique à usage général soit terminée. Tout le monde est d'accord. Les gens disent : "La loi de Moore est morte". Alors, qu'est-ce que cela signifie ? L'informatique à usage général passe à l'informatique accélérée. Notre partenariat avec Intel reconnaît que l'informatique à usage général doit être fusionnée avec l'informatique accélérée pour leur créer des opportunités. Premièrement, l'informatique à usage général bascule vers l'informatique accélérée et l'IA. Deuxièmement, le premier cas d'utilisation de l'IA est en fait déjà partout. C'est dans la recherche, les moteurs de recommandation et le shopping. L'infrastructure informatique hyperscale de base qui utilisait des CPU pour les recommandations passe maintenant aux GPU faisant de l'IA. Prenez l'informatique classique, elle passe à l'informatique accélérée et à l'IA. Prenez l'informatique hyperscale, elle passe des CPU à l'informatique accélérée et à l'IA. C'est le deuxième point. Le simple fait d'alimenter Meta, Google, ByteDance et Amazon et de faire passer leur mode traditionnel d'hyperscaling à l'IA représente des centaines de milliards de dollars. Il y a quatre milliards de personnes sur la planète aujourd'hui, si l'on tient compte de TikTok, Meta et Google, qui exigent déjà des charges de travail pilotées par l'informatique accélérée.
The Future of GDP & AI Agents
C'est tout à fait exact.
Il y a donc une façon simple de voir les choses sans même penser à l'IA créant de nouvelles opportunités. Il s'agit de l'IA qui change la façon dont vous faisiez quelque chose vers une nouvelle méthode. Parlons maintenant de l'avenir. Jusqu'à présent, je n'ai parlé que de choses banales. L'ancienne méthode est désormais erronée. Vous n'allez plus utiliser de lanternes à pétrole, vous allez passer à l'électricité. Vous n'utilisez plus d'avions à hélice, vous utilisez des jets. C'est tout ce dont j'ai parlé. La chose incroyable est que lorsque vous passez à l'IA et à l'informatique accélérée, quelles nouvelles applications en découlent ? C'est tout ce qui concerne l'IA dont nous parlons. À quoi ressemble cette opportunité ? La façon simple d'y penser est que là où les moteurs ont remplacé le travail manuel et l'activité physique, nous avons maintenant l'IA. Ces usines d'IA dont je parle vont générer des jetons pour augmenter l'intelligence humaine. L'intelligence humaine représente 55 à 65 % du PIB mondial. Appelons cela 50 billions de dollars. Ces 50 billions de dollars vont être augmentés par quelque chose. Revenons à une seule personne. Supposons que j'embauche un employé à cent mille dollars et que j'augmente cet employé avec une IA à dix mille dollars, et que cette IA rende cet employé deux ou trois fois plus productif. Le ferais-je ? En un clin d'œil. Je le fais pour chaque personne de notre entreprise en ce moment même.
Ils ont tous des co-agents, des collègues.
C'est exact. Chaque ingénieur logiciel et chaque concepteur de puces de notre entreprise a déjà des IA qui travaillent avec lui. Nous avons une couverture de 100 %. En conséquence, les puces que nous construisons sont meilleures, le volume augmente et le rythme est le bon. Nous croissons plus vite en tant qu'entreprise, nous embauchons plus de personnes, notre productivité est plus grande et notre rentabilité est plus élevée. Qu'est-ce qu'on ne pourrait pas aimer ? Appliquez maintenant l'histoire de NVIDIA au PIB mondial. Ce qui va probablement arriver, c'est que ces 50 billions de dollars seront augmentés par, disons, 10 billions de dollars. Ces 10 billions de dollars doivent fonctionner sur une machine. L'IA est différente de l'informatique du passé où le logiciel était écrit puis fonctionnait sur un CPU. À l'avenir, l'IA génère des jetons et réfléchit. Ce logiciel fonctionne tout le temps. Autrefois, le logiciel était écrit une seule fois. Maintenant, le logiciel écrit tout le temps. Pour que l'IA réfléchisse, elle a besoin d'une usine. Disons que ces 10 billions de dollars de génération de jetons ont une marge brute de 50 %, et que 5 billions nécessitent une infrastructure d'usine d'IA. Si vous me disiez que le CapEx annuel du monde était d'environ 5 billions de dollars, je dirais que le calcul semble logique. C'est cela l'avenir : le passage de l'informatique à usage général à l'informatique accélérée, le remplacement de tous les hyperscales par l'IA, et l'augmentation de l'intelligence humaine pour le PIB mondial.
Aujourd'hui, ce marché est d'environ 400 milliards par an. Notre estimation pour le TAM est une multiplication par 4 ou 5 par rapport à ce qu'il est aujourd'hui.
Eddie Wu d'Alibaba a déclaré que d'ici la fin de la décennie, ils allaient multiplier par 10 la puissance de leurs centres de données.
C'est vrai.
Vous venez de dire combien ?
4 fois.
Et voilà. Ils vont multiplier la puissance par 10 et nous sommes corrélés à la puissance. Le chiffre d'affaires de NVIDIA est presque corrélé à la puissance car la loi de Moore... Autre chose qu'il a dite, c'est que la génération de jetons double tous les quelques mois.
Oui.
La performance par watt doit continuer à augmenter de façon exponentielle. C'est pourquoi NVIDIA met le paquet sur la performance par watt. La performance par watt, c'est essentiellement le chiffre d'affaires dans cet avenir.
Dans cette hypothèse se cache un contexte historique fascinant. Pendant 2000 ans, le PIB n'a pas augmenté. Puis nous avons eu la révolution industrielle et le PIB a accéléré. Nous avons eu la révolution numérique et le PIB a accéléré. Scott Bessent a déclaré : "Je pense que nous aurons une croissance du PIB de 4 % l'année prochaine." Fondamentalement, vous dites que la croissance du PIB mondial va s'accélérer parce que nous donnons au monde des milliards de collègues. Si le PIB est une quantité de production pour une quantité fixe de travail et de capital, il doit s'accélérer.
C'est une obligation. Regardez ce qui se passe avec l'IA. La technologie des grands modèles de langage et des agents d'IA crée une nouvelle industrie d'agents d'IA. OpenAI est l'entreprise qui connaît la croissance de revenus la plus rapide de l'histoire, et elle croît de manière exponentielle. L'IA est une industrie à croissance rapide, et comme l'IA a besoin d'une usine et d'une infrastructure derrière elle, cette industrie se développe. Mon industrie se développe, et l'industrie en amont, comme l'énergie, se développe également. C'est une renaissance pour l'industrie de l'énergie, du nucléaire aux turbines à gaz. Toutes les entreprises de l'écosystème d'infrastructure en amont se portent incroyablement bien. Tout le monde est en croissance.
Supply Chain & Demand Dynamics
Ces chiffres font parler tout le monde de surplus ou de bulle. Zuckerberg a déclaré la semaine dernière qu'il est tout à fait possible qu'à un moment donné, nous ayons un passage à vide et que Meta dépense trop de 10 milliards de dollars, mais c'est tellement existentiel pour l'avenir de son entreprise que c'est un risque qu'ils doivent prendre. Cela ressemble un peu au dilemme du prisonnier. À ce jour, nous estimons que nous aurons 100 milliards de revenus liés à l'IA en 2026, sans compter Meta et les GPU faisant tourner les moteurs de recommandation. Appelons cela 100 milliards. Qu'est-ce que cette industrie déjà en mode hyperscale ? Cette industrie passe à l'IA. Avant que quiconque ne commence à zéro, il faut commencer par là.
Les sceptiques diraient que nous devons passer de 100 milliards de revenus IA en 2026 à au moins un billion en 2030. Vous venez de mentionner 5 billions en termes de PIB mondial. Si vous faisiez une analyse ascendante, voyez-vous comment atteindre un billion de dollars de revenus générés par l'IA au cours des cinq prochaines années ? Sommes-nous en train de croître si vite ?
Oui, et je dirais que nous y sommes déjà.
D'accord, expliquez cela.
Parce que les hyperscales sont passés des CPU à l'IA. Toute leur base de revenus est désormais pilotée par l'IA. On ne peut pas faire de TikTok ou de YouTube Shorts sans IA. Le contenu personnalisé et sur mesure que fait Meta nécessite l'IA. Tout cela, c'était autrefois des humains créant quelques choix pour un moteur de recommandation. Maintenant, c'est un nombre infini de choix générés par une IA.
Mais nous avons déjà eu la transition des CPU vers les GPU, en grande partie pour ces moteurs de recommandation. Maintenant, ils passent...
C'est assez nouveau, au cours des trois ou quatre dernières années. Zuckerberg vous dirait qu'ils ont été en retard pour passer aux GPU.
Bien sûr. Bien sûr.
Les GPU pour Meta n'ont que quelques années. La recherche avec des GPU est toute nouvelle.
Votre argument est donc qu'un billion de dollars de revenus liés à l'IA d'ici 2030 est presque certain parce que nous y sommes déjà presque.
Nous y sommes déjà. D'accord.
Parlons simplement de l'incrémental à partir d'où nous en sommes.
L'incrémental à partir d'où nous sommes. Maintenant, nous pouvons en parler.
C'est vrai. En faisant votre analyse ascendante ou descendante — je viens d'entendre votre analyse descendante sur le PIB mondial — quelle est la probabilité que nous rencontrions un surplus dans les prochaines années ? C'est une distribution de probabilités.
Tant que nous n'aurons pas entièrement converti toute l'informatique à usage général en informatique accélérée et en IA, je pense que les chances sont extrêmement faibles.
D'accord. Et cela prendra quelques années.
Cela prendra quelques années. Jusqu'à ce que tous les moteurs de recommandation et la génération de contenu soient basés sur l'IA. La génération de contenu orienté vers le consommateur repose largement sur des systèmes de recommandation, et tout cela sera généré par l'IA. Ce qui était traditionnellement l'hyperscale — du shopping au commerce électronique — passera à l'IA.
Addressing Market Skepticism & Round-Tripping
Toute cette nouvelle construction représente un investissement anticipé par rapport à notre situation actuelle. Est-ce volontaire ? Êtes-vous obligé d'investir même si vous voyez un ralentissement ? Ou bien vous agitez simplement le drapeau pour inciter l'écosystème à construire, tout en sachant que vous pouvez reculer si vous voyez un ralentissement ?
En fait, c'est l'inverse parce que nous sommes au bout de la chaîne d'approvisionnement. Nous répondons à la demande. En ce moment, tous les investisseurs en capital-risque vous diront qu'il y a une pénurie de calcul dans le monde. Ce n'est pas parce qu'il y a une pénurie de GPU ; s'ils me passent une commande, je la construirai. Au cours des deux dernières années, nous avons consolidé la chaîne d'approvisionnement, des tranches de silicium (wafers) aux mémoires CoWoS et HBM. Nous nous sommes préparés. S'il faut doubler, nous doublerons. La chaîne d'approvisionnement est prête ; nous attendons simplement les signaux de la demande. Lorsque les CSP, les hyperscales et les clients font leur plan annuel et nous donnent leurs prévisions, nous y répondons et construisons en conséquence. Chaque prévision qu'ils fournissent s'avère erronée parce qu'ils ont sous-estimé. Nous sommes en mode d'urgence depuis quelques années. Quelle que soit la prévision que l'on nous donne, c'est toujours une augmentation significative par rapport à l'année précédente, mais ce n'est pas suffisant.
Satya Nadella semblait reculer un peu l'année dernière, certains l'appelant l'adulte de la pièce tempérant les attentes. Il y a quelques semaines, il a déclaré qu'ils avaient construit deux gigawatts cette année et qu'ils accéléreraient à l'avenir. Il me semble que même les hyperscales traditionnels, qui ont pu bouger moins vite que CoreWeave ou xAI d'Elon, sont maintenant en train de s'engager et d'accélérer.
C'est à cause de la seconde exponentielle. La première était la croissance exponentielle de l'adoption et de l'engagement de l'IA. La seconde exponentielle qui s'est manifestée est le raisonnement. C'était l'objet de notre conversation d'il y a un an. Dès que vous faites passer l'IA de la mémorisation immédiate — qui est le pré-entraînement — au raisonnement, elle utilise plus de calcul. Mémoriser combien font 8 fois 8 et généraliser, c'était l'IA en une étape. Maintenant que le raisonnement, la recherche et l'utilisation d'outils sont arrivés, nous avons une IA pensante qui nécessite beaucoup plus de calcul.
Certains clients hyperscales avaient des charges de travail internes à migrer de l'informatique à usage général vers l'informatique accélérée, ils ont donc construit pendant tout le cycle. D'autres hyperscales ont pu avoir des charges de travail différentes et n'étaient pas sûrs de la rapidité avec laquelle ils pourraient les absorber, mais tout le monde a maintenant conclu qu'ils ont considérablement sous-construit.
L'une de mes applications préférées est le traitement des données — données structurées et non structurées. Très bientôt, nous allons annoncer une initiative majeure dans le traitement accéléré des données. Le traitement des données représente aujourd'hui la vaste majorité des CPU au monde. Databricks, Snowflake et le traitement SQL chez Oracle fonctionnent principalement sur des CPU. À l'avenir, tout cela passera aux données IA. C'est un marché massif. Tout ce que fait NVIDIA nécessite des couches d'accélération et des recettes de traitement de données spécifiques au domaine. Nous devons construire cela, mais ça arrive.
Sur CNBC hier, on parlait de surplus ou de bulle. Sur Bloomberg, il était question de "round-tripping" et de revenus circulaires. Pour le bénéfice des gens chez eux, il s'agit d'accords où les entreprises concluent une transaction trompeuse qui gonfle artificiellement le chiffre d'affaires sans substance économique sous-jacente. En d'autres termes, une croissance soutenue par l'ingénierie financière plutôt que par la demande des clients. Le cas canonique auquel tout le monde se réfère est celui de Cisco et Nortel il y a 25 ans. Lorsque des entreprises comme NVIDIA, Microsoft ou Amazon investissent dans des sociétés qui sont également de gros clients — comme investir dans OpenAI alors qu'OpenAI achète des dizaines de milliards de puces — qu'est-ce que les analystes ne comprennent pas concernant les revenus circulaires ou le "round-tripping" ?
10 gigawatts, c'est environ 400 milliards de dollars. Ces 400 milliards devront être largement financés par leurs contrats d'achat et leurs revenus, qui croissent de manière exponentielle. Cela doit être financé par leur capital et leur dette. Les investisseurs et prêteurs avisés examineront la confiance dans les revenus qu'ils peuvent maintenir. C'est leur affaire, pas la mienne. Nous restons proches d'eux pour soutenir leur croissance. L'aspect chiffre d'affaires n'a rien à voir avec l'aspect investissement. L'investissement est une opportunité d'investir dans ce qui sera probablement la prochaine entreprise hyperscale de plusieurs billions de dollars. Mon seul regret est qu'ils nous aient invités à investir tôt et que nous n'ayons pas investi assez. La réalité est que si NVIDIA ne livre pas de bonnes puces, ils peuvent en utiliser d'autres ; il n'y a aucune obligation d'utiliser nos puces. Nous voyons cela comme un investissement en actions opportuniste.
Nous avons fait d'excellents investissements. Nous avons investi dans xAI et CoreWeave. C'était plutôt intelligent, non ?
La substance économique sous-jacente est ici claire ; il ne s'agit pas seulement d'échanger des revenus. Les gens paient chaque mois pour ChatGPT, qui compte un milliard et demi d'utilisateurs mensuels. Chaque entreprise dans le monde fera cela ou disparaîtra. Chaque souverain voit cela comme existentiel pour sa sécurité nationale et économique. Aucune personne, entreprise ou nation ne pense que l'intelligence est facultative. C'est fondamental ; c'est l'automatisation de l'intelligence.
System Design & The Annual Release Cycle
J'ai épuisé la question de la demande. Passons à la conception des systèmes. En 2024, vous êtes passé à un cycle de sortie annuel avec Hopper. Vous avez ensuite eu une mise à niveau massive qui a nécessité une refonte importante des centres de données avec Grace Blackwell en 2025. Dans la seconde moitié de 2026, nous aurons Vera Rubin, en 2027 nous aurons Ultra, et en 2028 nous aurons Feynman. Comment se passe le cycle de sortie annuel ? Quels étaient les objectifs principaux, et l'utilisation de l'IA au sein de NVIDIA vous a-t-elle permis d'exécuter cela ?
La réponse est oui. Sans l'IA, la vélocité et l'échelle de NVIDIA seraient limitées. Il n'est tout simplement pas possible de construire ce que nous construisons sans l'IA. Pourquoi le faisons-nous ? Comme l'ont dit Eddie Wu, Satya Nadella et Sam Altman, le taux de génération de jetons et l'utilisation par les clients croissent de manière exponentielle. Ils ont 800 millions d'utilisateurs actifs hebdomadaires moins de deux ans après ChatGPT. Chaque utilisateur génère plus de jetons à cause du raisonnement au moment de l'inférence. Puisque le taux de génération de jetons croît avec deux exponentielles combinées, nous devons augmenter les performances à des rythmes incroyables, sinon le coût continuera de croître parce que la loi de Moore est morte. Les coûts des transistors et de l'énergie sont largement stables. À moins de réduire les coûts grâce à de nouvelles technologies, une remise de quelques pour cent ne compensera pas ces exponentielles. Nous devons augmenter les performances chaque année pour suivre le rythme. Passer de Kepler à Hopper a représenté une multiplication par 100 000 en 10 ans. Entre Hopper et Blackwell, nous avons multiplié par 30 en un an grâce à NVLink 72. Nous verrons d'autres facteurs multiplicateurs avec Rubin et Feynman. Les transistors n'aident plus beaucoup car si la densité augmente, les performances n'augmentent pas. Nous devons décomposer le problème au niveau du système et changer chaque puce, la pile logicielle et tous les systèmes en même temps. C'est le co-design extrême ultime. Nous révolutionnons le CPU, le GPU, le réseau, et l'extension NVLink ainsi que l'extension Spectrum-X. Spectrum-X n'est pas seulement de l'Ethernet, et sa croissance est la plus rapide au monde. Nous construisons des systèmes encore plus grands qui s'étendent sur plusieurs usines d'IA connectées à un rythme annuel. Cette croissance exponentielle de notre technologie permet aux clients de réduire le coût des jetons et de les rendre plus intelligents. Quand l'IA devient plus intelligente, elle est plus utilisée, ce qui mène à une croissance exponentielle.
Qu'est-ce que le co-design extrême ?
Le co-design extrême signifie optimiser le modèle, l'algorithme, le système et la puce en même temps. Il faut innover hors des sentiers battus. La loi de Moore consistait à rendre le CPU plus rapide à l'intérieur d'un boîtier, mais si la puce ne devient plus rapide, il faut innover ailleurs. NVIDIA a changé la donne en inventant CUDA et les GPU et en appliquant le co-design à grande échelle. Le co-design extrême sur toute la pile va au-delà du logiciel et des GPU pour atteindre le niveau du centre de données, incluant les commutateurs, le réseau et les NIC. L'optimisation à travers tout cela a rendu Blackwell 30 fois plus rapide que Hopper, ce que la loi de Moore ne pouvait accomplir. C'est pourquoi nous nous sommes lancés dans le réseau, la commutation, et la construction de nos propres CPU et NIC. NVIDIA est incroyablement riche en logiciels, contribuant davantage à l'open source que presque n'importe qui. Cette richesse logicielle, de l'IA à la biologie numérique et aux véhicules autonomes, nous permet de réaliser un co-design extrême et profond.
L'un de vos concurrents a déclaré que votre cycle de sortie annuel rendait presque impossible pour eux de suivre. La chaîne d'approvisionnement se verrouille parce que vous offrez une visibilité sur trois ans, leur donnant la confiance nécessaire pour construire pour vous.
Pour réaliser plusieurs centaines de milliards de dollars par an en construction d'infrastructures d'IA, imaginez de quelle capacité nous avons dû disposer il y a un an. Nous parlons de centaines de milliards en lancements de tranches de silicium et en achats de DRAM. C'est à une échelle que presque aucune entreprise ne peut suivre.
Diriez-vous donc que votre avantage concurrentiel est plus grand aujourd'hui qu'il y a trois ans ?
Il y a plus de concurrence que jamais, mais c'est aussi plus difficile que jamais auparavant.
Mhm.
Les coûts des wafers augmentent, ce qui signifie que sans un co-design extrême, on ne peut pas offrir une croissance avec un tel facteur multiplicateur.
Mhm.
À moins de travailler sur six, sept ou huit puces par an...
C'est vrai, c'est vrai.
Il ne s'agit pas de construire un ASIC ; il s'agit de construire une usine d'IA.
Un système.
Ce système comporte de nombreuses puces qui sont toutes co-conçues pour fournir ce facteur de 10 que nous obtenons régulièrement.
Ouais.
Ouais.
Premièrement, le co-design est extrême. Deuxièmement, l'échelle est extrême.
Mhm.
Quand vos clients déploient un gigawatt, cela représente 400 000 à 500 000 GPU.
C'est vrai.
Faire fonctionner 500 000 GPU ensemble est un miracle.
Vos clients prennent un risque énorme. Quel client placerait un bon de commande de 50 milliards de dollars sur une architecture ?
C'est vrai.
C'est vrai.
Sur une architecture non prouvée.
C'est exact. Une nouvelle architecture.
C'est ça, une nouvelle architecture.
Vous venez de finaliser une nouvelle puce et d'en montrer le premier silicium. Qui va vous donner un bon de commande de 50 milliards de dollars ?
C'est vrai.
C'est vrai.
Pourquoi lanceriez-vous 50 milliards de dollars de wafers pour une puce qui vient juste d'être finalisée ?
Totalement.
Pour NVIDIA, nous pouvons le faire parce que notre architecture est tellement éprouvée. L'échelle de nos clients et de notre chaîne d'approvisionnement est incroyable.
C'est vrai.
Qui va tout pré-construire sans savoir que NVIDIA peut livrer ?
100 %.
Ils croient que nous pouvons livrer aux clients du monde entier, ils sont donc prêts à lancer plusieurs centaines de milliards à la fois. L'échelle est incroyable.
ASICs vs. GPUs & The AI Factory
Mhm.
Sur ce point, l'un des plus grands débats mondiaux est la question des GPU par rapport aux ASIC.
Mhm.
Les TPU de Google, Trainium d'Amazon, et il semble que tout le monde, d'Arm à OpenAI et Anthropic, soit pressenti pour en construire un.
L'année dernière, vous disiez que nous construisons des systèmes, pas des puces, et que nous tirons la performance de toute la pile. Vous disiez aussi que beaucoup de ces projets pourraient ne jamais atteindre l'échelle de production.
La plupart d'entre eux.
Mhm, la plupart.
Compte tenu du succès des TPU de Google, comment voyez-vous l'évolution de ce paysage ?
Ouais.
Ouais.
L'avantage de Google a été la prévoyance ; ils ont commencé le TPU v1 avant que tout ne commence.
Mhm.
Ce n'est pas différent d'une startup. On est censé créer une startup avant que le marché ne croisse.
Mhm.
On ne lance pas une startup quand le marché pèse déjà un billion de dollars. Les investisseurs savent que l'idée fallacieuse selon laquelle on peut devenir une entreprise géante en prenant quelques pour cent d'un grand marché est fondamentalement erronée.
C'est vrai.
Ouais.
Ouais.
On est censé prendre 100 % d'une industrie minuscule, ce qu'ont fait NVIDIA et les TPU. Nous n'étions que deux.
Mais il vaut mieux espérer que cette industrie devienne vraiment grande. Vous créez une industrie.
C'est exact.
C'est ça.
C'est ça. Et je veux dire l'histoire de Nvidia, vous savez, qui est...
C'est ça. Et je veux dire l'histoire de Nvidia, vous savez, qui est...
C'est le défi pour ceux qui construisent des ASIC maintenant. Cela ressemble à un marché juteux, mais il est passé d'une puce appelée GPU à une usine d'IA.
J'ai vient d'annoncer une puce appelée CPX pour le traitement du contexte et la génération de vidéos par diffusion, qui est une charge de travail spécialisée mais importante dans un centre de données.
J'ai fait allusion à des processeurs de données IA parce qu'on a besoin de mémoire à long et court terme, et le traitement du cache KV est intense.
La mémoire IA est un enjeu majeur. On veut que son IA ait une bonne mémoire, et gérer tout le cache KV dans le système est complexe. Peut-être qu'il faut un processeur spécialisé ou d'autres choses.
Le point de vue de NVIDIA n'est plus seulement le GPU. Nous regardons toute l'infrastructure d'IA et ce qu'il faut aux entreprises pour gérer leurs charges de travail diverses et changeantes.
L'architecture des transformateurs change incroyablement. Sans CUDA pour itérer facilement, comment pourraient-ils tester le grand nombre d'expériences nécessaires pour décider des versions de transformateurs ou des algorithmes d'attention ?
CUDA aide à désagréger parce qu'il est très programmable. Quand les projets ASIC ont commencé il y a trois ou cinq ans, cette industrie était simple.
Il y avait un GPU impliqué.
C'est vrai.
Maintenant, c'est géant et complexe, et dans deux ans ce sera massif. La bataille pour un nouvel acteur entrant sur un grand marché est rude.
Même pour les clients qui réussissent avec des ASIC, n'y a-t-il pas un équilibre optimal dans leur flotte de calcul ?
C'est, vous savez, je pense que les investisseurs sont des créatures très binaires, ils veulent juste un oui ou non, une réponse en noir et blanc.
Ouais.
Même si on fait fonctionner un ASIC, n'y a-t-il pas un équilibre optimal ? Si j'achète la plateforme NVIDIA, CPX arrive pour le pré-remplissage pour la génération vidéo, ou une plateforme de décodage...
Ouais.
Un transcodeur vidéo.
Exactement.
Ouais.
Il y aura de nombreuses puces ou composants différents à ajouter à la flotte de calcul accéléré de l'écosystème NVIDIA au fur et à mesure que de nouvelles charges de travail naissent. Ceux qui tentent de finaliser de nouvelles puces aujourd'hui n'anticipent pas ce qui se passera dans un an ; ils essaient juste de faire fonctionner une puce.
C'est exact.
C'est exact.
Google est un gros client GPU et un cas très spécial. Il faut respecter ce qui doit l'être. Le TPU en est à la version sept, et c'est un défi pour eux parce que le travail qu'ils font est incroyablement difficile.
Oui.
D'abord, rappelez-vous qu'il y a trois catégories de puces.
Il y a les puces architecturales comme les CPU x86, les CPU Arm et les GPU NVIDIA. Elles ont un écosystème au-dessus d'elles, et l'architecture fournit une IP riche et une pile technologique complexe. Elles sont construites par des propriétaires comme nous.
Mhm.
Ensuite, il y a les ASIC. J'ai travaillé pour LSI Logic, l'entreprise qui a inventé le concept. LSI Logic a disparu car les ASIC sont fantastiques quand la taille du marché n'est pas très grande.
Il est facile d'avoir un sous-traitant pour gérer l'assemblage et la fabrication pour vous, mais ils facturent 50 à 60 points de marge.
Quand le marché devient grand pour un ASIC, il y a une nouvelle voie appelée COT (customer-owned tooling). Apple le fait pour les puces de smartphones car le volume est si grand qu'ils ne paieraient pas à quelqu'un d'autre une marge brute de 50 ou 60 %.
Mhm.
Où iront les TPU quand ils deviendront un gros business ? Vers le COT. Il y a une place pour les ASIC, mais les transcodeurs vidéo et les SmartNIC ne seront jamais aussi importants.
Mhm.
Je ne suis pas surpris quand une entreprise d'ASIC a 10 ou 15 projets en cours ; il s'agit probablement de cinq SmartNIC et quatre transcodeurs. Ce ne sont pas toutes des puces IA.
C'est vrai, c'est vrai.
Si quelqu'un construisait un ASIC comme processeur d'intégration pour un système de recommandation spécifique, il pourrait le faire, mais le feriez-vous pour un moteur de calcul IA fondamental qui change constamment ?
Vous avez des charges de travail de faible latence, à haut débit, de génération de jetons de chat, de réflexion et de génération vidéo par IA. On parle maintenant d'un ensemble très diversifié.
C'est le pilier central de votre plateforme de calcul accéléré.
C'est tout ce qu'est NVIDIA.
Pour simplifier, c'est comme les échecs contre les dames. Ceux qui lancent des ASIC aujourd'hui, que ce soit Trainium ou d'autres accélérateurs d'inférence, construisent une puce qui n'est qu'un composant d'une machine beaucoup plus grande.
Ouais.
Vous avez construit un système sophistiqué et vous l'ouvrez maintenant. En mentionnant le GPU CPX, il semble que vous désagrégiez les charges de travail vers la meilleure tranche de matériel pour cette demande.
Nous avons annoncé Dynamo — l'orchestration désagrégée des charges de travail IA — et nous l'avons mis en open-source parce que la future usine d'IA est désagrégée.
C'est vrai.
C'est vrai.
Vous avez lancé NVLink Fusion qui indique aux concurrents, y compris Intel, comment participer à cette usine que nous construisons, car personne d'autre n'est assez fou pour tenter de construire l'usine entière.
Ouais.
Ouais.
C'est exact.
Mais on peut s'y brancher si on a un produit assez convaincant pour que l'utilisateur final veuille l'utiliser à la place d'un GPU Arm ou de notre accélérateur d'inférence. Est-ce exact ?
Nous serions ravis de vous connecter.
NVLink Fusion est une excellente idée, et nous sommes heureux de nous associer à Intel pour cela. La plupart des entreprises mondiales tournent encore sur Intel, nous avons donc fusionné cet écosystème avec celui de l'IA de NVIDIA et l'unité de calcul accéléré.
NVLink Fusion.
C'est vrai.
Nous l'avons fait avec Arm, et we le ferons avec plusieurs autres. Cela ouvre des opportunités et c'est une victoire pour nous deux.
Je serai un gros client pour eux, et ils vont nous exposer à une opportunité de marché bien plus vaste.
Ceci est profondément lié à l'argument que vous avez avancé et qui choque certains : les concurrents qui construisent des ASIC pourraient les proposer à un prix nul.
Notre objectif est de montrer qu'ils pourraient les proposer gratuitement et que vous achèteriez quand même un système NVIDIA parce que le coût total d'exploitation — énergie, centre de données, terrain et production d'intelligence — est un meilleur pari que l'achat d'une puce gratuite.
Parce que le terrain, l'énergie et les infrastructures coûtent déjà 15 milliards de dollars.
C'est vrai.
Nous avons tenté de faire le calcul, mais expliquez-nous le vôtre. Pour les gens qui n'y passent pas beaucoup de temps, cela ne semble pas logique. Comment les puces de vos concurrents pourraient-elles être gratuites et vos puces rester un meilleur choix ?
Une façon de voir les choses est du point de vue des revenus. Tout le monde est limité par l'énergie. Supposons que vous obteniez deux gigawatts de puissance supplémentaires.
Oui.
Mhm.
Vous voudriez que ces deux gigawatts se traduisent en revenus.
Oui.
Si ma performance ou mes jetons par watt sont deux fois plus élevés grâce à un co-design profond et extrême, mon client peut produire deux fois plus de revenus à partir de son centre de données.
C'est exactement ça.
Qui ne voudrait pas deux fois plus de revenus ? Si quelqu'un leur offrait une remise de 15 %...
Mhm.
La différence entre nos 75 points de marge brute et les 50 à 65 points d'un autre n'est pas suffisante pour compenser la différence de facteur 30 entre Blackwell et Hopper.
Si nous prétendons que l'ASIC de quelqu'un d'autre est un Hopper — une puce incroyable — Blackwell est 30 fois meilleur. Vous devriez renoncer à 30 fois plus de revenus dans ce gigawatt, ce qui est trop.
Ouais.
Même s'ils vous le donnaient gratuitement, vous n'avez que deux gigawatts. Le coût d'opportunité est si élevé que vous choisiriez toujours la meilleure performance par watt.
Competitive Advantage & The $10 Trillion Opportunity
C'est vrai.
J'ai entendu d'un directeur financier d'hyperscale que compte tenu des améliorations de performance de vos puces — jetons par giga — et l'énergie étant le facteur limitant, ils devaient passer au nouveau cycle.
Est-ce que cette trajectoire se poursuit pour Rubin, Rubin Ultra et Feynman ?
Nous construisons six ou sept puces par an maintenant.
C'est ça. Le logiciel est partout, et il faut une optimisation à travers ces sept puces pour livrer l'amélioration de facteur 30 dans Blackwell.
Imaginez faire cela chaque année. Si vous construisez un seul ASIC dans cette soupe de puces où nous optimisons tout, c'est un problème difficile à résoudre.
Cela me ramène à l'avantage concurrentiel. Nos investisseurs et nous-mêmes sommes dans cet écosystème depuis un moment, investissant dans vos concurrents comme Google et Broadcom.
D'un point de vue des principes fondamentaux, augmentez-vous ou diminuez-vous votre avantage concurrentiel ? Vous êtes passés à un rythme annuel et au co-développement avec la chaîne d'approvisionnement. L'échelle est plus grande qu'anticipé, ce qui nécessite un bilan financier massif et du développement.
Les décisions que vous avez prises organiquement et par acquisition — comme NVLink Fusion et CPX — me portent à croire que votre avantage concurrentiel s'accroît en ce qui concerne la construction du système d'usine.
C'est surprenant.
Il est intéressant que votre multiple soit inférieur à d'autres. Une partie de cela est due à la loi des grands nombres ; les gens pensent qu'une entreprise de quatre billions et demi ne pourrait pas croître davantage.
Si les charges de travail IA vont être multipliées par 10, y a-t-il un monde concevable où votre chiffre d'affaires dans cinq ans ne sera pas deux ou trois fois plus grand qu'en 2025 ?
Quelle est la probabilité qu'il ne soit pas beaucoup plus élevé qu'aujourd'hui compte tenu de ces avantages ?
Je répondrai de cette façon : notre opportunité est bien plus grande que le consensus.
Je pense que NVIDIA sera la première entreprise de 10 billions de dollars. Il y a dix ans, on disait qu'il n'y aurait jamais d'entreprise à un billion, et maintenant nous en avons dix.
Le monde est plus grand.
C'est vrai, et le monde est plus grand à cause des exponentielles autour du PIB. Les gens nous comprennent mal ; ils se souviennent de nous comme d'une entreprise de puces. Nous construisons les puces les plus incroyables au monde.
Ouais.
Mais NVIDIA est une entreprise d'infrastructure IA. Nous sommes votre partenaire d'infrastructure, comme le démontre notre relation avec OpenAI.
Ouais.
Nous travaillons avec les gens de plusieurs façons. Nous n'obligeons personne à acheter le rack complet ; ils peuvent acheter une puce, un composant ou notre réseau.
Certains clients n'achètent que notre CPU ou juste nos GPU tout en utilisant le réseau de quelqu'un d'autre. Nous acceptons de vendre de n'importe quelle manière que vous souhaitez acheter. Ma seule requête est que vous nous achetiez quelque chose.
Building AI Infrastructure & Elon Musk
Vous avez dit qu'il ne s'agit pas seulement de meilleurs modèles ; nous avons aussi besoin de bâtisseurs de classe mondiale. Vous avez dit que le plus grand bâtisseur de classe mondiale que nous ayons est Elon Musk.
Nous avons parlé de ce qu'il a fait avec Colossus 1, en installant quelques centaines de milliers de H100 et H200 dans un cluster cohérent. Maintenant, il travaille sur Colossus 2, qui pourrait compter des millions d'équivalents H100.
Je ne serais pas surpris s'il atteignait un gigawatt avant n'importe qui d'autre.
Dites-nous un mot sur l'avantage d'être un bâtisseur qui comprend ce qu'il faut pour construire ces clusters, pas seulement les logiciels et les modèles.
Les superordinateurs IA sont compliqués. La technologie, l'approvisionnement, le financement, la sécurisation des terrains et de l'énergie, et leur déploiement sont complexes. Ce sont les problèmes de systèmes les plus complexes auxquels l'humanité se soit jamais attaquée.
Elon a un grand avantage car tous ces systèmes et interdépendances — y compris le financement — résident dans sa tête.
Oui.
Il est lui-même un superordinateur — le GPU ultime. Il a un grand avantage, un sens de l'urgence et un désir de construire. Quand la volonté s'unit à la compétence, des choses incroyables peuvent arriver.
Sovereign AI & Global Competition
Je veux parler de l'IA souveraine, de la Chine et de la course mondiale à l'IA.
Il y a trente ans, vous n'auriez pu imaginer fréquenter des palais ou la Maison Blanche. Le président a déclaré que NVIDIA est essentielle à la sécurité nationale.
Contextualisez cela pour moi. Il est difficile de croire que vous seriez dans ces endroits si les souverains ne considéraient pas cela aussi existentiel que l'énergie nucléaire dans les années 1940.
Nous n'avons pas de projet Manhattan financé par le gouvernement aujourd'hui, mais il est financé par NVIDIA, OpenAI, Meta et Google. Nous avons des entreprises de la taille d'États-nations finançant quelque chose que des présidents et des rois considèrent comme existentiel pour leur avenir. Êtes-vous d'accord ?
Personne n'a besoin de bombes atomiques ; tout le monde a besoin d'IA.
Bien dit. Bien dit.
C'est une grande différence. L'IA est le logiciel moderne. Nous sommes passés de l'informatique à usage général à l'informatique accélérée, et du code écrit par l'homme au code écrit par l'IA.
Nous avons réinventé l'informatique, et tout le monde en a besoin. Elle doit être démocratisée.
Les pays réalisent qu'ils doivent se lancer dans l'IA car tout le monde doit rester dans l'informatique. Personne ne retourne aux bâtons et au feu.
Tout le monde a besoin de passer à l'informatique ; elle est simplement modernisée. Pour participer à l'IA, vous devez y encoder votre histoire, votre culture et vos valeurs.
L'IA devient plus intelligente, donc même une IA de base peut apprendre ces choses rapidement. Chaque pays a besoin d'une certaine capacité souveraine.
Je leur recommande d'utiliser OpenAI, Gemini, Grok et Anthropic, mais ils devraient aussi consacrer des ressources à apprendre comment construire l'IA.
Ils doivent apprendre à construire non seulement des modèles de langage, mais aussi des modèles industriels, manufacturiers, de santé et de sécurité nationale. Ils doivent cultiver cette intelligence eux-mêmes, ils devraient donc avoir une capacité souveraine.
Des modèles de sécurité nationale.
Et est-ce que c'est ce que vous voyez, est-ce ce que vous entendez à travers le monde ?
Ils le réalisent tous. Ils seront clients d'OpenAI, Anthropic, Grok et Gemini, mais ils ont aussi besoin de construire leur propre infrastructure.
NVIDIA construit l'infrastructure, et tout comme chaque pays a besoin d'infrastructures énergétiques et de communication, ils ont maintenant besoin d'une infrastructure d'IA.
US Policy & The Trump Administration
Commençons par le reste du monde et notre ami David Sacks, le tsar de l'IA. Nous avons de la chance d'avoir David et Sriram à Washington DC travaillant sur l'IA.
Travail incroyable.
C'était un geste intelligent du président Trump de les mettre à la Maison Blanche. Durant cette période charnière, Sriram est l'un des rares à DC qui comprenne la technologie. J'adore le fait que nous ayons quelqu'un de clairvoyant consacrant du temps à comprendre la technologie et à nous aider à traverser cela.
Oui.
C'est vrai.
En revenant à l'analogie du projet Manhattan, nous avons un président qui comprend à quel point c'est existentiel et des gouverneurs comme Greg Abbott qui veulent supprimer les réglementations pour accélérer.
Nous avons des dirigeants like le secrétaire Wright, Doug Burgum et Howard Lutnick qui comprennent l'importance de tout cela. Imaginez l'alternative si nous avions une administration qui n'était pas pro-énergie et ne voulait pas qu'elle croisse pour que nous puissions avoir l'IA.
Je trouve ironique qu'il y a quelques années, nous disions que la Chine était en avance parce qu'ils construisaient 100 réacteurs nucléaires, mais maintenant quand nous construisons, les gens disent qu'il y a un surplus.
Il semble être dans l'intérêt du gouvernement que l'industrie et le gouvernement travaillent ensemble. Vous êtes proche du président Trump ; aidez-nous à comprendre la nature des relations industrie-gouvernement. Est-ce unique dans vos 30 ans de carrière ?
Il était difficile d'aller à DC par le passé, mais le président Trump a une porte ouverte pour les dirigeants qui veulent l'aider à comprendre l'avenir. Cette administration croit en la croissance.
C'est vrai.
Le président Trump veut que l'Amérique croisse. Si nous croissons économiquement, nous serons forts et en sécurité. Être une nation riche est un élément essentiel de la sécurité nationale.
Il veut que l'Amérique gagne la course à l'IA et il veut que le monde soit construit sur la technologie américaine.
Ce sont des choses logiques. L'opposé — ne pas vouloir que le pays croisse ou vouloir limiter l'énergie — est étrange.
Il comprend que notre industrie technologique est un trésor national. La technologie est une opportunité commerciale fondamentale, comme le maïs et l'acier l'étaient autrefois.
C'est une partie essentielle du commerce. Pourquoi ne voudrions-nous pas que la technologie américaine soit utilisée pour le commerce ? Les valeurs démocratiques se sont répandues via Google Search sans avoir besoin de permission de Washington. Nous avons diffusé notre technologie à travers le monde.
David Sacks a été clair sur la nécessité d'accélérer les licences d'exportation pour que la pile d'IA américaine gagne mondialement. Nous parlons de puces, de modèles et de centres de données.
Il y avait un concept appelé "petit jardin, haute clôture". L'ironie était qu'il était recommandé comme une clôture autour de l'Amérique.
Oui, petit jardin haute clôture.
Le président Trump a raison : nous voulons maximiser les exportations et l'influence américaine dans le monde.
Voyez-vous ces licences arriver ? Constatez-vous une accélération à Washington qui se répercute sur le gouvernement ?
Le secrétaire Lutnick s'en occupe pleinement. Super.
China Relations & Market Dynamics
Parlons de la Chine. Vous comprenez la Chine aussi bien que n'importe quel dirigeant américain parce que vous y êtes depuis 30 ans. Jusqu'à il y a quelques années, vous y aviez une part de marché dominante.
95 % de part de marché.
Vous avez 95 % de part de marché dans ce qui est sans doute la chose la plus importante. Vous avez dit que notre plus grand but contre notre propre camp est de forcer NVIDIA à quitter la Chine, ce qui a permis à Huawei d'accélérer grâce à des profits monopolistiques.
Ce matin, Huawei et Alibaba ont annoncé qu'ils construisaient des centres de données à l'échelle mondiale. Huawei a un plan sur trois ans pour dépasser NVIDIA, financé par des profits monopolistiques sur le plus grand marché de l'IA. Il semble que votre avertissement concernant l'octroi de marchés monopolistiques à la Chine se réalise.
Après l'interdiction des H20, nous sommes dans une situation où l'on peut vendre des puces à la Chine avec une taxe d'exportation de 15 %. Cependant, il semble que les Chinois disent maintenant que NVIDIA n'est pas autorisée à vendre là-bas.
Que devrions-nous faire en tant que pays pour gagner la course mondiale à l'IA ?
Nous avons une relation compétitive avec la Chine. Nous devrions reconnaître que la Chine veut légitimement que ses entreprises réussissent, et je ne leur en veux pas pour cela. C'est leur prérogative de les soutenir.
La Chine possède certains des meilleurs entrepreneurs issus des meilleures écoles STEM. Ils ont faim et travaillent selon un rythme "996" — de 9h à 21h, six jours par semaine — produisant le plus grand nombre d'ingénieurs en IA au monde.
Oui.
C'est leur culture. Nous faisons face à un concurrent redoutable, affamé, qui est peu réglementé — ironiquement, moins que nous.
C'est exact.
Les gens pensent qu'ils sont gouvernés de manière centralisée, but le génie de la Chine a été dans ses systèmes économiques distribués. La concurrence entre les provinces a généré une vitalité interne, aboutissant à une industrie de haute technologie dynamique.
L'idée qu'ils ne pourraient jamais construire de puces IA était insensée. S'il y a une chose qu'ils savent faire, c'est fabriquer. Et ils n'ont pas des années de retard sur nous — ils ont des nanosecondes de retard.
Des nanosecondes.
Ils sont à des nanosecondes derrière nous, nous devons donc rivaliser. Il est dans le meilleur intérêt de la Chine d'avoir une industrie dynamique.
Ouais.
Ils disent vouloir que la Chine soit un marché ouvert qui attire les investissements étrangers, et j'espère que nous y reviendrons.
C'est vrai.
À l'avenir, j'espère que les entreprises étrangères pourront investir et rivaliser en Chine, comme le suggèrent leurs dirigeants.
C'est un résultat sensé pour eux d'avoir une concurrence dynamique et de participer mondialement. En tant que pays, nous devons permettre à notre industrie technologique, qui est un trésor national, de s'épanouir.
La technologie est notre meilleure industrie. Pourquoi ne lui permettrions-nous pas de lutter pour sa survie et de faire proliférer la technologie à l'échelle mondiale pour que le monde soit construit sur la technologie américaine ?
Nous devrions maximiser notre succès économique et notre influence géopolitique en permettant à cette industrie technologique de prospérer durant cette période si cruciale.
Les sceptiques disent que je veux juste vendre des puces et que je ne me soucie pas de l'Amérique, mais vouloir que l'écosystème américain croisse ne me donne pas tort.
C'est vrai, c'est vrai.
Tout ce qui a été dit jusqu'ici sur la Chine s'est avéré faux ; la réalité du terrain est différente. Vouloir que l'Amérique gagne et que l'industrie croisse ne me donne pas tort.
Exact.
Rivaliser en Chine nous permet de puiser dans la moitié des ingénieurs en IA du monde. Des entreprises comme ByteDance et Alibaba sont largement détenues par des investisseurs américains.
C'est vrai.
Ce sont d'incroyables entreprises mondiales qui construisent une technologie extraordinaire. J'ai l'espoir que l'argument que vous avancez concernant la Chine sera compris.
C'est exact.
Le président a suggéré une protection de 15 % pour le Trésor américain comme moyen de nous permettre de rivaliser, mais j'ai été déçu par ce qui a suivi.
Si les Chinois sentent que nous n'envoyons que de vieilles puces, je comprends leur réponse.
Le H20 est spectaculaire, bien qu'il ne soit pas aussi bon que Blackwell. Je suis patient et je crois qu'ils réfléchissent à leurs programmes plus larges concernant les États-Unis.
C'est vrai.
Des discussions sont en cours, mais la vérité fondamentale est qu'il est dans le meilleur intérêt de la Chine et des États-Unis que NVIDIA rivalise sur ce marché.
Ces deux vérités peuvent coexister. Même si nos prévisions pour les investisseurs n'incluent pas la Chine, et j'apprécie qu'ils suivent cela, je pense que les deux peuvent être vraies.
Ouais.
Nous avons des opportunités de croissance ailleurs, mais la Chine reste très importante. Quiconque pense le contraire ignore la réalité.
Ouais.
C'est l'un des marchés les plus importants au monde, et il est dans le meilleur intérêt des deux pays que nous y soyons. Je suis confiant que la sagesse prévaudra.
Oui.
J'ai toujours été confiant que la sagesse et la vérité l'emportent. Ces choses finiront par se régler, et nous aurons l'occasion de rivaliser sur le marché chinois.
Immigration Policy & The American Dream
Un sujet d'actualité est la décision de facturer 100 000 dollars par visa H-1B. Vous avez qualifié le président de notre arme secrète dans l'IA et vous voulez recruter les meilleurs et les plus brillants.
Ouais.
Est-ce que ces frais de 100 000 dollars pour le H-1B rendent le recrutement plus difficile, surtout pour les petites entreprises ?
C'est un excellent début.
Attendez, vous avez dit que c'est un excellent début.
C'est un excellent début.
C'est un excellent début.
Je vais commencer par là à cause de ceci.
J'espère que ce n'est pas la fin.
Je pense qu'est un excellent début ; j'espère simplement que ce n'est pas la fin.
Voici ce que je crois fondamentalement.
L'Amérique a une réputation de marque singulière. Aucun autre pays n'est en position de dire : "venez ici et réalisez votre rêve".
Quel pays a le mot "rêve" derrière lui ?
Nous sommes uniques. Je représente le rêve américain ; mes parents nous ont envoyés ici avec rien. J'ai fait la plonge et nettoyé des toilettes, et me voici.
C'est le rêve américain, et le président Trump sait que nous voulons des immigrés légaux.
Il y a une différence entre les immigrés légaux et illégaux, et l'idée d'un pays ouvert à tous n'a pas de sens.
Comment protégeons-nous le rêve américain tout en gérant l'immigration illégale ? Comment trouvons-nous une solution pragmatique ?
Mettre un prix de 100 000 dollars sur un H-1B place peut-être la barre trop haut, mais en tant que première étape, cela élimine les abus.
Comment cela élimine-t-il l'immigration illégale ?
Cela élimine l'abus du H-1B, ce qui est un bon début pour une conversation.
Le président Trump est à l'écoute. Il intègre les informations de beaucoup de personnes sur cette question compliquée.
C'est un bon début, mais je suis sûr que la Maison Blanche sait que l'immigration légale est le fondement du rêve américain et de la marque que nous voulons protéger.
Sacks et d'autres membres de l'administration savent que nous devons recruter les meilleurs et les plus brillants sans sacrifier la marque.
Facturer 100 000 ou même 50 000 dollars favorise les grandes entreprises et rend la tâche difficile pour l'écosystème des startups.
Cela pourrait accélérer les investissements en dehors des États-Unis. Il y a des conséquences imprévues, mais il faut commencer quelque part et avancer vers la bonne réponse. C'est la méthode entrepreneuriale.
Le président a parlé d'agrafer une carte verte aux diplômes des étudiants en STEM. Nous voulons garder les chercheurs ici, et si leurs familles ne peuvent pas les rejoindre, ils partiront.
Êtes-vous confiant que l'administration a un plan stratégique plus large pour recruter les meilleurs et les plus brillants ?
Je n'ai pas de réponse à cela, mais je sais que nous n'en sommes pas encore là où nous voulons être. Je ne pense pas que quiconque ait perdu de vue l'importance d'attirer les meilleurs talents du monde.
Certaines choses sont faites qui mettent les étudiants étrangers mal à l'aise, ce qui va à l'encontre de nos objectifs.
Cela menace la marque.
Cela menace la marque. Nous pouvons être compétitifs avec la Chine, mais nous devons faire attention à ne pas être durs envers le peuple chinois.
Il y a des nuances en jeu, but nous savons où nous voulons aller. Le président Trump n'a pas beaucoup de temps pour nous faire avancer dans cette direction, donc je crois que c'est un bon début.
D'accord.
J'ai entendu d'un chercheur qu'il y a trois ans, 90 % des meilleurs diplômés en IA de Chine venaient aux États-Unis, mais aujourd'hui c'est plus proche de 10 %.
C'est précisément notre préoccupation.
Voyez-vous cela dans les deux marchés, et que devons-nous faire pour inverser la tendance ?
Il y a une inquiétude croissante parmi les étudiants chinois qui viennent ici pour leurs études et envisagent ensuite d'aller ailleurs, comme en Europe. Nous devons nous en préoccuper car c'est un indicateur précoce d'un problème futur.
Le désir de personnes intelligentes de venir en Amérique et d'y rester sont des indicateurs clés — des signes précoces de succès futurs.
C'est comme les Warriors ; s'ils ne peuvent pas recruter les meilleurs joueurs, ils ne gagneront pas de championnats. Si la marque est affaiblie, le vivier de talents disparaîtra.
Vous parlez si éloquemment du rêve américain. Cet endroit doit être celui qui accueille et attire les meilleurs et les plus brillants.
Il y a une expression, "les faucons de la Chine". Si vous êtes un faucon de la Chine, vous portez cette étiquette avec fierté, mais c'est en réalité une marque de honte.
C'est un