NVIDIA GTC Washington D.C. Keynote
28 octobre 2025
Technologie & Intelligence Artificielle
L'Héritage de l'Innovation Américaine
L'Amérique, terre d'innovation, où l'invention a façonné le destin et la technologie a permis aux rêves de prendre leur envol.
Aux Bell Labs, le transistor est né, déclenchant l'ère des semi-conducteurs et donnant naissance à la Silicon Valley.
Hedy Lamarr a réimaginé la communication, ouvrant la voie à la connectivité sans fil.
Le System/360 d'IBM a placé un ordinateur universel au cœur de l'industrie.
Le microprocesseur d'Intel a propulsé l'ère numérique, et les superordinateurs de Cray ont repoussé les frontières de la science.
Nous pensons donc être au début de quelque chose avec cette technologie, et we're going to go as fast as we can.
Apple a rendu l'informatique personnelle.
Bonjour, je suis Macintosh.
Microsoft a ouvert la fenêtre sur un nouveau monde de logiciels.
Bien avant le web, vous aviez le courrier électronique. Des chercheurs du gouvernement américain ont construit l'ARPANET, connectant les premiers ordinateurs, le fondement de l'internet.
Un iPod, un téléphone. Vous comprenez ?
Puis Apple a de nouveau mis mille chansons dans votre poche et l'internet dans votre main.
Chaque époque, un bond en avant.
Nous choisissons d'aller sur la lune au cours de cette décennie et de faire les autres choses, non pas parce qu'elles sont faciles, mais parce qu'elles sont difficiles.
À chaque étape, l'Amérique a mené.
C'est un petit pas pour l'homme, un bond de géant pour l'humanité.
Maintenant, la prochaine ère est arrivée, lancée par un nouveau modèle informatique révolutionnaire.
C'est probablement la contribution la plus importante que nous ayons apportée à l'industrie informatique. Elle sera probablement reconnue comme une révolution.
L'apprentissage automatique est une branche de l'intelligence artificielle, des ordinateurs qui semblent presque penser.
La quantité de ressources informatiques est finalement ce qui va booster ce domaine.
L'intelligence artificielle, la nouvelle révolution industrielle.
En son cœur, les GPU NVIDIA, inventés ici en Amérique. Comme l'électricité et l'internet, l'IA est une infrastructure essentielle.
Chaque entreprise l'utilisera, chaque nation la construira.
Gagner cette compétition sera un test de nos capacités comme rien d'autre depuis l'aube de l'ère spatiale.
Et aujourd'hui, des usines d'IA voient le jour, construites en Amérique, pour les scientifiques, les ingénieurs et les rêveurs des universités, des startups et de l'industrie.
Je pense que nous voulons essayer d'atteindre de nouveaux sommets en tant que civilisation, en découvrant la nature de l'univers.
Et maintenant, les innovateurs américains ouvrent la voie à l'abondance, sauvant des vies, transformant la vision en réalité, nous prêtant main-forte et livrant l'avenir.
Nous alimenterons bientôt tout cela avec une énergie propre illimitée. Nous étendrons la portée de l'humanité jusqu'aux étoiles.
C'est le prochain moment Apollo de l'Amérique. Ensemble, nous faisons le prochain grand bond pour aller hardiment là où personne n'est allé auparavant. Et c'est ici que tout commence.
Ouverture du GTC et l'Informatique Accélérée
Accueillons sur scène le fondateur et PDG de NVIDIA, Jensen Huang.
Washington, D.C. ! Bienvenue au GTC. Il est difficile de ne pas être sentimental et fier de l'Amérique. Cette vidéo n'était-elle pas incroyable ? Merci. L'équipe créative de NVIDIA fait un travail extraordinaire. Bienvenue au GTC ; nous avons beaucoup de choses à aborder avec vous aujourd'hui. Le GTC est l'endroit où nous parlons de l'industrie, de la science, de l'informatique, du présent et de l'avenir. Avant de commencer, je tiens à remercier tous nos partenaires qui ont aidé à parrainer ce grand événement. Vous les verrez partout sur le salon. Ils sont ici pour vous rencontrer et ils sont vraiment formidables. Nous ne pourrions pas faire ce que nous faisons sans tous nos partenaires de l'écosystème. C'est le Super Bowl de l'IA, disent les gens, et par conséquent, chaque Super Bowl devrait avoir un spectacle d'avant-match incroyable. Que pensez-vous du spectacle d'avant-match, de nos athlètes de haut niveau et de notre casting de stars ? NVIDIA a inventé un nouveau modèle informatique pour la première fois en 60 ans, comme vous l'avez vu dans la vidéo. Un nouveau modèle informatique apparaît rarement ; cela demande énormément de temps et de conditions. Nous avons inventé ce modèle informatique parce que nous voulions résoudre des problèmes que les ordinateurs à usage général ne pouvaient pas résoudre. Nous avons également observé qu'un jour la performance et la puissance des transistors ralentiraient, et que la loi de Moore ne continuerait pas au-delà des lois de la physique. Ce moment est maintenant arrivé. La mise à l'échelle de Dennard s'est arrêtée il y a près d'une décennie, et la performance des transistors ainsi que la puissance associée ont considérablement ralenti. Et pourtant, le nombre de transistors a continué. Depuis 30 ans, nous faisons progresser cette forme d'informatique que nous appelons l'informatique accélérée. Nous avons inventé le GPU et le modèle de programmation appelé CUDA. Nous avons observé que si nous pouvions ajouter un processeur tirant parti de l'informatique parallèle à un CPU de traitement séquentiel, nous pourrions étendre les capacités de l'informatique bien au-delà. Ce point d'inflexion est réellement arrivé. L'informatique accélérée est un modèle de programmation fondamentalement différent. Vous ne pouvez pas simplement prendre un logiciel CPU écrit à la main et le mettre sur un GPU pour qu'il fonctionne correctement. En fait, si vous faites cela, il fonctionne plus lentement. Vous devez réinventer de nouveaux algorithmes, créer de nouvelles bibliothèques et réécrire l'application, c'est pourquoi cela a pris si longtemps. Il nous a fallu près de 30 ans pour en arriver là, mais nous l'avons fait domaine par domaine. C'est le trésor de notre entreprise. Le GPU est important, mais sans un modèle de programmation au-dessus et sans l'engagement de le maintenir compatible au fil des générations — nous en sommes maintenant à CUDA 13 et bientôt CUDA 14 — les développeurs ne cibleraient pas cette plateforme. cuLitho, la lithographie computationnelle, nous a pris près de sept ans pour aboutir, et maintenant TSMC, Samsung et ASML l'utilisent. Les solveurs creux pour les applications CAE, cuOpt pour l'optimisation numérique, et Warp, le solveur Python pour la simulation, ont battu des records. cuDNN a lancé l'IA tout entière, et Megatron Core a rendu possible l'entraînement de modèles de langage extrêmement vastes. MONAI est le cadre d'IA pour l'imagerie médicale numéro un au monde. N'oubliez pas de suivre la conférence de Kimberly pour en savoir plus sur la santé. Ce n'est qu'un échantillon des 350 bibliothèques differentes de notre entreprise. Chacune a redessiné l'algorithme nécessaire à l'informatique accélérée, a permis aux partenaires de l'écosystème d'en profiter et nous a ouvert de nouveaux marchés. Jetons un coup d'œil à ce que CUDA-X peut faire.
Prêt, partez !
Télécommunications, 6G et AI on RAN
C'est incroyable, n'est-ce pas ? Tout ce que vous avez vu était une simulation — pas d'art, pas d'animation. C'est la beauté des mathématiques et de l'informatique de pointe. Tous les secteurs ont été couverts, de la santé à la fabrication, en passant par la robotique, les véhicules autonomes et les jeux vidéo. Ce premier plan était la première application que NVIDIA ait jamais fait tourner en 1993. Nous avons continué à croire en ce que nous essayions de faire. C'est un voyage incroyable. Je tiens à remercier tous les employés de NVIDIA pour tout ce que vous avez fait. Nous avons de nombreux secteurs à couvrir : l'IA, la 6G, le quantique, l'informatique d'entreprise, la robotique et les usines. Les télécommunications sont le moteur de notre économie et de notre sécurité nationale. Cela fait longtemps que nous n'avons pas défini les normes mondiales de la technologie sans fil. Aujourd'hui, le tissu de communication fondamental repose sur des technologies étrangères. Cela doit cesser. Nous avons l'opportunité, lors de ce changement de plateforme, que l'Amérique recommence à innover. Aujourd'hui, nous annonçons une nouvelle gamme de produits : l'ordinateur de réseau radio NVIDIA Aerial, ou ARC. ARC est construit à partir du CPU Grace, du GPU Blackwell et de la mise en réseau Mellanox ConnectX. Tout cela permet de faire fonctionner Aerial, un système de communication sans fil fonctionnant au-dessus de CUDA-X. Nous créons un ordinateur programmable défini par logiciel capable de communiquer sans fil et d'effectuer des traitements d'IA en même temps. Nokia va travailler avec nous pour intégrer notre technologie et réécrire sa structure logicielle. Ils vont faire de NVIDIA Aerial leur future station de base, qui est également compatible avec leurs stations AirScale actuelles. Nous pourrons mettre à jour des millions de stations de base à travers le monde avec la 6G et l'IA. Nous pouvons utiliser l'IA pour le RAN afin de rendre les communications radio plus économes en spectre grâce à l'apprentissage par renforcement et à la mise en forme de faisceau (beamforming). L'amélioration de l'efficacité spectrale aide à augmenter la quantité de données que nous pouvons faire passer par les réseaux sans augmenter l'énergie. Nous pouvons également faire de l'IA sur le RAN — essentiellement du cloud computing pour les télécommunications sans fil. Merci à Justin Hodard pour votre partenariat.
Le tissu de communication fondé sur des technologies étrangères doit cesser. Nous avons l'opportunité pour l'Amérique de commencer à innover avec notre propre technologie. Aujourd'hui, nous annonçons un partenariat majeur avec Nokia, le deuxième plus grand fabricant de télécommunications au monde. Il existe des millions de stations de base à travers le monde, et en nous associant, nous pouvons bâtir sur cette technologie basée sur l'informatique accélérée et l'IA. Aujourd'hui, nous annonçons une nouvelle gamme de produits : l'ordinateur de réseau radio NVIDIA Aerial, ARC. Construit à partir du CPU Grace, du GPU Blackwell et du réseau Mellanox ConnectX, il nous permet de faire fonctionner Aerial au-dessus de CUDA-X. Nous créons un ordinateur programmable défini par logiciel capable de communiquer sans fil et de traiter l'IA simultanément. C'est révolutionnaire. Nokia va faire de NVIDIA ARC sa future station de base. Nous pourrons mettre à jour des millions de stations de base avec la 6G et l'IA pour améliorer l'efficacité spectrale et réduire la consommation d'énergie. De plus, nous allons construire un système de cloud computing au-dessus du réseau de télécommunications sans fil : un cloud de robotique industrielle de pointe. C'est là qu'intervient l'IA sur RAN — essentiellement du cloud computing pour les télécommunications sans fil. Merci à Pekka Lundmark pour ce partenariat fantastique.
L'IA sur RAN est une toute nouvelle opportunité. AWS a construit un système de cloud computing au-dessus d'internet ; nous allons maintenant faire la même chose au-dessus du réseau de télécommunications sans fil. Ce nouveau cloud sera un cloud de robotique industrielle de pointe. Le cloud computing pourra aller directement jusqu'à la périphérie, là où les centres de données ne sont pas. Cette annonce est vraiment passionnante. Merci, Justin Hodard, d'aider à ramener la technologie des télécommunications en Amérique.
L'Avenir de l'Informatique Quantique
Parlons de l'informatique quantique. En 1981, Richard Feynman a imaginé un ordinateur capable de simuler directement la nature, car la nature est quantique. 40 ans plus tard, l'industrie a réalisé une percée. Il est désormais possible de fabriquer un qubit logique cohérent et stable. Les qubits sont incroyablement fragiles et nécessitent des environnements bien contrôlés pour la correction d'erreurs. Nous réalisons maintenant qu'il est essentiel de connecter un ordinateur quantique directement à un superordinateur GPU pour la correction d'erreurs, l'étalonnage et les simulations hybrides. C'est l'avenir de l'informatique quantique.
Il existe de nombreuses façons de construire un ordinateur quantique. Chacune utilise des qubits, ou bits quantiques, comme unité de base. Mais quelle que soit la méthode, tous les qubits, qu'il s'agisse de qubits supraconducteurs, d'ions piégés, d'atomes neutres ou de photons, partagent le même défi. Ils sont fragiles et extrêmement sensibles au bruit. Les qubits d'aujourd'hui ne restent stables que pendant quelques centaines d'opérations, mais la résolution de problèmes significatifs nécessite des billions d'opérations. La réponse est la correction d'erreurs quantiques. La mesure perturbe un qubit, ce qui détruit l'information qu'il contient. L'astuce consiste à ajouter des qubits supplémentaires, intriqués, afin que leur mesure nous donne suffisamment d'informations pour calculer où les erreurs se sont produites sans endommager les qubits qui nous intéressent. C'est brillant, mais cela nécessite un calcul conventionnel au-delà de l'état de l'art. C'est pourquoi nous avons construit NVQLinq, une nouvelle architecture d'interconnexion qui relie directement les processeurs quantiques aux GPU NVIDIA. La correction d'erreurs quantiques nécessite de lire les informations des qubits, de calculer où les erreurs se sont produites et de renvoyer les données pour les corriger. NVQLinq est capable de déplacer des téraoctets de données vers et depuis le matériel quantique les milliers de fois par seconde nécessaires à la correction d'erreurs quantiques. Au cœur de ce système se trouve CUDA-Q, notre plateforme ouverte pour l'informatique GPU quantique. En utilisant NVQLinq et CUDA-Q, les chercheurs pourront faire plus que de la simple correction d'erreurs. Ils pourront également orchestrer des dispositifs quantiques et des superordinateurs d'IA pour exécuter des applications GPU quantiques. L'informatique quantique ne remplacera pas les systèmes classiques. Ils travailleront ensemble, fusionnés en une seule plateforme de supercalcul quantique accéléré.
Parlons de l'informatique quantique. En 1981, Richard Feynman a imaginé un ordinateur capable de simuler directement la nature. 40 ans plus tard, il est possible de fabriquer un qubit logique cohérent et stable. Les qubits sont fragiles, et toute condition environnementale provoque leur décohérence. Il faut des environnements bien contrôlés et de nombreux qubits physiques pour la correction d'erreurs afin d'inférer l'état du qubit logique. Nous réalisons maintenant qu'il est essentiel de connecter un ordinateur quantique directement à un superordinateur GPU pour la correction d'erreurs, l'étalonnage par l'IA et les simulations hybrides où les ordinateurs travaillent côte à côte. Jetons un coup d'œil.
Il existe de nombreuses façons de construire un ordinateur quantique. Chacune utilise des qubits, des bits quantiques, comme composant de base. Mais quelle que soit la méthode, tous les qubits, qu'il s'agisse de qubits supraconducteurs, d'ions piégés, d'atomes neutres ou de photons, partagent le même défi. Ils sont fragiles et extrêmement sensibles au bruit. Les qubits d'aujourd'hui restent stables pendant seulement quelques centaines d'opérations. Mais résoudre des problèmes significatifs nécessite des milliers de milliards d'opérations. La réponse est la correction d'erreurs quantiques. Mesurer un qubit le perturbe, ce qui détruit les informations qu'il contient. L'astuce consiste à ajouter des qubits supplémentaires, intriqués, de sorte que leur mesure nous donne suffisamment d'informations pour calculer où les erreurs se sont produites sans endommager les qubits qui nous intéressent. C'est génial, mais cela nécessite un calcul conventionnel dépassant l'état de l'art. C'est pourquoi nous avons construit NVQLINK, une nouvelle architecture d'interconnexion qui connecte directement les processeurs quantiques aux GPU de NVIDIA. La correction d'erreurs quantiques nécessite de lire les informations des qubits, de calculer où les erreurs se produisent et de renvoyer les données pour les corriger. NVQLINK est capable de déplacer des téraoctets de données vers et depuis le matériel quantique les milliers de fois par seconde nécessaires à la correction d'erreurs quantiques. Au cœur se trouve CUDA-Q, notre plateforme ouverte pour le calcul GPU quantique. En utilisant NVQLINK et CUDA-Q, les chercheurs pourront faire plus que de la correction d'erreurs. Ils pourront également orchestrer des dispositifs quantiques et des superordinateurs d'IA pour exécuter des applications GPU quantiques. L'informatique quantique ne remplacera pas les systèmes classiques. Ils travailleront ensemble, fusionnés dans une plateforme de supercalcul quantique accélérée unique.
Parlons de l'informatique quantique. En 1981, Richard Feynman a imaginé un nouveau type d'ordinateur capable de simuler directement la nature. 40 ans plus tard, nous avons réalisé une percée fondamentale. Il est désormais possible de fabriquer un qubit logique cohérent et stable. Les qubits sont incroyablement fragiles et sensibles aux conditions environnementales. Il faut des environnements extraordinairement bien contrôlés pour effectuer la correction d'erreurs sur les qubits logiques. Nous réalisons maintenant qu'il est essentiel de connecter un ordinateur quantique directement à un superordinateur GPU afin de pouvoir effectuer collectivement la correction d'erreurs, l'étalonnage par IA et les simulations. C'est l'avenir de l'informatique quantique.
Il existe de nombreuses façons de construire un ordinateur quantique. Chacune utilise des qubits, bits quantiques, comme unité de base. Mais quelle que soit la méthode, tous les qubits, qu'il s'agisse de qubits supraconducteurs, d'ions piégés, d'atomes neutres ou de photons, partagent le même défi. Ils sont fragiles et extrêmement sensibles au bruit. Les qubits d'aujourd'hui ne restent stables que pendant quelques centaines d'opérations. Mais résoudre des problèmes significatifs nécessite des milliers de milliards d'opérations. La réponse est la correction d'erreurs quantiques. La mesure perturbe un qubit, ce qui détruit les informations qu'il contient. L'astuce consiste à ajouter des qubits supplémentaires, intriqués, de sorte que leur mesure nous donne suffisamment d'informations pour calculer où les erreurs se sont produites sans endommager les qubits qui nous intéressent. C'est brillant, mais cela nécessite un calcul conventionnel dépassant l'état de l'art. C'est pourquoi nous avons construit NVQLINK, une nouvelle architecture d'interconnexion qui relie directement les processeurs quantiques aux GPU NVIDIA. La correction d'erreurs quantiques nécessite de lire les informations des qubits, de calculer où les erreurs se produisent et de renvoyer les données pour les corriger. NVQLINK est capable de déplacer des téraoctets de données vers et depuis le matériel quantique les milliers de fois par seconde nécessaires à la correction d'erreurs quantiques. Au cœur se trouve CUDA-Q, notre plateforme ouverte pour le calcul GPU quantique. En utilisant NVQLINK et CUDA-Q, les chercheurs pourront faire plus que de la simple correction d'erreurs. Ils pourront également orchestrer des dispositifs quantiques et des superordinateurs d'IA pour exécuter des applications GPU quantiques. L'informatique quantique ne remplacera pas les systèmes classiques. Ils travailleront ensemble, fusionnés dans une seule plateforme de supercalcul quantique accélérée.
Wow, cette scène est vraiment longue.
Vous savez, nous les PDG, nous ne nous contentons pas de rester assis à notre bureau à taper. C'est un travail physique.
Aujourd'hui, nous annonçons le NVQLink, rendu possible par une interconnexion qui assure le contrôle, l'étalonnage et la correction d'erreurs des ordinateurs quantiques, tout en connectant les QPU et les superordinateurs GPU pour des simulations hybrides.
C'est également totalement évolutif. Il ne se contente pas de corriger les erreurs pour les quelques qubits d'aujourd'hui ; il s'adapte aux dizaines ou centaines de milliers de qubits que nous aurons à l'avenir.
Nous avons donc maintenant une architecture capable d'assurer le contrôle, la co-simulation, la correction d'erreurs quantiques et d'évoluer vers cet avenir.
Le soutien de l'industrie a été incroyable. CUDA a été conçu pour l'informatique accélérée GPU-CPU — utiliser le bon outil pour le bon travail.
Maintenant, CUDA-Q a été étendu au-delà de CUDA afin de pouvoir prendre en charge les QPU et permettre au calcul de faire des allers-retours en quelques microsecondes seulement. Cette faible latence est essentielle pour coopérer avec l'ordinateur quantique.
CUDA-Q est une percée incroyable adoptée par de nombreux développeurs. Nous annonçons aujourd'hui 17 entreprises d'informatique quantique différentes prenant en charge le NVQLink.
Partenariat avec le Département de l'Énergie (DOE)
Et je suis tellement enthousiaste à ce sujet — huit laboratoires différents du DOE : Berkeley, Brookhaven, Fermilab, Lincoln Laboratory, Los Alamos, Oak Ridge, Pacific Northwest et Sandia National Lab.
Presque tous les laboratoires du DOE nous ont sollicités, travaillant avec notre écosystème d'entreprises d'informatique quantique afin que nous puissions intégrer l'informatique quantique dans l'avenir de la science.
J'ai une annonce supplémentaire. Aujourd'hui, le département de l'Énergie s'associe à NVIDIA pour construire sept nouveaux superordinateurs d'IA afin de faire progresser la science de notre nation.
Je dois saluer le secrétaire Chris Wright. Il a apporté tellement d'énergie et de passion au DOE pour s'assurer que l'Amérique mène à nouveau la science.
L'informatique est l'instrument fondamental de la science, et we're going through platform shifts toward accelerated computing and AI. Future supercomputers will be GPU-based.
La simulation physique de principe sera augmentée et mise à l'échelle à l'aide de modèles de substitution d'IA. L'informatique classique sera également améliorée par l'informatique quantique.
Nous avons tellement de signaux et de données à échantillonner dans le monde que la télédétection est plus importante que jamais. Ces laboratoires doivent devenir des usines robotisées.
Toutes ces technologies arrivent dans la science en même temps. Le secrétaire Wright veut que le DOE se dynamise pour s'assurer que les États-Unis restent à l'avant-garde de la science.
Redéfinition de l'IA et Usines de Jetons
Parlons de l'IA. Qu'est-ce que l'IA ? La plupart des gens diraient que l'IA est un chatbot, et à juste titre. ChatGPT est à l'avant-garde de ce que les gens considèrent comme de l'IA.
Cependant, ces superordinateurs scientifiques ne vont pas faire tourner des chatbots ; ils vont faire de la science fondamentale. Le monde de l'IA est bien plus qu'un chatbot.
Bien que l'AGI soit fondamentalement critique, l'IA est bien plus. Elle a complètement réinventé la pile informatique.
Auparavant, le logiciel était codé à la main pour les CPU. Aujourd'hui, l'IA, c'est de l'apprentissage automatique et de la programmation gourmande en données entraînée sur un GPU.
Pour que cela se produise, toute la pile informatique a changé. Vous voyez ici une pile fondamentalement différente.
Cette industrie a besoin d'énergie pour croître. L'initiative pro-énergie du président Trump et sa reconnaissance de ce besoin ont mis le poids de la nation derrière la croissance énergétique, ce qui a complètement changé la donne.
Je tiens à remercier le président Trump pour cela. En plus de l'énergie, il y a ces GPU, intégrés dans une infrastructure géante.
Ces machines transforment l'énergie en nombres appelés jetons. Les jetons sont le vocabulaire de l'IA. Vous pouvez transformer en jetons presque tout ce qui a une structure : des mots, des images, des produits chimiques ou des gènes.
Une fois que vous les avez transformés en jetons, l'IA peut en apprendre le sens, puis traduire, répondre et générer. Elle fait des progrès extraordinaires car ces concepts s'appliquent à tout, des protéines aux robots.
Au-dessus de ces modèles se trouvent les applications. Il n'existe pas de modèle universel unique, mais l'IA a un impact universel. Nous avons la multi-modalité, des modèles CNN, des réseaux de neurones graphiques, et plus encore.
Vous pouvez avoir des modèles optimisés pour la perception spatiale ou pour de longues séquences. Au sommet de ces architectures de modèles se trouvent les applications.
Dans le passé, le logiciel consistait à créer des outils comme Excel ou Word. L'industrie des outils n'a qu'une certaine taille, mais l'IA n'est pas un outil — l'IA est un travail. C'est la différence profonde.
L'IA se réfère à des travailleurs qui peuvent réellement utiliser des outils. Par exemple, Perplexity utilise des navigateurs web pour faire des achats, et Cursor est un système d'IA agentique que chaque ingénieur logiciel chez NVIDIA utilise pour générer du code.
Qu'il s'agisse de chatbots, de biologie numérique ou du chauffeur IA à l'intérieur d'un robot-taxi, la technologie est désormais capable de travailler et de nous aider à être plus productifs.
L'IA mobilise l'économie mondiale de cent mille milliards de dollars pour nous aider à croître malgré les pénuries de main-d'œuvre. De plus, l'IA elle-même est une nouvelle industrie.
Il y a maintenant une usine qui doit produire des jetons. Dans le passé, il ne fallait pas beaucoup de calcul pour utiliser Excel, mais dans ce nouveau monde, nous avons besoin d'un ordinateur qui comprenne le contexte en permanence.
Chaque fois que vous demandez à une IA de faire quelque chose, elle doit traiter le contexte environnemental, raisonner étape par étape et exécuter un plan. Cela nécessite un nouveau type de système : une usine d'IA.
Une usine d'IA ne ressemble en rien à un centre de données du passé. Son but est de produire des jetons intelligents à des rythmes incroyables et de manière rentable. À l'intérieur de ces usines se trouvent des montagnes de puces.
Lois de Mise à l'Échelle et Réflexion
Quelque chose de profond s'est produit cette année. Tout d'abord, nous avons trouvé comment rendre l'IA beaucoup plus intelligente. Au lieu d'un simple pré-entraînement — qui est essentiellement de la mémorisation — nous avons progressé.
Le pré-entraînement n'a jamais été destiné à être la fin de l'éducation ; il enseigne les compétences de base pour que vous puissiez apprendre tout le reste. Vient ensuite le post-entraînement, qui enseigne les compétences pour résoudre des problèmes et raisonner.
Ensuite, le calcul entre vraiment en jeu avec la réflexion. Nous nous ancrons constamment dans de nouvelles connaissances et nous réfléchissons. C'est cela l'intelligence.
Nous avons donc maintenant trois compétences technologiques : le pré-entraînement, le post-entraînement et la réflexion. La réflexion impose une charge de calcul incroyable à l'infrastructure car elle réfléchit en notre nom.
J'avais l'habitude d'entendre des gens dire que l'inférence est facile et que NVIDIA devrait se concentrer sur l'entraînement. Mais comment la réflexion pourrait-elle être facile ? Régurgiter du contenu mémorisé est facile ; réfléchir est difficile.
Ces trois lois de mise à l'échelle ont mis une pression immense sur la quantité de calcul. Des modèles plus intelligents nécessitent plus de calcul, et à mesure que les modèles deviennent plus intelligents, plus de gens les utilisent.
Plus elle est intelligente, plus les gens l'utilisent, et plus le calcul est nécessaire. Cette année, les modèles d'IA sont devenus assez intelligents pour qu'il vaille la peine de payer pour eux.
Si quoi que ce soit arrive, je veux être le premier à sortir. Je plaisante. C'est probablement juste le déjeuner. Mon estomac. C'était moi ?
Où en étais-je ? Plus vos modèles sont intelligents, plus les gens les utilisent. Ils sont maintenant mieux ancrés et capables de raisonner. Les modèles d'IA sont devenus assez bons pour mériter un paiement.
Cursor, ElevenLabs, Synthesia et OpenAI en sont tous des exemples. Nous avons maintenant deux exponentielles : le besoin de calcul des lois de mise à l'échelle et le nombre croissant d'utilisateurs.
NVIDIA paie volontiers pour les licences Cursor car cela rend nos chercheurs plus productifs. Ces deux exponentielles mettent sous pression les ressources informatiques mondiales.
Co-conception Extrême et Architecture Blackwell
La loi de Moore est en grande partie terminée. Si nous ne trouvons pas de moyen de réduire les coûts, le cycle vertueux s'arrêtera. Nous avons atteint ce cycle vertueux avec CUDA après 30 ans.
Plus les gens créent d'applications, plus CUDA a de la valeur. L'IA a également atteint ce point. Plus l'IA devient intelligente, plus elle génère de profits, ce qui conduit à plus de calcul et à des modèles plus intelligents.
Nous devons réduire les coûts de manière considérable pour améliorer l'expérience utilisateur et maintenir ce cycle. Mais comment faire alors que la loi de Moore a atteint sa limite ? La réponse est la co-conception.
On ne peut pas se contenter de concevoir des puces en espérant que tout le reste aille plus vite. Nous devons multiplier les exponentielles par une co-conception extrême. NVIDIA est la seule entreprise qui réarchitecture tout à partir de zéro.
Nous avons créé un ordinateur qui s'est étendu à une baie entière. Ensuite, nous l'avons encore agrandi en inventant l'Ethernet Spectrum-X. Spectrum-X est conçu spécifiquement pour la performance de l'IA.
Nous pouvons remplir une pièce entière de superordinateurs et connecter plusieurs centres de données ensemble ; nous appelons cela Spectrum-X GigaScale. Les avantages de performance de cette co-conception extrême sont choquants.
Depuis l'IBM System/360, je ne pense pas qu'un ordinateur ait été réinventé ainsi à partir de zéro. Ce système a été difficile à créer, mais essentiellement, nous avons créé quelque chose d'incroyable. Janine, tu peux sortir.
Tu dois faire la moitié du chemin. Très bien, c'est un peu comme le bouclier de Captain America. Voici le NVLink 72. Si nous devions créer une puce GPU géante, voici à quoi elle ressemblerait.
Toutes ces puces sont maintenant placées dans une baie géante. Cette baie fait fonctionner toutes ces puces ensemble comme une seule unité. C'est franchement incroyable. Merci, Janine.
Très bien, mesdames et messieurs, Janine Paul.
À l'avenir, je ferai juste comme Thor. C'est comme quand vous êtes à la maison et que vous ne pouvez pas atteindre la télécommande, alors vous faites comme ça et quelqu'un vous l'apporte. Cette même idée ne m'arrive jamais, pourtant.
Nous avons essentiellement créé le NVLink 8 dans le passé. Ces modèles sont maintenant si gigantesques que nous les transformons en tout un tas d'experts. Ce modèle d'IA géant possède différents experts, et nous les mettons sur un GPU.
Avec le NVLink 72, chaque expert peut parler aux autres. L'expert principal peut distribuer le travail et les jetons de contexte à tous les autres experts. De plus en plus d'experts sont utilisés.
Dans ce système, nous avons 72 GPU et pouvons mettre quatre experts dans un seul GPU. Nous n'avons qu'à réfléchir pour quatre experts par GPU, ce qui rend la différence de vitesse incroyable. Ce test de performance a été réalisé par SemiAnalysis.
Ils ont testé tous les GPU testables, et il s'avère que 90 % sont des NVIDIA. Le Grace Blackwell par GPU offre 10 fois la performance du H200. Nous obtenons cela grâce à une co-conception extrême.
Cela signifie que nous pouvons répondre beaucoup plus rapidement, mais cette partie suivante est encore plus importante. Le Grace Blackwell NVLink 72 produit des jetons au coût le plus bas du monde. C'est le moyen le plus rentable de générer des jetons.
En offrant 10 fois la performance à un coût inférieur, le cycle vertueux peut continuer. Les six principaux CSP — Amazon, CoreWeave, Google, Meta, Microsoft et Oracle — investissent massivement dans les dépenses en capital.
Le timing ne pourrait pas être meilleur. Nous avons le Grace Blackwell NVLink 72 en production de masse afin de pouvoir offrir le meilleur TCO. Derrière cela, deux changements de plateforme se produisent en même temps.
L'un est le passage de l'informatique à usage général à l'informatique accélérée. L'informatique accélérée gère le traitement des données et des images et exécute SQL ou Spark. Nous avons une bibliothèque incroyable pour tout ce dont vous avez besoin.
Le monde se tourne vers l'informatique accélérée, indépendamment de l'IA. Les CSP utilisaient déjà l'apprentissage automatique pour les systèmes de recommandation. Ces architectures sont maintenant meilleures avec l'informatique accélérée.
Le GPU de NVIDIA est le seul capable de faire tout cela plus l'IA. Il est sûr de s'appuyer sur notre architecture car nous avons atteint notre point d'inflexion. Je tiens à remercier nos partenaires de la chaîne d'approvisionnement pour leur travail acharné.
Nous constatons une croissance extraordinaire pour le Grace Blackwell. Nous avons une visibilité sur un demi-billion de dollars de Blackwell cumulés et les premières montées en puissance de Rubin jusqu'en 2026. C'est le montant des affaires enregistrées jusqu'à présent.
Nous avons déjà expédié 6 millions de Blackwell au cours des premiers trimestres de production. Au cours des cinq prochains trimestres, la croissance représentera un demi-billion de dollars. C'est cinq fois le taux de croissance de Hopper.
Hopper a vu 4 millions de GPU sur toute sa durée de vie. Blackwell en verra 20 millions. Je tiens à remercier tous nos partenaires. J'ai réalisé une vidéo pour célébrer votre travail. Regardons-la.
Fabrication de Blackwell en Amérique
L'ère de l'IA a commencé. Blackwell en est le moteur, une merveille d'ingénierie.
En Arizona, cela commence par une galette de silicium vierge. Des centaines d'étapes de traitement de puces et de lithographie ultraviolette construisent chacun des 200 milliards de transistors, couche par couche, sur une galette de 12 pouces.
Dans l'Indiana, les piles HBM seront assemblées en parallèle. Les matrices de mémoire HBM avec 1 024 E/S sont fabriquées à l'aide de la technologie EUV avancée. Le perçage du silicium (TSV) est utilisé en fin de chaîne pour connecter 12 piles de mémoire HBM et la matrice de base pour produire de la HBM.
Pendant ce temps, la galette est découpée en matrices Blackwell individuelles, testées et triées, séparant les bonnes matrices pour la suite. Le processus de puce sur galette sur substrat fixe 32 matrices Blackwell et 128 piles HBM sur une galette d'interposition en silicium personnalisée.
Des traces d'interconnexion métallique y sont gravées directement, connectant les GPU Blackwell et les piles HBM dans chaque boîtier système.
Les DPU BlueField-3 pour le déchargement et l'accélération du réseau, du stockage et de la sécurité sont soigneusement assemblés dans les plateaux de calcul GB300.
NVLink est la liaison à haute vitesse révolutionnaire que NVIDIA a inventée pour connecter plusieurs GPU et passer à l'échelle d'un GPU virtuel massif. Le plateau de commutateur NVLink est construit avec des puces de commutation NVLink, offrant 14,4 téraoctets par seconde de bande passante totale.
Les colonnes NVLink forment un fond de panier personnalisé à couplage aveugle avec 5 000 câbles en cuivre connectant les 72 Blackwell ou 144 matrices de GPU en un seul GPU géant, délivrant 130 téraoctets par seconde de bande passante totale, soit presque le pic de trafic de l'internet mondial.
Des techniciens qualifiés assemblent chacune de ces pièces dans un superordinateur d'IA à l'échelle d'une baie. Au total, 1,2 million de composants, 2 miles de câble en cuivre, 130 billions de transistors, pour un poids de près de 2 tonnes.
Du silicium en Arizona et dans l'Indiana aux systèmes au Texas, Blackwell et les future générations d'usines d'IA NVIDIA seront construits en Amérique, écrivant un nouveau chapitre de l'histoire et de l'industrie américaines.
Le retour de l'Amérique à la fabrication et à la réindustrialisation, relancé par l'ère de l'IA. L'ère de l'IA a commencé. Fabriqué en Amérique. Fabriqué pour le monde.
Nous fabriquons à nouveau en Amérique. Le président Trump m'a demandé de ramener la fabrication pour la sécurité nationale et pour les emplois. Neuf mois plus tard, nous fabriquons Blackwell en Arizona.
Roadmap Rubin et Infrastructure de Prochaine Génération
La co-conception extrême nous donne un facteur 10 par génération. Voici le premier superordinateur d'IA que nous avons fabriqué en 2016 pour OpenAI. Pour rendre les ordinateurs 10 fois plus rapides, nous devons travailler sur toutes ces puces en même temps.
Voici notre troisième génération d'ordinateur à l'échelle d'une baie NVLink 72. Le GB200 était le premier. Cette génération est totalement sans câble. Nous préparons Rubin pour qu'il soit en production à la même époque l'année prochaine. Regardez cette beauté.
Par rapport au DGX-1 que j'ai livré il y a 9 ans, celui-ci a 100 fois la performance. 100 de ces vieux ordinateurs seraient remplacés par cette seule baie. Voici le plateau de calcul Rubin. Il est incroyablement facile à installer.
Nous avons ajouté un processeur de contexte car les IA ont besoin de plus en plus de mémoire pour se souvenir des conversations. Toute cette récupération de mémoire nécessite un nouveau processeur révolutionnaire : le BlueField-4.
Ensuite, il y a le commutateur NVLink, qui nous permet de connecter tous les ordinateurs ensemble. Ce commutateur a une bande passante plusieurs fois supérieure au pic de trafic internet du monde entier.
Voici le commutateur Ethernet Spectrum-X, conçu pour que les processeurs puissent parler simultanément sans engorger le réseau. Que vous utilisiez l'InfiniBand ou l'Ethernet, nous avons d'excellentes structures d'extension pour vous.
Voici à quoi cela ressemble — une baie de 2 tonnes avec 1,5 million de pièces. La colonne vertébrale transporte tout le trafic internet mondial en une seconde. Elle est refroidie à 100 % par liquide pour la génération de jetons la plus rapide au monde.
Un centre de données d'un gigawatt compterait environ 8 000 à 9 000 de ces baies. C'est une future usine d'IA.
Nous avons commencé par concevoir des puces et maintenant nous concevons des usines d'IA entières. Nous avons créé une technologie qui permet à nos partenaires de s'intégrer numériquement dans cette usine. Laissez-moi vous montrer.
Omniverse DSX : Le Plan des Usines d'IA
La prochaine révolution industrielle est là. Et avec elle, un nouveau type d'usine. L'infrastructure d'IA est un défi à l'échelle de l'écosystème, nécessitant la collaboration de centaines d'entreprises.
NVIDIA Omniverse DSX est un plan directeur pour construire et exploiter des usines d'IA à l'échelle giga. Pour la première fois, le bâtiment, l'alimentation et le refroidissement sont co-conçus avec la pile d'infrastructure d'IA de NVIDIA.
Cela commence dans le jumeau numérique Omniverse. Jacobs Engineering optimise la densité de calcul et l'agencement pour maximiser la génération de jetons en fonction des contraintes de puissance. Ils agrègent des actifs OpenUSD prêts pour la simulation provenant de Siemens, Schneider Electric, Trane et Vertiv dans la gestion du cycle de vie des produits de PTC.
Puis ils simulent les aspects thermiques et électriques avec des outils accélérés par CUDA d'ETAP et Cadence. Une fois conçus, les partenaires de NVIDIA comme Bechtel et Vertiv livrent des modules préfabriqués. Construits en usine, testés et prêts à être branchés. Cela réduit considérablement le temps de construction, permettant d'accélérer les revenus.
Lorsque l'usine d'IA physique devient opérationnelle, le jumeau numérique agit comme un système d'exploitation. Les ingénieurs sollicitent des agents d'IA de Phaidra et Emerald AI, préalablement entraînés dans le jumeau numérique, pour optimiser la consommation d'énergie et réduire la pression sur l'usine d'IA et le réseau électrique.
Au total, pour une usine d'IA d'un gigawatt, les optimisations DSX peuvent rapporter des milliards de dollars de revenus supplémentaires par an. Au Texas, en Géorgie et au Nevada, les partenaires de NVIDIA donnent vie au DSX.
En Virginie, NVIDIA construit un centre de recherche sur les usines d'IA utilisant DSX pour tester et produire Vera Rubin, de l'infrastructure au logiciel. Avec DSX, les partenaires de NVIDIA dans le monde entier peuvent construire et mettre en service des infrastructures d'IA plus rapidement que jamais.
Écosystème Logiciel et IA d'Entreprise
Des entreprises construisent ces clouds de GPU pour servir les startups, et je l'apprécie. NVIDIA est partout ; nous intégrons nos bibliothèques et nos modèles open-source dans AWS, Google Cloud et Microsoft Azure.
Quel que soit le cloud que vous utilisez, la pile NVIDIA fonctionne incroyablement bien. Nous intégrons également des bibliothèques dans les SaaS mondiaux, comme ServiceNow, SAP et Synopsys. Bill McDermott et moi travaillons pour intégrer NeMo et Nemotron dans SAP.
ServiceNow gère 85 % des flux de travail des entreprises mondiales. Christian Klein et moi intégrons nos systèmes d'IA dans SAP. Nous travaillons également avec Synopsys et Cadence pour accélérer leurs outils et créer des agents d'IA.
L'IA va également amplifier les défis de la cybersécurité, nous avons donc besoin d'un défenseur comme CrowdStrike. George est ici — je l'ai vu plus tôt. Nous nous associons à CrowdStrike pour créer des agents d'IA de cybersécurité.
J'ai une deuxième annonce : Palantir Ontology. Alex est ici — je lui parlais justement plus tôt. Ils transforment les données et le jugement humain en connaissances. Nous travaillons avec Palantir pour accélérer tout ce qu'ils font.
IA Physique, Robotique et Jumeaux Numériques
L'IA physique nécessite trois ordinateurs. Vous avez besoin du Grace Blackwell NVLink 72 pour l'entraîner, de l'ordinateur Omniverse pour la simuler dans un jumeau numérique, et de l'ordinateur robotique Jetson Thor pour la faire fonctionner.
Ces trois ordinateurs font tous tourner CUDA pour faire progresser l'IA physique qui comprend la causalité et les lois de la physique. Nous les utilisons pour créer notre usine au Texas. Jetons un coup d'œil.
Une fois que nous avons créé l'usine robotisée, nous avons des robots à l'intérieur qui ont également besoin d'IA physique. Ils travaillent dans le jumeau numérique pour apprendre à être de bons robots.
L'Amérique se réindustrialise, relocalisant la fabrication dans tous les secteurs. À Houston, au Texas, Foxconn construit une installation robotique de pointe pour la fabrication de systèmes d'infrastructure d'IA NVIDIA. Avec les pénuries de main-d'œuvre et les écarts de compétences, la numérisation, la robotique et l'IA physique sont plus importantes que jamais.
L'usine est née numérique dans l'Omniverse. Les ingénieurs de Foxconn assemblent leur usine virtuelle dans une solution de jumeau numérique Siemens développée sur les technologies Omniverse. Chaque système — mécanique, électrique, plomberie — est validé avant la construction.
La simulation d'usine de Siemens effectue des optimisations d'exploration de l'espace de conception pour identifier l'agencement idéal. Lorsqu'un goulot d'étranglement apparaît, les ingénieurs mettent à jour l'agencement avec des modifications gérées par Siemens Teamcenter.
Dans Isaac Sim, le même jumeau numérique est utilisé pour entraîner et simuler des IA de robots. Dans la zone d'assemblage, des manipulateurs FANUC construisent les modules de plateau GB300. Des manipulateurs bimanuels de Fii et Skild AI installent des barres omnibus dans les plateaux, et des AMR transportent les plateaux vers les modules de test.
Ensuite, Foxconn utilise l'Omniverse pour la simulation de capteurs à grande échelle où les IA de robots apprennent à travailler en flotte. Dans l'Omniverse, des agents d'IA de vision basés sur NVIDIA Metropolis et Cosmos surveillent les flottes de robots et les travailleurs d'en haut pour superviser les opérations et alerter les ingénieurs de Foxconn en cas d'anomalies, de violations de sécurité ou même de problèmes de qualité.
Et pour former les nouveaux employés, des agents alimentent des coachs d'IA interactifs pour faciliter l'intégration des travailleurs. L'ère de la réindustrialisation américaine est là, avec des humains et des robots travaillant ensemble.
Je tiens à remercier notre partenaire Foxconn. L'usine est essentiellement un robot orchestrant des robots pour construire des objets robotiques. Le logiciel nécessaire est si intense qu'il faut utiliser un jumeau numérique pour le concevoir et l'exploiter.
Je suis heureux de voir Caterpillar intégrer des jumeaux numériques. Figure, fondée par Brett Adcock, est l'un des systèmes robotiques les plus avancés. Nous travaillons ensemble pour entraîner l'IA physique de leurs robots humanoïdes.
Les robots humanoïdes seront probablement l'un des plus grands marchés grand public et industriels. Agility, Johnson & Johnson et Disney Research travaillent tous avec nous pour entraîner des robots en utilisant notre cadre de simulation Newton.
Mesdames et messieurs, Disney Blue ! Dites-moi qu'il n'est pas adorable. Nous en voulons tous un. Tout ce que vous voyez est une simulation dans l'Omniverse. Ces jumeaux numériques permettent à des robots comme Blue d'apprendre à interagir avec le monde en temps réel.
Robot-taxis et Conclusion
Alors que la robotique humanoïde est en développement, le robot sur roues est à un point d'inflexion : le robot-taxi. Nous annonçons NVIDIA Drive Hyperion afin que les constructeurs automobiles puissent créer des véhicules prêts pour le robot-taxi.
Drive Hyperion est intégré dans Lucid, Mercedes-Benz et Stellantis. Des développeurs comme Wayve et Aurora peuvent faire tourner leurs systèmes sur ce châssis standard, qui est devenu une plateforme informatique sur roues. Jetons un coup d'œil.
Le point d'inflexion du robot-taxi est presque arrivé. À l'avenir, un billion de miles parcourus par an seront augmentés par des robots-taxis. Aujourd'hui, nous annonçons un partenariat avec Uber pour connecter ces voitures dans un réseau mondial.
Au cœur de cela se trouvent deux transitions de plateforme : de l'informatique à usage général à l'informatique accélérée, et des logiciels écrits à la main à l'IA. C'est pourquoi nous connaissons une croissance aussi incroyable.
Nous avons parlé d'informatique quantique, de modèles ouverts, d'entreprise et de robotique. NVIDIA a de nouvelles plateformes pour la 6G, les voitures et les usines. Merci de nous avoir rejoints aujourd'hui à Washington, D.C. et de rendre sa grandeur à l'Amérique !