Jensen Huang

NVIDIA GTC Washington D.C. Keynote

28 octobre 2025

Technologie & Intelligence Artificielle
Illustration de Jensen Huang

L'Héritage de l'Innovation Américaine

Narrateur

L'Amérique, terre d'innovation, où l'invention a façonné le destin et la technologie a permis aux rêves de prendre leur envol.

Narrateur

Aux Bell Labs, le transistor est né, déclenchant l'ère des semi-conducteurs et donnant naissance à la Silicon Valley.

Narrateur

Hedy Lamarr a réimaginé la communication, ouvrant la voie à la connectivité sans fil.

Narrateur

Le System/360 d'IBM a placé un ordinateur universel au cœur de l'industrie.

Narrateur

Le microprocesseur d'Intel a propulsé l'ère numérique, et les superordinateurs de Cray ont repoussé les frontières de la science.

Seymour Cray

Nous pensons donc être au début de quelque chose avec cette technologie, et we're going to go as fast as we can.

Narrateur

Apple a rendu l'informatique personnelle.

Macintosh

Bonjour, je suis Macintosh.

Narrateur

Microsoft a ouvert la fenêtre sur un nouveau monde de logiciels.

Narrateur

Bien avant le web, vous aviez le courrier électronique. Des chercheurs du gouvernement américain ont construit l'ARPANET, connectant les premiers ordinateurs, le fondement de l'internet.

Macintosh

Un iPod, un téléphone. Vous comprenez ?

Narrateur

Puis Apple a de nouveau mis mille chansons dans votre poche et l'internet dans votre main.

Narrateur

Chaque époque, un bond en avant.

John F. Kennedy

Nous choisissons d'aller sur la lune au cours de cette décennie et de faire les autres choses, non pas parce qu'elles sont faciles, mais parce qu'elles sont difficiles.

Narrateur

À chaque étape, l'Amérique a mené.

Neil Armstrong

C'est un petit pas pour l'homme, un bond de géant pour l'humanité.

Narrateur

Maintenant, la prochaine ère est arrivée, lancée par un nouveau modèle informatique révolutionnaire.

Jensen Huang

C'est probablement la contribution la plus importante que nous ayons apportée à l'industrie informatique. Elle sera probablement reconnue comme une révolution.

Jensen Huang

L'apprentissage automatique est une branche de l'intelligence artificielle, des ordinateurs qui semblent presque penser.

Jensen Huang

La quantité de ressources informatiques est finalement ce qui va booster ce domaine.

Narrateur

L'intelligence artificielle, la nouvelle révolution industrielle.

Narrateur

En son cœur, les GPU NVIDIA, inventés ici en Amérique. Comme l'électricité et l'internet, l'IA est une infrastructure essentielle.

Narrateur

Chaque entreprise l'utilisera, chaque nation la construira.

John F. Kennedy

Gagner cette compétition sera un test de nos capacités comme rien d'autre depuis l'aube de l'ère spatiale.

Narrateur

Et aujourd'hui, des usines d'IA voient le jour, construites en Amérique, pour les scientifiques, les ingénieurs et les rêveurs des universités, des startups et de l'industrie.

Elon Musk

Je pense que nous voulons essayer d'atteindre de nouveaux sommets en tant que civilisation, en découvrant la nature de l'univers.

Narrateur

Et maintenant, les innovateurs américains ouvrent la voie à l'abondance, sauvant des vies, transformant la vision en réalité, nous prêtant main-forte et livrant l'avenir.

Narrateur

Nous alimenterons bientôt tout cela avec une énergie propre illimitée. Nous étendrons la portée de l'humanité jusqu'aux étoiles.

Narrateur

C'est le prochain moment Apollo de l'Amérique. Ensemble, nous faisons le prochain grand bond pour aller hardiment là où personne n'est allé auparavant. Et c'est ici que tout commence.

Ouverture du GTC et l'Informatique Accélérée

Annonceur

Accueillons sur scène le fondateur et PDG de NVIDIA, Jensen Huang.

Jensen Huang

Washington, D.C. ! Bienvenue au GTC. Il est difficile de ne pas être sentimental et fier de l'Amérique. Cette vidéo n'était-elle pas incroyable ? Merci. L'équipe créative de NVIDIA fait un travail extraordinaire. Bienvenue au GTC ; nous avons beaucoup de choses à aborder avec vous aujourd'hui. Le GTC est l'endroit où nous parlons de l'industrie, de la science, de l'informatique, du présent et de l'avenir. Avant de commencer, je tiens à remercier tous nos partenaires qui ont aidé à parrainer ce grand événement. Vous les verrez partout sur le salon. Ils sont ici pour vous rencontrer et ils sont vraiment formidables. Nous ne pourrions pas faire ce que nous faisons sans tous nos partenaires de l'écosystème. C'est le Super Bowl de l'IA, disent les gens, et par conséquent, chaque Super Bowl devrait avoir un spectacle d'avant-match incroyable. Que pensez-vous du spectacle d'avant-match, de nos athlètes de haut niveau et de notre casting de stars ? NVIDIA a inventé un nouveau modèle informatique pour la première fois en 60 ans, comme vous l'avez vu dans la vidéo. Un nouveau modèle informatique apparaît rarement ; cela demande énormément de temps et de conditions. Nous avons inventé ce modèle informatique parce que nous voulions résoudre des problèmes que les ordinateurs à usage général ne pouvaient pas résoudre. Nous avons également observé qu'un jour la performance et la puissance des transistors ralentiraient, et que la loi de Moore ne continuerait pas au-delà des lois de la physique. Ce moment est maintenant arrivé. La mise à l'échelle de Dennard s'est arrêtée il y a près d'une décennie, et la performance des transistors ainsi que la puissance associée ont considérablement ralenti. Et pourtant, le nombre de transistors a continué. Depuis 30 ans, nous faisons progresser cette forme d'informatique que nous appelons l'informatique accélérée. Nous avons inventé le GPU et le modèle de programmation appelé CUDA. Nous avons observé que si nous pouvions ajouter un processeur tirant parti de l'informatique parallèle à un CPU de traitement séquentiel, nous pourrions étendre les capacités de l'informatique bien au-delà. Ce point d'inflexion est réellement arrivé. L'informatique accélérée est un modèle de programmation fondamentalement différent. Vous ne pouvez pas simplement prendre un logiciel CPU écrit à la main et le mettre sur un GPU pour qu'il fonctionne correctement. En fait, si vous faites cela, il fonctionne plus lentement. Vous devez réinventer de nouveaux algorithmes, créer de nouvelles bibliothèques et réécrire l'application, c'est pourquoi cela a pris si longtemps. Il nous a fallu près de 30 ans pour en arriver là, mais nous l'avons fait domaine par domaine. C'est le trésor de notre entreprise. Le GPU est important, mais sans un modèle de programmation au-dessus et sans l'engagement de le maintenir compatible au fil des générations — nous en sommes maintenant à CUDA 13 et bientôt CUDA 14 — les développeurs ne cibleraient pas cette plateforme. cuLitho, la lithographie computationnelle, nous a pris près de sept ans pour aboutir, et maintenant TSMC, Samsung et ASML l'utilisent. Les solveurs creux pour les applications CAE, cuOpt pour l'optimisation numérique, et Warp, le solveur Python pour la simulation, ont battu des records. cuDNN a lancé l'IA tout entière, et Megatron Core a rendu possible l'entraînement de modèles de langage extrêmement vastes. MONAI est le cadre d'IA pour l'imagerie médicale numéro un au monde. N'oubliez pas de suivre la conférence de Kimberly pour en savoir plus sur la santé. Ce n'est qu'un échantillon des 350 bibliothèques differentes de notre entreprise. Chacune a redessiné l'algorithme nécessaire à l'informatique accélérée, a permis aux partenaires de l'écosystème d'en profiter et nous a ouvert de nouveaux marchés. Jetons un coup d'œil à ce que CUDA-X peut faire.

Voix off

Prêt, partez !

Télécommunications, 6G et AI on RAN

Jensen Huang

C'est incroyable, n'est-ce pas ? Tout ce que vous avez vu était une simulation — pas d'art, pas d'animation. C'est la beauté des mathématiques et de l'informatique de pointe. Tous les secteurs ont été couverts, de la santé à la fabrication, en passant par la robotique, les véhicules autonomes et les jeux vidéo. Ce premier plan était la première application que NVIDIA ait jamais fait tourner en 1993. Nous avons continué à croire en ce que nous essayions de faire. C'est un voyage incroyable. Je tiens à remercier tous les employés de NVIDIA pour tout ce que vous avez fait. Nous avons de nombreux secteurs à couvrir : l'IA, la 6G, le quantique, l'informatique d'entreprise, la robotique et les usines. Les télécommunications sont le moteur de notre économie et de notre sécurité nationale. Cela fait longtemps que nous n'avons pas défini les normes mondiales de la technologie sans fil. Aujourd'hui, le tissu de communication fondamental repose sur des technologies étrangères. Cela doit cesser. Nous avons l'opportunité, lors de ce changement de plateforme, que l'Amérique recommence à innover. Aujourd'hui, nous annonçons une nouvelle gamme de produits : l'ordinateur de réseau radio NVIDIA Aerial, ou ARC. ARC est construit à partir du CPU Grace, du GPU Blackwell et de la mise en réseau Mellanox ConnectX. Tout cela permet de faire fonctionner Aerial, un système de communication sans fil fonctionnant au-dessus de CUDA-X. Nous créons un ordinateur programmable défini par logiciel capable de communiquer sans fil et d'effectuer des traitements d'IA en même temps. Nokia va travailler avec nous pour intégrer notre technologie et réécrire sa structure logicielle. Ils vont faire de NVIDIA Aerial leur future station de base, qui est également compatible avec leurs stations AirScale actuelles. Nous pourrons mettre à jour des millions de stations de base à travers le monde avec la 6G et l'IA. Nous pouvons utiliser l'IA pour le RAN afin de rendre les communications radio plus économes en spectre grâce à l'apprentissage par renforcement et à la mise en forme de faisceau (beamforming). L'amélioration de l'efficacité spectrale aide à augmenter la quantité de données que nous pouvons faire passer par les réseaux sans augmenter l'énergie. Nous pouvons également faire de l'IA sur le RAN — essentiellement du cloud computing pour les télécommunications sans fil. Merci à Justin Hodard pour votre partenariat.

Jensen Huang

Le tissu de communication fondé sur des technologies étrangères doit cesser. Nous avons l'opportunité pour l'Amérique de commencer à innover avec notre propre technologie. Aujourd'hui, nous annonçons un partenariat majeur avec Nokia, le deuxième plus grand fabricant de télécommunications au monde. Il existe des millions de stations de base à travers le monde, et en nous associant, nous pouvons bâtir sur cette technologie basée sur l'informatique accélérée et l'IA. Aujourd'hui, nous annonçons une nouvelle gamme de produits : l'ordinateur de réseau radio NVIDIA Aerial, ARC. Construit à partir du CPU Grace, du GPU Blackwell et du réseau Mellanox ConnectX, il nous permet de faire fonctionner Aerial au-dessus de CUDA-X. Nous créons un ordinateur programmable défini par logiciel capable de communiquer sans fil et de traiter l'IA simultanément. C'est révolutionnaire. Nokia va faire de NVIDIA ARC sa future station de base. Nous pourrons mettre à jour des millions de stations de base avec la 6G et l'IA pour améliorer l'efficacité spectrale et réduire la consommation d'énergie. De plus, nous allons construire un système de cloud computing au-dessus du réseau de télécommunications sans fil : un cloud de robotique industrielle de pointe. C'est là qu'intervient l'IA sur RAN — essentiellement du cloud computing pour les télécommunications sans fil. Merci à Pekka Lundmark pour ce partenariat fantastique.

Jensen Huang

L'IA sur RAN est une toute nouvelle opportunité. AWS a construit un système de cloud computing au-dessus d'internet ; nous allons maintenant faire la même chose au-dessus du réseau de télécommunications sans fil. Ce nouveau cloud sera un cloud de robotique industrielle de pointe. Le cloud computing pourra aller directement jusqu'à la périphérie, là où les centres de données ne sont pas. Cette annonce est vraiment passionnante. Merci, Justin Hodard, d'aider à ramener la technologie des télécommunications en Amérique.

L'Avenir de l'Informatique Quantique

Jensen Huang

Parlons de l'informatique quantique. En 1981, Richard Feynman a imaginé un ordinateur capable de simuler directement la nature, car la nature est quantique. 40 ans plus tard, l'industrie a réalisé une percée. Il est désormais possible de fabriquer un qubit logique cohérent et stable. Les qubits sont incroyablement fragiles et nécessitent des environnements bien contrôlés pour la correction d'erreurs. Nous réalisons maintenant qu'il est essentiel de connecter un ordinateur quantique directement à un superordinateur GPU pour la correction d'erreurs, l'étalonnage et les simulations hybrides. C'est l'avenir de l'informatique quantique.

Narrateur

Il existe de nombreuses façons de construire un ordinateur quantique. Chacune utilise des qubits, ou bits quantiques, comme unité de base. Mais quelle que soit la méthode, tous les qubits, qu'il s'agisse de qubits supraconducteurs, d'ions piégés, d'atomes neutres ou de photons, partagent le même défi. Ils sont fragiles et extrêmement sensibles au bruit. Les qubits d'aujourd'hui ne restent stables que pendant quelques centaines d'opérations, mais la résolution de problèmes significatifs nécessite des billions d'opérations. La réponse est la correction d'erreurs quantiques. La mesure perturbe un qubit, ce qui détruit l'information qu'il contient. L'astuce consiste à ajouter des qubits supplémentaires, intriqués, afin que leur mesure nous donne suffisamment d'informations pour calculer où les erreurs se sont produites sans endommager les qubits qui nous intéressent. C'est brillant, mais cela nécessite un calcul conventionnel au-delà de l'état de l'art. C'est pourquoi nous avons construit NVQLinq, une nouvelle architecture d'interconnexion qui relie directement les processeurs quantiques aux GPU NVIDIA. La correction d'erreurs quantiques nécessite de lire les informations des qubits, de calculer où les erreurs se sont produites et de renvoyer les données pour les corriger. NVQLinq est capable de déplacer des téraoctets de données vers et depuis le matériel quantique les milliers de fois par seconde nécessaires à la correction d'erreurs quantiques. Au cœur de ce système se trouve CUDA-Q, notre plateforme ouverte pour l'informatique GPU quantique. En utilisant NVQLinq et CUDA-Q, les chercheurs pourront faire plus que de la simple correction d'erreurs. Ils pourront également orchestrer des dispositifs quantiques et des superordinateurs d'IA pour exécuter des applications GPU quantiques. L'informatique quantique ne remplacera pas les systèmes classiques. Ils travailleront ensemble, fusionnés en une seule plateforme de supercalcul quantique accéléré.

Jensen Huang

Parlons de l'informatique quantique. En 1981, Richard Feynman a imaginé un ordinateur capable de simuler directement la nature. 40 ans plus tard, il est possible de fabriquer un qubit logique cohérent et stable. Les qubits sont fragiles, et toute condition environnementale provoque leur décohérence. Il faut des environnements bien contrôlés et de nombreux qubits physiques pour la correction d'erreurs afin d'inférer l'état du qubit logique. Nous réalisons maintenant qu'il est essentiel de connecter un ordinateur quantique directement à un superordinateur GPU pour la correction d'erreurs, l'étalonnage par l'IA et les simulations hybrides où les ordinateurs travaillent côte à côte. Jetons un coup d'œil.

Narrateur de la présentation vidéo

Il existe de nombreuses façons de construire un ordinateur quantique. Chacune utilise des qubits, des bits quantiques, comme composant de base. Mais quelle que soit la méthode, tous les qubits, qu'il s'agisse de qubits supraconducteurs, d'ions piégés, d'atomes neutres ou de photons, partagent le même défi. Ils sont fragiles et extrêmement sensibles au bruit. Les qubits d'aujourd'hui restent stables pendant seulement quelques centaines d'opérations. Mais résoudre des problèmes significatifs nécessite des milliers de milliards d'opérations. La réponse est la correction d'erreurs quantiques. Mesurer un qubit le perturbe, ce qui détruit les informations qu'il contient. L'astuce consiste à ajouter des qubits supplémentaires, intriqués, de sorte que leur mesure nous donne suffisamment d'informations pour calculer où les erreurs se sont produites sans endommager les qubits qui nous intéressent. C'est génial, mais cela nécessite un calcul conventionnel dépassant l'état de l'art. C'est pourquoi nous avons construit NVQLINK, une nouvelle architecture d'interconnexion qui connecte directement les processeurs quantiques aux GPU de NVIDIA. La correction d'erreurs quantiques nécessite de lire les informations des qubits, de calculer où les erreurs se produisent et de renvoyer les données pour les corriger. NVQLINK est capable de déplacer des téraoctets de données vers et depuis le matériel quantique les milliers de fois par seconde nécessaires à la correction d'erreurs quantiques. Au cœur se trouve CUDA-Q, notre plateforme ouverte pour le calcul GPU quantique. En utilisant NVQLINK et CUDA-Q, les chercheurs pourront faire plus que de la correction d'erreurs. Ils pourront également orchestrer des dispositifs quantiques et des superordinateurs d'IA pour exécuter des applications GPU quantiques. L'informatique quantique ne remplacera pas les systèmes classiques. Ils travailleront ensemble, fusionnés dans une plateforme de supercalcul quantique accélérée unique.

Jensen Huang

Parlons de l'informatique quantique. En 1981, Richard Feynman a imaginé un nouveau type d'ordinateur capable de simuler directement la nature. 40 ans plus tard, nous avons réalisé une percée fondamentale. Il est désormais possible de fabriquer un qubit logique cohérent et stable. Les qubits sont incroyablement fragiles et sensibles aux conditions environnementales. Il faut des environnements extraordinairement bien contrôlés pour effectuer la correction d'erreurs sur les qubits logiques. Nous réalisons maintenant qu'il est essentiel de connecter un ordinateur quantique directement à un superordinateur GPU afin de pouvoir effectuer collectivement la correction d'erreurs, l'étalonnage par IA et les simulations. C'est l'avenir de l'informatique quantique.

Narrateur

Il existe de nombreuses façons de construire un ordinateur quantique. Chacune utilise des qubits, bits quantiques, comme unité de base. Mais quelle que soit la méthode, tous les qubits, qu'il s'agisse de qubits supraconducteurs, d'ions piégés, d'atomes neutres ou de photons, partagent le même défi. Ils sont fragiles et extrêmement sensibles au bruit. Les qubits d'aujourd'hui ne restent stables que pendant quelques centaines d'opérations. Mais résoudre des problèmes significatifs nécessite des milliers de milliards d'opérations. La réponse est la correction d'erreurs quantiques. La mesure perturbe un qubit, ce qui détruit les informations qu'il contient. L'astuce consiste à ajouter des qubits supplémentaires, intriqués, de sorte que leur mesure nous donne suffisamment d'informations pour calculer où les erreurs se sont produites sans endommager les qubits qui nous intéressent. C'est brillant, mais cela nécessite un calcul conventionnel dépassant l'état de l'art. C'est pourquoi nous avons construit NVQLINK, une nouvelle architecture d'interconnexion qui relie directement les processeurs quantiques aux GPU NVIDIA. La correction d'erreurs quantiques nécessite de lire les informations des qubits, de calculer où les erreurs se produisent et de renvoyer les données pour les corriger. NVQLINK est capable de déplacer des téraoctets de données vers et depuis le matériel quantique les milliers de fois par seconde nécessaires à la correction d'erreurs quantiques. Au cœur se trouve CUDA-Q, notre plateforme ouverte pour le calcul GPU quantique. En utilisant NVQLINK et CUDA-Q, les chercheurs pourront faire plus que de la simple correction d'erreurs. Ils pourront également orchestrer des dispositifs quantiques et des superordinateurs d'IA pour exécuter des applications GPU quantiques. L'informatique quantique ne remplacera pas les systèmes classiques. Ils travailleront ensemble, fusionnés dans une seule plateforme de supercalcul quantique accélérée.

Jensen Huang

Wow, cette scène est vraiment longue.

Jensen Huang

Vous savez, nous les PDG, nous ne nous contentons pas de rester assis à notre bureau à taper. C'est un travail physique.

Jensen Huang

Aujourd'hui, nous annonçons le NVQLink, rendu possible par une interconnexion qui assure le contrôle, l'étalonnage et la correction d'erreurs des ordinateurs quantiques, tout en connectant les QPU et les superordinateurs GPU pour des simulations hybrides.

Jensen Huang

C'est également totalement évolutif. Il ne se contente pas de corriger les erreurs pour les quelques qubits d'aujourd'hui ; il s'adapte aux dizaines ou centaines de milliers de qubits que nous aurons à l'avenir.

Jensen Huang

Nous avons donc maintenant une architecture capable d'assurer le contrôle, la co-simulation, la correction d'erreurs quantiques et d'évoluer vers cet avenir.

Jensen Huang

Le soutien de l'industrie a été incroyable. CUDA a été conçu pour l'informatique accélérée GPU-CPU — utiliser le bon outil pour le bon travail.

Jensen Huang

Maintenant, CUDA-Q a été étendu au-delà de CUDA afin de pouvoir prendre en charge les QPU et permettre au calcul de faire des allers-retours en quelques microsecondes seulement. Cette faible latence est essentielle pour coopérer avec l'ordinateur quantique.

Jensen Huang

CUDA-Q est une percée incroyable adoptée par de nombreux développeurs. Nous annonçons aujourd'hui 17 entreprises d'informatique quantique différentes prenant en charge le NVQLink.

Partenariat avec le Département de l'Énergie (DOE)

Jensen Huang

Et je suis tellement enthousiaste à ce sujet — huit laboratoires différents du DOE : Berkeley, Brookhaven, Fermilab, Lincoln Laboratory, Los Alamos, Oak Ridge, Pacific Northwest et Sandia National Lab.

Jensen Huang

Presque tous les laboratoires du DOE nous ont sollicités, travaillant avec notre écosystème d'entreprises d'informatique quantique afin que nous puissions intégrer l'informatique quantique dans l'avenir de la science.

Jensen Huang

J'ai une annonce supplémentaire. Aujourd'hui, le département de l'Énergie s'associe à NVIDIA pour construire sept nouveaux superordinateurs d'IA afin de faire progresser la science de notre nation.

Jensen Huang

Je dois saluer le secrétaire Chris Wright. Il a apporté tellement d'énergie et de passion au DOE pour s'assurer que l'Amérique mène à nouveau la science.

Jensen Huang

L'informatique est l'instrument fondamental de la science, et we're going through platform shifts toward accelerated computing and AI. Future supercomputers will be GPU-based.

Jensen Huang

La simulation physique de principe sera augmentée et mise à l'échelle à l'aide de modèles de substitution d'IA. L'informatique classique sera également améliorée par l'informatique quantique.

Jensen Huang

Nous avons tellement de signaux et de données à échantillonner dans le monde que la télédétection est plus importante que jamais. Ces laboratoires doivent devenir des usines robotisées.

Jensen Huang

Toutes ces technologies arrivent dans la science en même temps. Le secrétaire Wright veut que le DOE se dynamise pour s'assurer que les États-Unis restent à l'avant-garde de la science.

Redéfinition de l'IA et Usines de Jetons

Jensen Huang

Parlons de l'IA. Qu'est-ce que l'IA ? La plupart des gens diraient que l'IA est un chatbot, et à juste titre. ChatGPT est à l'avant-garde de ce que les gens considèrent comme de l'IA.

Jensen Huang

Cependant, ces superordinateurs scientifiques ne vont pas faire tourner des chatbots ; ils vont faire de la science fondamentale. Le monde de l'IA est bien plus qu'un chatbot.

Jensen Huang

Bien que l'AGI soit fondamentalement critique, l'IA est bien plus. Elle a complètement réinventé la pile informatique.

Jensen Huang

Auparavant, le logiciel était codé à la main pour les CPU. Aujourd'hui, l'IA, c'est de l'apprentissage automatique et de la programmation gourmande en données entraînée sur un GPU.

Jensen Huang

Pour que cela se produise, toute la pile informatique a changé. Vous voyez ici une pile fondamentalement différente.

Jensen Huang

Cette industrie a besoin d'énergie pour croître. L'initiative pro-énergie du président Trump et sa reconnaissance de ce besoin ont mis le poids de la nation derrière la croissance énergétique, ce qui a complètement changé la donne.

Jensen Huang

Je tiens à remercier le président Trump pour cela. En plus de l'énergie, il y a ces GPU, intégrés dans une infrastructure géante.

Jensen Huang

Ces machines transforment l'énergie en nombres appelés jetons. Les jetons sont le vocabulaire de l'IA. Vous pouvez transformer en jetons presque tout ce qui a une structure : des mots, des images, des produits chimiques ou des gènes.

Jensen Huang

Une fois que vous les avez transformés en jetons, l'IA peut en apprendre le sens, puis traduire, répondre et générer. Elle fait des progrès extraordinaires car ces concepts s'appliquent à tout, des protéines aux robots.

Jensen Huang

Au-dessus de ces modèles se trouvent les applications. Il n'existe pas de modèle universel unique, mais l'IA a un impact universel. Nous avons la multi-modalité, des modèles CNN, des réseaux de neurones graphiques, et plus encore.

Jensen Huang

Vous pouvez avoir des modèles optimisés pour la perception spatiale ou pour de longues séquences. Au sommet de ces architectures de modèles se trouvent les applications.

Jensen Huang

Dans le passé, le logiciel consistait à créer des outils comme Excel ou Word. L'industrie des outils n'a qu'une certaine taille, mais l'IA n'est pas un outil — l'IA est un travail. C'est la différence profonde.

Jensen Huang

L'IA se réfère à des travailleurs qui peuvent réellement utiliser des outils. Par exemple, Perplexity utilise des navigateurs web pour faire des achats, et Cursor est un système d'IA agentique que chaque ingénieur logiciel chez NVIDIA utilise pour générer du code.

Jensen Huang

Qu'il s'agisse de chatbots, de biologie numérique ou du chauffeur IA à l'intérieur d'un robot-taxi, la technologie est désormais capable de travailler et de nous aider à être plus productifs.

Jensen Huang

L'IA mobilise l'économie mondiale de cent mille milliards de dollars pour nous aider à croître malgré les pénuries de main-d'œuvre. De plus, l'IA elle-même est une nouvelle industrie.

Jensen Huang

Il y a maintenant une usine qui doit produire des jetons. Dans le passé, il ne fallait pas beaucoup de calcul pour utiliser Excel, mais dans ce nouveau monde, nous avons besoin d'un ordinateur qui comprenne le contexte en permanence.

Jensen Huang

Chaque fois que vous demandez à une IA de faire quelque chose, elle doit traiter le contexte environnemental, raisonner étape par étape et exécuter un plan. Cela nécessite un nouveau type de système : une usine d'IA.

Jensen Huang

Une usine d'IA ne ressemble en rien à un centre de données du passé. Son but est de produire des jetons intelligents à des rythmes incroyables et de manière rentable. À l'intérieur de ces usines se trouvent des montagnes de puces.

Lois de Mise à l'Échelle et Réflexion

Jensen Huang

Quelque chose de profond s'est produit cette année. Tout d'abord, nous avons trouvé comment rendre l'IA beaucoup plus intelligente. Au lieu d'un simple pré-entraînement — qui est essentiellement de la mémorisation — nous avons progressé.

Jensen Huang

Le pré-entraînement n'a jamais été destiné à être la fin de l'éducation ; il enseigne les compétences de base pour que vous puissiez apprendre tout le reste. Vient ensuite le post-entraînement, qui enseigne les compétences pour résoudre des problèmes et raisonner.

Jensen Huang

Ensuite, le calcul entre vraiment en jeu avec la réflexion. Nous nous ancrons constamment dans de nouvelles connaissances et nous réfléchissons. C'est cela l'intelligence.

Jensen Huang

Nous avons donc maintenant trois compétences technologiques : le pré-entraînement, le post-entraînement et la réflexion. La réflexion impose une charge de calcul incroyable à l'infrastructure car elle réfléchit en notre nom.

Jensen Huang

J'avais l'habitude d'entendre des gens dire que l'inférence est facile et que NVIDIA devrait se concentrer sur l'entraînement. Mais comment la réflexion pourrait-elle être facile ? Régurgiter du contenu mémorisé est facile ; réfléchir est difficile.

Jensen Huang

Ces trois lois de mise à l'échelle ont mis une pression immense sur la quantité de calcul. Des modèles plus intelligents nécessitent plus de calcul, et à mesure que les modèles deviennent plus intelligents, plus de gens les utilisent.

Jensen Huang

Plus elle est intelligente, plus les gens l'utilisent, et plus le calcul est nécessaire. Cette année, les modèles d'IA sont devenus assez intelligents pour qu'il vaille la peine de payer pour eux.

Jensen Huang

Si quoi que ce soit arrive, je veux être le premier à sortir. Je plaisante. C'est probablement juste le déjeuner. Mon estomac. C'était moi ?

Jensen Huang

Où en étais-je ? Plus vos modèles sont intelligents, plus les gens les utilisent. Ils sont maintenant mieux ancrés et capables de raisonner. Les modèles d'IA sont devenus assez bons pour mériter un paiement.

Jensen Huang

Cursor, ElevenLabs, Synthesia et OpenAI en sont tous des exemples. Nous avons maintenant deux exponentielles : le besoin de calcul des lois de mise à l'échelle et le nombre croissant d'utilisateurs.

Jensen Huang

NVIDIA paie volontiers pour les licences Cursor car cela rend nos chercheurs plus productifs. Ces deux exponentielles mettent sous pression les ressources informatiques mondiales.

Co-conception Extrême et Architecture Blackwell

Jensen Huang

La loi de Moore est en grande partie terminée. Si nous ne trouvons pas de moyen de réduire les coûts, le cycle vertueux s'arrêtera. Nous avons atteint ce cycle vertueux avec CUDA après 30 ans.

Jensen Huang

Plus les gens créent d'applications, plus CUDA a de la valeur. L'IA a également atteint ce point. Plus l'IA devient intelligente, plus elle génère de profits, ce qui conduit à plus de calcul et à des modèles plus intelligents.

Jensen Huang

Nous devons réduire les coûts de manière considérable pour améliorer l'expérience utilisateur et maintenir ce cycle. Mais comment faire alors que la loi de Moore a atteint sa limite ? La réponse est la co-conception.

Jensen Huang

On ne peut pas se contenter de concevoir des puces en espérant que tout le reste aille plus vite. Nous devons multiplier les exponentielles par une co-conception extrême. NVIDIA est la seule entreprise qui réarchitecture tout à partir de zéro.

Jensen Huang

Nous avons créé un ordinateur qui s'est étendu à une baie entière. Ensuite, nous l'avons encore agrandi en inventant l'Ethernet Spectrum-X. Spectrum-X est conçu spécifiquement pour la performance de l'IA.

Jensen Huang

Nous pouvons remplir une pièce entière de superordinateurs et connecter plusieurs centres de données ensemble ; nous appelons cela Spectrum-X GigaScale. Les avantages de performance de cette co-conception extrême sont choquants.

Jensen Huang

Depuis l'IBM System/360, je ne pense pas qu'un ordinateur ait été réinventé ainsi à partir de zéro. Ce système a été difficile à créer, mais essentiellement, nous avons créé quelque chose d'incroyable. Janine, tu peux sortir.

Jensen Huang

Tu dois faire la moitié du chemin. Très bien, c'est un peu comme le bouclier de Captain America. Voici le NVLink 72. Si nous devions créer une puce GPU géante, voici à quoi elle ressemblerait.

Jensen Huang

Toutes ces puces sont maintenant placées dans une baie géante. Cette baie fait fonctionner toutes ces puces ensemble comme une seule unité. C'est franchement incroyable. Merci, Janine.

Jensen Huang

Très bien, mesdames et messieurs, Janine Paul.

Jensen Huang

À l'avenir, je ferai juste comme Thor. C'est comme quand vous êtes à la maison et que vous ne pouvez pas atteindre la télécommande, alors vous faites comme ça et quelqu'un vous l'apporte. Cette même idée ne m'arrive jamais, pourtant.

Jensen Huang

Nous avons essentiellement créé le NVLink 8 dans le passé. Ces modèles sont maintenant si gigantesques que nous les transformons en tout un tas d'experts. Ce modèle d'IA géant possède différents experts, et nous les mettons sur un GPU.

Jensen Huang

Avec le NVLink 72, chaque expert peut parler aux autres. L'expert principal peut distribuer le travail et les jetons de contexte à tous les autres experts. De plus en plus d'experts sont utilisés.

Jensen Huang

Dans ce système, nous avons 72 GPU et pouvons mettre quatre experts dans un seul GPU. Nous n'avons qu'à réfléchir pour quatre experts par GPU, ce qui rend la différence de vitesse incroyable. Ce test de performance a été réalisé par SemiAnalysis.

Jensen Huang

Ils ont testé tous les GPU testables, et il s'avère que 90 % sont des NVIDIA. Le Grace Blackwell par GPU offre 10 fois la performance du H200. Nous obtenons cela grâce à une co-conception extrême.

Jensen Huang

Cela signifie que nous pouvons répondre beaucoup plus rapidement, mais cette partie suivante est encore plus importante. Le Grace Blackwell NVLink 72 produit des jetons au coût le plus bas du monde. C'est le moyen le plus rentable de générer des jetons.

Jensen Huang

En offrant 10 fois la performance à un coût inférieur, le cycle vertueux peut continuer. Les six principaux CSP — Amazon, CoreWeave, Google, Meta, Microsoft et Oracle — investissent massivement dans les dépenses en capital.

Jensen Huang

Le timing ne pourrait pas être meilleur. Nous avons le Grace Blackwell NVLink 72 en production de masse afin de pouvoir offrir le meilleur TCO. Derrière cela, deux changements de plateforme se produisent en même temps.

Jensen Huang

L'un est le passage de l'informatique à usage général à l'informatique accélérée. L'informatique accélérée gère le traitement des données et des images et exécute SQL ou Spark. Nous avons une bibliothèque incroyable pour tout ce dont vous avez besoin.

Jensen Huang

Le monde se tourne vers l'informatique accélérée, indépendamment de l'IA. Les CSP utilisaient déjà l'apprentissage automatique pour les systèmes de recommandation. Ces architectures sont maintenant meilleures avec l'informatique accélérée.

Jensen Huang

Le GPU de NVIDIA est le seul capable de faire tout cela plus l'IA. Il est sûr de s'appuyer sur notre architecture car nous avons atteint notre point d'inflexion. Je tiens à remercier nos partenaires de la chaîne d'approvisionnement pour leur travail acharné.

Jensen Huang

Nous constatons une croissance extraordinaire pour le Grace Blackwell. Nous avons une visibilité sur un demi-billion de dollars de Blackwell cumulés et les premières montées en puissance de Rubin jusqu'en 2026. C'est le montant des affaires enregistrées jusqu'à présent.

Jensen Huang

Nous avons déjà expédié 6 millions de Blackwell au cours des premiers trimestres de production. Au cours des cinq prochains trimestres, la croissance représentera un demi-billion de dollars. C'est cinq fois le taux de croissance de Hopper.

Jensen Huang

Hopper a vu 4 millions de GPU sur toute sa durée de vie. Blackwell en verra 20 millions. Je tiens à remercier tous nos partenaires. J'ai réalisé une vidéo pour célébrer votre travail. Regardons-la.

Fabrication de Blackwell en Amérique

Narrateur des vidéos promotionnelles

L'ère de l'IA a commencé. Blackwell en est le moteur, une merveille d'ingénierie.

Narrateur des vidéos promotionnelles

En Arizona, cela commence par une galette de silicium vierge. Des centaines d'étapes de traitement de puces et de lithographie ultraviolette construisent chacun des 200 milliards de transistors, couche par couche, sur une galette de 12 pouces.

Narrateur des vidéos promotionnelles

Dans l'Indiana, les piles HBM seront assemblées en parallèle. Les matrices de mémoire HBM avec 1 024 E/S sont fabriquées à l'aide de la technologie EUV avancée. Le perçage du silicium (TSV) est utilisé en fin de chaîne pour connecter 12 piles de mémoire HBM et la matrice de base pour produire de la HBM.

Narrateur des vidéos promotionnelles

Pendant ce temps, la galette est découpée en matrices Blackwell individuelles, testées et triées, séparant les bonnes matrices pour la suite. Le processus de puce sur galette sur substrat fixe 32 matrices Blackwell et 128 piles HBM sur une galette d'interposition en silicium personnalisée.

Narrateur des vidéos promotionnelles

Des traces d'interconnexion métallique y sont gravées directement, connectant les GPU Blackwell et les piles HBM dans chaque boîtier système.

Narrateur des vidéos promotionnelles

Les DPU BlueField-3 pour le déchargement et l'accélération du réseau, du stockage et de la sécurité sont soigneusement assemblés dans les plateaux de calcul GB300.

Narrateur des vidéos promotionnelles

NVLink est la liaison à haute vitesse révolutionnaire que NVIDIA a inventée pour connecter plusieurs GPU et passer à l'échelle d'un GPU virtuel massif. Le plateau de commutateur NVLink est construit avec des puces de commutation NVLink, offrant 14,4 téraoctets par seconde de bande passante totale.

Narrateur des vidéos promotionnelles

Les colonnes NVLink forment un fond de panier personnalisé à couplage aveugle avec 5 000 câbles en cuivre connectant les 72 Blackwell ou 144 matrices de GPU en un seul GPU géant, délivrant 130 téraoctets par seconde de bande passante totale, soit presque le pic de trafic de l'internet mondial.

Narrateur des vidéos promotionnelles

Des techniciens qualifiés assemblent chacune de ces pièces dans un superordinateur d'IA à l'échelle d'une baie. Au total, 1,2 million de composants, 2 miles de câble en cuivre, 130 billions de transistors, pour un poids de près de 2 tonnes.

Narrateur des vidéos promotionnelles

Du silicium en Arizona et dans l'Indiana aux systèmes au Texas, Blackwell et les future générations d'usines d'IA NVIDIA seront construits en Amérique, écrivant un nouveau chapitre de l'histoire et de l'industrie américaines.

Narrateur des vidéos promotionnelles

Le retour de l'Amérique à la fabrication et à la réindustrialisation, relancé par l'ère de l'IA. L'ère de l'IA a commencé. Fabriqué en Amérique. Fabriqué pour le monde.

Jensen Huang

Nous fabriquons à nouveau en Amérique. Le président Trump m'a demandé de ramener la fabrication pour la sécurité nationale et pour les emplois. Neuf mois plus tard, nous fabriquons Blackwell en Arizona.

Roadmap Rubin et Infrastructure de Prochaine Génération

Jensen Huang

La co-conception extrême nous donne un facteur 10 par génération. Voici le premier superordinateur d'IA que nous avons fabriqué en 2016 pour OpenAI. Pour rendre les ordinateurs 10 fois plus rapides, nous devons travailler sur toutes ces puces en même temps.

Jensen Huang

Voici notre troisième génération d'ordinateur à l'échelle d'une baie NVLink 72. Le GB200 était le premier. Cette génération est totalement sans câble. Nous préparons Rubin pour qu'il soit en production à la même époque l'année prochaine. Regardez cette beauté.

Jensen Huang

Par rapport au DGX-1 que j'ai livré il y a 9 ans, celui-ci a 100 fois la performance. 100 de ces vieux ordinateurs seraient remplacés par cette seule baie. Voici le plateau de calcul Rubin. Il est incroyablement facile à installer.

Jensen Huang

Nous avons ajouté un processeur de contexte car les IA ont besoin de plus en plus de mémoire pour se souvenir des conversations. Toute cette récupération de mémoire nécessite un nouveau processeur révolutionnaire : le BlueField-4.

Jensen Huang

Ensuite, il y a le commutateur NVLink, qui nous permet de connecter tous les ordinateurs ensemble. Ce commutateur a une bande passante plusieurs fois supérieure au pic de trafic internet du monde entier.

Jensen Huang

Voici le commutateur Ethernet Spectrum-X, conçu pour que les processeurs puissent parler simultanément sans engorger le réseau. Que vous utilisiez l'InfiniBand ou l'Ethernet, nous avons d'excellentes structures d'extension pour vous.

Jensen Huang

Voici à quoi cela ressemble — une baie de 2 tonnes avec 1,5 million de pièces. La colonne vertébrale transporte tout le trafic internet mondial en une seconde. Elle est refroidie à 100 % par liquide pour la génération de jetons la plus rapide au monde.

Jensen Huang

Un centre de données d'un gigawatt compterait environ 8 000 à 9 000 de ces baies. C'est une future usine d'IA.

Jensen Huang

Nous avons commencé par concevoir des puces et maintenant nous concevons des usines d'IA entières. Nous avons créé une technologie qui permet à nos partenaires de s'intégrer numériquement dans cette usine. Laissez-moi vous montrer.

Omniverse DSX : Le Plan des Usines d'IA

Narrateur des vidéos promotionnelles

La prochaine révolution industrielle est là. Et avec elle, un nouveau type d'usine. L'infrastructure d'IA est un défi à l'échelle de l'écosystème, nécessitant la collaboration de centaines d'entreprises.

Narrateur des vidéos promotionnelles

NVIDIA Omniverse DSX est un plan directeur pour construire et exploiter des usines d'IA à l'échelle giga. Pour la première fois, le bâtiment, l'alimentation et le refroidissement sont co-conçus avec la pile d'infrastructure d'IA de NVIDIA.

Narrateur des vidéos promotionnelles

Cela commence dans le jumeau numérique Omniverse. Jacobs Engineering optimise la densité de calcul et l'agencement pour maximiser la génération de jetons en fonction des contraintes de puissance. Ils agrègent des actifs OpenUSD prêts pour la simulation provenant de Siemens, Schneider Electric, Trane et Vertiv dans la gestion du cycle de vie des produits de PTC.

Narrateur des vidéos promotionnelles

Puis ils simulent les aspects thermiques et électriques avec des outils accélérés par CUDA d'ETAP et Cadence. Une fois conçus, les partenaires de NVIDIA comme Bechtel et Vertiv livrent des modules préfabriqués. Construits en usine, testés et prêts à être branchés. Cela réduit considérablement le temps de construction, permettant d'accélérer les revenus.

Narrateur des vidéos promotionnelles

Lorsque l'usine d'IA physique devient opérationnelle, le jumeau numérique agit comme un système d'exploitation. Les ingénieurs sollicitent des agents d'IA de Phaidra et Emerald AI, préalablement entraînés dans le jumeau numérique, pour optimiser la consommation d'énergie et réduire la pression sur l'usine d'IA et le réseau électrique.

Narrateur des vidéos promotionnelles

Au total, pour une usine d'IA d'un gigawatt, les optimisations DSX peuvent rapporter des milliards de dollars de revenus supplémentaires par an. Au Texas, en Géorgie et au Nevada, les partenaires de NVIDIA donnent vie au DSX.

Narrateur des vidéos promotionnelles

En Virginie, NVIDIA construit un centre de recherche sur les usines d'IA utilisant DSX pour tester et produire Vera Rubin, de l'infrastructure au logiciel. Avec DSX, les partenaires de NVIDIA dans le monde entier peuvent construire et mettre en service des infrastructures d'IA plus rapidement que jamais.

Écosystème Logiciel et IA d'Entreprise

Jensen Huang

Des entreprises construisent ces clouds de GPU pour servir les startups, et je l'apprécie. NVIDIA est partout ; nous intégrons nos bibliothèques et nos modèles open-source dans AWS, Google Cloud et Microsoft Azure.

Jensen Huang

Quel que soit le cloud que vous utilisez, la pile NVIDIA fonctionne incroyablement bien. Nous intégrons également des bibliothèques dans les SaaS mondiaux, comme ServiceNow, SAP et Synopsys. Bill McDermott et moi travaillons pour intégrer NeMo et Nemotron dans SAP.

Jensen Huang

ServiceNow gère 85 % des flux de travail des entreprises mondiales. Christian Klein et moi intégrons nos systèmes d'IA dans SAP. Nous travaillons également avec Synopsys et Cadence pour accélérer leurs outils et créer des agents d'IA.

Jensen Huang

L'IA va également amplifier les défis de la cybersécurité, nous avons donc besoin d'un défenseur comme CrowdStrike. George est ici — je l'ai vu plus tôt. Nous nous associons à CrowdStrike pour créer des agents d'IA de cybersécurité.

Jensen Huang

J'ai une deuxième annonce : Palantir Ontology. Alex est ici — je lui parlais justement plus tôt. Ils transforment les données et le jugement humain en connaissances. Nous travaillons avec Palantir pour accélérer tout ce qu'ils font.

IA Physique, Robotique et Jumeaux Numériques

Jensen Huang

L'IA physique nécessite trois ordinateurs. Vous avez besoin du Grace Blackwell NVLink 72 pour l'entraîner, de l'ordinateur Omniverse pour la simuler dans un jumeau numérique, et de l'ordinateur robotique Jetson Thor pour la faire fonctionner.

Jensen Huang

Ces trois ordinateurs font tous tourner CUDA pour faire progresser l'IA physique qui comprend la causalité et les lois de la physique. Nous les utilisons pour créer notre usine au Texas. Jetons un coup d'œil.

Jensen Huang

Une fois que nous avons créé l'usine robotisée, nous avons des robots à l'intérieur qui ont également besoin d'IA physique. Ils travaillent dans le jumeau numérique pour apprendre à être de bons robots.

Narrateur des vidéos promotionnelles

L'Amérique se réindustrialise, relocalisant la fabrication dans tous les secteurs. À Houston, au Texas, Foxconn construit une installation robotique de pointe pour la fabrication de systèmes d'infrastructure d'IA NVIDIA. Avec les pénuries de main-d'œuvre et les écarts de compétences, la numérisation, la robotique et l'IA physique sont plus importantes que jamais.

Narrateur des vidéos promotionnelles

L'usine est née numérique dans l'Omniverse. Les ingénieurs de Foxconn assemblent leur usine virtuelle dans une solution de jumeau numérique Siemens développée sur les technologies Omniverse. Chaque système — mécanique, électrique, plomberie — est validé avant la construction.

Narrateur des vidéos promotionnelles

La simulation d'usine de Siemens effectue des optimisations d'exploration de l'espace de conception pour identifier l'agencement idéal. Lorsqu'un goulot d'étranglement apparaît, les ingénieurs mettent à jour l'agencement avec des modifications gérées par Siemens Teamcenter.

Narrateur des vidéos promotionnelles

Dans Isaac Sim, le même jumeau numérique est utilisé pour entraîner et simuler des IA de robots. Dans la zone d'assemblage, des manipulateurs FANUC construisent les modules de plateau GB300. Des manipulateurs bimanuels de Fii et Skild AI installent des barres omnibus dans les plateaux, et des AMR transportent les plateaux vers les modules de test.

Narrateur des vidéos promotionnelles

Ensuite, Foxconn utilise l'Omniverse pour la simulation de capteurs à grande échelle où les IA de robots apprennent à travailler en flotte. Dans l'Omniverse, des agents d'IA de vision basés sur NVIDIA Metropolis et Cosmos surveillent les flottes de robots et les travailleurs d'en haut pour superviser les opérations et alerter les ingénieurs de Foxconn en cas d'anomalies, de violations de sécurité ou même de problèmes de qualité.

Narrateur des vidéos promotionnelles

Et pour former les nouveaux employés, des agents alimentent des coachs d'IA interactifs pour faciliter l'intégration des travailleurs. L'ère de la réindustrialisation américaine est là, avec des humains et des robots travaillant ensemble.

Jensen Huang

Je tiens à remercier notre partenaire Foxconn. L'usine est essentiellement un robot orchestrant des robots pour construire des objets robotiques. Le logiciel nécessaire est si intense qu'il faut utiliser un jumeau numérique pour le concevoir et l'exploiter.

Jensen Huang

Je suis heureux de voir Caterpillar intégrer des jumeaux numériques. Figure, fondée par Brett Adcock, est l'un des systèmes robotiques les plus avancés. Nous travaillons ensemble pour entraîner l'IA physique de leurs robots humanoïdes.

Jensen Huang

Les robots humanoïdes seront probablement l'un des plus grands marchés grand public et industriels. Agility, Johnson & Johnson et Disney Research travaillent tous avec nous pour entraîner des robots en utilisant notre cadre de simulation Newton.

Jensen Huang

Mesdames et messieurs, Disney Blue ! Dites-moi qu'il n'est pas adorable. Nous en voulons tous un. Tout ce que vous voyez est une simulation dans l'Omniverse. Ces jumeaux numériques permettent à des robots comme Blue d'apprendre à interagir avec le monde en temps réel.

Robot-taxis et Conclusion

Jensen Huang

Alors que la robotique humanoïde est en développement, le robot sur roues est à un point d'inflexion : le robot-taxi. Nous annonçons NVIDIA Drive Hyperion afin que les constructeurs automobiles puissent créer des véhicules prêts pour le robot-taxi.

Jensen Huang

Drive Hyperion est intégré dans Lucid, Mercedes-Benz et Stellantis. Des développeurs comme Wayve et Aurora peuvent faire tourner leurs systèmes sur ce châssis standard, qui est devenu une plateforme informatique sur roues. Jetons un coup d'œil.

Jensen Huang

Le point d'inflexion du robot-taxi est presque arrivé. À l'avenir, un billion de miles parcourus par an seront augmentés par des robots-taxis. Aujourd'hui, nous annonçons un partenariat avec Uber pour connecter ces voitures dans un réseau mondial.

Jensen Huang

Au cœur de cela se trouvent deux transitions de plateforme : de l'informatique à usage général à l'informatique accélérée, et des logiciels écrits à la main à l'IA. C'est pourquoi nous connaissons une croissance aussi incroyable.

Jensen Huang

Nous avons parlé d'informatique quantique, de modèles ouverts, d'entreprise et de robotique. NVIDIA a de nouvelles plateformes pour la 6G, les voitures et les usines. Merci de nous avoir rejoints aujourd'hui à Washington, D.C. et de rendre sa grandeur à l'Amérique !