Jensen Huang

NVIDIA GTC Paris Keynote

11 juin 2025

Technology
Illustration de Jensen Huang

L'ère des jetons et de l'IA

Narrateur NVIDIA

C'est ainsi que l'intelligence est fabriquée.

Narrateur NVIDIA

Un nouveau type d'usine.

Narrateur NVIDIA

Générateur de jetons.

Narrateur NVIDIA

Les briques élémentaires de l'IA.

Narrateur NVIDIA

Les jetons ont ouvert une nouvelle frontière.

Narrateur NVIDIA

Le premier pas dans un monde extraordinaire où naissent des possibilités infinies.

Narrateur NVIDIA

Les jetons transforment les images en données scientifiques, cartographiant les atmosphères extraterrestres et guidant les explorateurs de demain.

Narrateur NVIDIA

Ils sondent les profondeurs de la Terre pour débusquer les dangers cachés.

Narrateur NVIDIA

Ils transforment le potentiel en abondance et nous aident à récolter nos richesses.

Narrateur NVIDIA

Les jetons voient la maladie avant qu'elle ne s'installe.

Narrateur NVIDIA

Guérissent avec précision et apprennent ce qui nous anime.

Narrateur NVIDIA

Les jetons relient les points pour que nous puissions protéger nos créatures les plus nobles.

Narrateur NVIDIA

Les jetons décodent les lois de la physique pour nous faire avancer plus vite et rendre nos journées plus efficaces.

Narrateur NVIDIA

Les jetons ne font pas qu'enseigner aux robots comment bouger, mais à apporter joie et réconfort.

Miroka

Je suis Miroka. Salut, Anna. Es-tu prête à voir le docteur ?

Anna

C'est quoi ça ?

Miroka

C'est mon bijou enchanté.

Narrateur NVIDIA

Les jetons nous aident à aller de l'avant.

Narrateur NVIDIA

Un petit pas pour l'homme devient un bond de géant pour l'humanité.

Narrateur NVIDIA

Pour que nous puissions aller hardiment là où personne n'est allé auparavant.

Narrateur NVIDIA

Et c'est ici que tout commence.

Ouverture du GTC Paris

Annonceur NVIDIA

Bienvenue sur scène au fondateur et PDG de NVIDIA, Jensen Huang.

Jensen Huang

Bonjour, Paris !

Jensen Huang

Bonjour. Le premier GTC de NVIDIA à Paris. C'est incroyable.

Jensen Huang

Merci à tous les partenaires qui sont ici avec nous. Nous avons tant de personnes avec qui nous avons travaillé au fil des ans. En fait, nous sommes en Europe depuis très longtemps, même s'il s'agit de mon premier GTC à Paris. J'ai beaucoup de choses à vous dire.

L'informatique accélérée et les bibliothèques NVIDIA

Jensen Huang

NVIDIA, il était une fois, a voulu créer une nouvelle plateforme informatique pour faire des choses que les ordinateurs normaux ne peuvent pas faire. Nous avons accéléré le CPU, créé un nouveau type d'informatique appelé informatique accélérée, et l'une de nos premières applications était la dynamique moléculaire. Nous avons parcouru un long chemin depuis.

Jensen Huang

Tant de bibliothèques différentes. En fait, ce qui rend l'informatique accélérée spéciale, c'est que ce n'est pas seulement un nouveau processeur pour lequel vous compilez des logiciels. Vous devez reformuler votre façon de calculer et reformuler votre algorithme. Il s'avère qu'il est incroyablement difficile pour les gens de reformuler les logiciels et les algorithmes pour qu'ils soient hautement parallélisés. C'est pourquoi nous avons créé des bibliothèques pour aider chaque marché, chaque domaine d'application, à devenir accéléré.

Jensen Huang

Chacune de ces bibliothèques ouvre de nouvelles opportunités pour les développeurs, et elle ouvre de nouvelles opportunités de croissance pour nous et nos partenaires de l'écosystème. La lithographie computationnelle, probablement l'application la plus importante dans la conception de semi-conducteurs aujourd'hui, fonctionne dans une usine chez TSMC, Samsung et d'autres grandes usines de semi-conducteurs. Avant que la puce ne soit fabriquée, elle passe par un algorithme de physique inverse appelé cuLitho.

Jensen Huang

Des solveurs creux directs, des solveurs multigrille algébriques et cuOpt, que nous venons de passer en open source, est une bibliothèque d'applications incroyablement passionnante. Cette bibliothèque accélère la prise de décision pour optimiser des problèmes avec des millions de variables et des millions de contraintes, comme les problèmes du voyageur de commerce.

Jensen Huang

Warp, un framework Pythonique pour exprimer des solveurs de géométrie et de physique, est vraiment important. cuDF, cuML, bases de données structurées, data frames et algorithmes classiques d'apprentissage automatique. cuDF accélère Spark et cuML accélère Scikit-Learn avec zéro ligne de modification de code.

Jensen Huang

Dynamo et cuDNN. cuDNN est probablement la bibliothèque la plus importante jamais créée par NVIDIA. Elle accélère les primitives des réseaux neuronaux profonds. Dynamo est notre toute nouvelle bibliothèque qui permet de répartir, d'orchestrer et de distribuer des charges de travail d'inférence extrêmement complexes sur toute une usine d'IA.

Jensen Huang

cuEquivariance et cuTensor gèrent les algorithmes de contraction de tenseurs. L'équivariance est destinée aux réseaux neuronaux qui obéissent aux lois de la géométrie, tels que les protéines et les molécules. Aerial et Sionna est un framework vraiment important pour permettre à l'IA de faire fonctionner la 6G.

Jensen Huang

Earth-2, notre environnement de simulation pour les modèles de base météorologiques et climatiques, offre une résolution incroyablement élevée au kilomètre carré. MONAI, notre framework pour l'imagerie médicale, est incroyablement populaire. Parabricks, notre solveur pour l'analyse génomique, connaît un succès incroyable.

Jensen Huang

Comme vous pouvez le voir, ce ne sont là que quelques exemples de bibliothèques ; il y en a 400 autres. Chacune d'entre elles accélère un domaine d'application et ouvre de nouvelles opportunités.

L'informatique quantique et CUDA-Q

Jensen Huang

L'une des plus passionnantes est CUDA-Q. CUDA-X est cette suite de bibliothèques pour accélérer les applications et les algorithmes au-dessus de CUDA. Nous avons maintenant CUDA-Q pour l'informatique quantique-classique basée sur les GPU.

Jensen Huang

Nous travaillons sur CUDA-Q depuis plusieurs années, et aujourd'hui il y a un point d'inflexion dans l'informatique quantique. Le premier qubit physique a été démontré il y a près de 30 ans, l'algorithme de correction d'erreurs a été inventé en 1995 et, en 2023, le premier qubit logique au monde a été démontré par Google.

Jensen Huang

Depuis lors, le nombre de qubits logiques commence à croître. Tout comme la loi de Moore, je m'attends à 10 fois plus de qubits logiques tous les cinq ans et 100 fois plus tous les 10 ans. Ces qubits logiques seront mieux corrigés au niveau des erreurs, plus robustes, plus performants, plus résilients et continueront d'être évolutifs.

Jensen Huang

L'informatique quantique atteint un point d'inflexion. Nous travaillons avec des entreprises d'informatique quantique dans le monde entier, et ici en Europe, il y a une grande communauté. J'ai vu Pasqal et le Barcelona Supercomputing hier soir. Il est clair que nous sommes à portée de main d'être capables d'appliquer l'informatique quantique-classique dans des domaines qui peuvent résoudre des problèmes intéressants dans les années à venir.

Jensen Huang

C'est une période vraiment passionnante. Nous travaillons avec des centres de calcul intensif, et il est clair que la prochaine génération de superordinateurs aura un QPU assigné et connecté aux GPU. Le QPU fera du calcul quantique, et les GPU seront utilisés pour le prétraitement, le contrôle, la correction d'erreurs et le post-traitement.

Jensen Huang

Entre les deux architectures, tout comme nous avons accéléré le CPU, le QPU travaille maintenant avec le GPU pour permettre la prochaine génération d'informatique. Aujourd'hui, nous annonçons que l'ensemble de notre pile d'algorithmes quantiques est désormais accéléré sur Grace Blackwell 200, et le gain de vitesse est tout à fait incroyable.

Jensen Huang

Nous travaillons avec l'industrie de l'informatique quantique de plusieurs manières. L'une d'elles consiste à utiliser cuQuantum pour simuler les qubits ou les algorithmes qui s'exécutent sur ces ordinateurs quantiques, en utilisant essentiellement un ordinateur classique pour émuler un ordinateur quantique.

Jensen Huang

À l'autre extrême se trouve CUDA-Q, qui étend CUDA vers l'informatique quantique-classique. Les applications développées sur CUDA-Q peuvent fonctionner de manière émulée avant que l'ordinateur quantique n'arrive, ou de manière collaborative une fois qu'il est là.

Jensen Huang

Aujourd'hui, nous annonçons que CUDA-Q est disponible pour Grace Blackwell. L'écosystème ici est incroyablement riche. L'Europe est riche en science, en expertise en calcul intensif et en héritage dans ce domaine, il n'est donc pas surprenant de voir l'informatique quantique progresser ici. Dans les prochaines années, nous allons assister à un point d'inflexion fantastique.

Jensen Huang

Pour tous les acteurs de l'industrie de l'informatique quantique qui y travaillent depuis trois décennies, je vous félicite pour l'accomplissement incroyable et les étapes franchies aujourd'hui. Merci.

Les vagues de l'IA et l'IA agentique

Jensen Huang

Parlons de l'IA. Vous pourriez être surpris que je vous parle d'IA. Le même GPU qui a permis toutes les applications que j'ai mentionnées a également permis à l'intelligence artificielle de venir au monde. Notre premier contact a eu lieu en 2012, en travaillant avec des développeurs sur le deep learning, ce qui a permis le Big Bang de l'IA avec AlexNet.

Jensen Huang

Au cours des 15 dernières années, l'IA a progressé incroyablement vite. La première vague a été la perception, pour que les ordinateurs reconnaissent et comprennent l'information. La deuxième vague, dont nous parlons depuis cinq ans, est l'IA générative. Elle est multimodale, ce qui signifie qu'une IA peut apprendre à la fois les images et le langage pour générer du contenu.

Jensen Huang

La capacité de l'IA à être multimodale et à générer du contenu a permis la révolution de l'IA générative. Cette capacité à générer du contenu est fondamentalement vitale pour notre productivité. Nous entamons une nouvelle vague d'IA. Au cours de ces deux dernières années, nous avons vu d'énormes progrès dans les capacités de l'IA.

Jensen Huang

Fondamentalement, l'intelligence consiste à comprendre, percevoir, raisonner, planifier une tâche et l'exécuter. La perception, le raisonnement et la planification sont les cycles fondamentaux de l'intelligence. Cela nous permet d'appliquer des règles précédemment apprises pour résoudre des problèmes que nous n'avons jamais vus auparavant.

Jensen Huang

Les personnes intelligentes sont capables de prendre un problème compliqué, de le décomposer étape par étape et de raisonner sur la manière de le résoudre. C'est fondamentalement possible aujourd'hui avec ce qu'on appelle l'IA agentique, et je vous en montrerai davantage dans une seconde.

Simulation et Jumeaux Numériques

Jensen Huang

L'incarnation de cette IA agentique est la capacité générative produisant du mouvement. Au lieu de générer des vidéos ou du texte, cette IA génère de la locomotion, comme marcher ou saisir quelque chose. La capacité de l'IA à s'incarner sous une forme physique, c'est fondamentalement la robotique.

Jensen Huang

Ces capacités pour les agents et l'IA incarnée sont maintenant à notre portée. Des moments vraiment passionnants pour l'IA. Mais tout a commencé avec GeForce. GeForce a apporté l'infographie, la première application d'informatique accélérée sur laquelle nous ayons jamais travaillé.

Jensen Huang

C'est incroyable de voir jusqu'où l'infographie est allée. GeForce a apporté CUDA au monde, ce qui a permis aux chercheurs de faire progresser le deep learning. Ensuite, le deep learning a révolutionné l'infographie. Tout ce que je vais vous montrer aujourd'hui est une simulation informatique, pas de l'animation.

Jensen Huang

C'est de la simulation de photons, de la simulation physique et des simulations de particules. Tout est fondamentalement de la simulation, pas de l'art. C'est juste beau parce qu'il s'avère que le monde et les mathématiques sont beaux. Jetons un coup d'œil.

Jensen Huang

Qu'en pensez-vous ?

Jensen Huang

Des nombres en action. C'est essentiellement ce que sont les simulations. En raison de l'échelle et de la vitesse auxquelles nous pouvons maintenant tout simuler, nous pouvons tout transformer en un jumeau numérique. Cela signifie que tout peut être conçu, planifié, optimisé et exploité numériquement avant d'être mis dans le monde physique.

Jensen Huang

L'idée que nous construirions tout en logiciel est maintenant là. Tout ce qui est physique et à grande échelle sera d'abord construit numériquement. Aujourd'hui, nous allons beaucoup parler des jumeaux numériques.

L'architecture Blackwell et le système GB200

Jensen Huang

Quelqu'un ici sait-il ce qu'est une GeForce ?

Public

Oui !

Jensen Huang

Ce qui a commencé par GeForce ressemble à ceci maintenant. Voici la nouvelle GeForce. Elle pèse deux tonnes et demie, comporte 1,2 million de pièces et coûte environ 3 millions de dollars. Elle consomme 120 kilowatts et est fabriquée dans 150 usines avec 200 partenaires technologiques. La création de la GB200, qui est maintenant en production, a nécessité environ 40 milliards de dollars de R&D.

Jensen Huang

Cette machine a été conçue pour être une machine pensante qui raisonne et planifie. Elle passe beaucoup de temps à se parler à elle-même, générant des mots et des images pour son propre esprit avant de les produire. Architecturalement, c'est ce que Grace Blackwell a été conçue pour faire.

Jensen Huang

Elle a été conçue pour être un GPU géant. GeForce est un GPU, et GB200 l'est aussi : c'est un GPU virtuel géant. Nous l'avons désagrégé en composants et créé une nouvelle technologie de réseau et SerDes avec une efficacité énergétique élevée pour connecter toutes ces puces en un seul GPU virtuel.

Jensen Huang

Voici le célèbre système Hopper, avec huit GPU connectés via NVLink. Il y a aussi un tiroir CPU avec deux CPU et la mémoire système. Ensemble, cela représente un nœud d'un superordinateur d'IA. C'est le système qui nous a vraiment fait connaître dans le domaine de l'IA.

Jensen Huang

Tout ce système est remplacé par le nœud Grace Blackwell. Ce tiroir de calcul est entièrement refroidi par liquide, avec des CPU connectés directement aux GPU. Deux CPU et quatre GPU sont plus performants que tout le système précédent.

Jensen Huang

Nous voulions connecter plusieurs de ces systèmes ensemble. Monter en charge avec des CPU et de l'Ethernet n'est pas si difficile, mais l'augmentation de puissance verticale est incroyablement difficile. On ne peut construire un ordinateur que d'une taille correspondant à un seul modèle de mémoire.

Jensen Huang

Nous avons décidé de créer une nouvelle interconnexion appelée NVLink. C'est une interconnexion à sémantique de mémoire et un tissu de calcul, pas un réseau. Elle connecte directement les CPU de ces nœuds. Voici le commutateur. Les commutateurs NVLink se trouvent en haut et en bas, et ce qui relie le tout, c'est ce miracle.

Jensen Huang

C'est la colonne vertébrale NVLink, faite à 100 % de cuivre coaxial. Elle connecte toutes les puces NVLink à tous les GPU. Chacun des 144 dies Blackwell communique entre eux sans blocage à travers cette colonne vertébrale. La bande passante est d'environ 130 téraoctets par seconde.

Jensen Huang

Attendez : 130 téraoctets par seconde. C'est plus que le débit de données du pic de trafic de l'internet tout entier. C'est ainsi que l'on réduit l'internet à 60 livres.

Jensen Huang

Nous avons fait tout cela parce que la façon de penser les ordinateurs va être fondamentalement différente. Il a été conçu pour donner à Blackwell un saut de géant par rapport à Hopper. La loi de Moore ne vous donne qu'environ deux fois plus de performances toutes les quelques années, mais nous avaient besoin de 30 ou 40 fois plus de performances pour les modèles de raisonnement.

Jensen Huang

Au lieu du ChatGPT en une seule fois, les modèles de raisonnement génèrent beaucoup plus de jetons lorsqu'ils réfléchissent à un problème étape par étape. Ils raisonnent, essaient différents chemins et réfléchissent à leurs propres réponses. Cela nécessite beaucoup plus de capacité de calcul, et l'architecture de Blackwell a entraîné un saut de géant en termes de performances.

Jensen Huang

L'axe X représente la vitesse de réflexion et l'axe Y la production de l'usine. On veut que le débit et la vitesse soient aussi élevés que possible pour pouvoir soutenir plus de personnes et augmenter les revenus. Plus l'IA peut réfléchir vite, plus elle est intelligente.

Jensen Huang

Cette performance combinée représente les revenus de l'usine. Une usine basée sur Blackwell peut générer plus de revenus grâce à l'architecture. C'est une chose incroyable que nous avons construite. Nous avons réalisé un film pour vous donner une idée de l'ingénierie qui a été consacrée à Grace Blackwell.

L'ingénierie derrière Blackwell

Narrateur NVIDIA

Blackwell est une merveille d'ingénierie.

Narrateur NVIDIA

Cela commence par une galette de silicium vierge.

Narrateur NVIDIA

Des centaines d'étapes de traitement de puces et de lithographie ultraviolette construisent chacun des 200 milliards de transistors, couche après couche, sur une galette de 12 pouces.

Narrateur NVIDIA

La galette est découpée en dies Blackwell individuels, testés et triés, séparant les bons dies pour la suite.

Narrateur NVIDIA

Le processus chip-on-wafer-on-substrate fixe 32 dies Blackwell et 128 piles HBM sur une galette d'interposition en silicium personnalisée.

Narrateur NVIDIA

Des traces d'interconnexion métallique y sont gravées directement, connectant les GPU Blackwell et les piles HBM dans chaque unité system-in-package, verrouillant tout en place.

Narrateur NVIDIA

Ensuite, l'assemblage est cuit, moulé et durci, créant la superpuce Blackwell B200.

Narrateur NVIDIA

Chaque Blackwell est testé sous contrainte dans des fours à 125 degrés Celsius et poussé à ses limites pendant plusieurs heures.

Narrateur NVIDIA

Des robots travaillent 24 heures sur 24 pour prélever et placer plus de 10 000 composants sur le PCB de la Grace Blackwell.

Narrateur NVIDIA

Pendant ce temps, des blocs de cuivre de refroidissement liquide personnalisés sont préparés pour maintenir les puces à des températures optimales.

Narrateur NVIDIA

Dans une autre installation, des SuperNIC ConnectX-7 sont construites pour permettre les communications horizontales (scale-out) et des DPU BlueField-3 pour décharger et accélérer les tâches de mise en réseau, de stockage et de sécurité.

Narrateur NVIDIA

Toutes ces pièces convergent pour être soigneusement intégrées dans les tiroirs de calcul GB200.

Narrateur NVIDIA

NVLink est la liaison à haute vitesse révolutionnaire que NVIDIA a inventée pour connecter plusieurs GPU et monter en puissance dans un GPU virtuel massif.

Narrateur NVIDIA

Le tiroir de commutation NVLink est construit avec des puces de commutation NVLink, offrant 14,4 téraoctets par seconde de bande passante all-to-all.

Narrateur NVIDIA

Les colonnes vertébrales NVLink forment un fond de panier personnalisé à couplage aveugle avec 5 000 câbles en cuivre connectant les 72 Blackwell, ou 144 dies GPU, en un seul GPU géant, délivrant 130 téraoctets par seconde de bande passante all-to-all, soit plus que le trafic de pointe de l'internet mondial.

Narrateur NVIDIA

Du monde entier, les pièces arrivent pour être assemblées par des techniciens qualifiés dans un superordinateur d'IA à l'échelle du rack.

Narrateur NVIDIA

Au total, 1,2 million de composants, 3 kilomètres de câble en cuivre, 130 billions de transistors, pour un poids de près de 2 tonnes.

Narrateur NVIDIA

Blackwell est plus qu'une merveille technologique. C'est un témoignage de la puissance de la collaboration mondiale et de l'innovation, alimentant les découvertes et les solutions qui façonneront notre avenir partout.

Narrateur NVIDIA

Nous sommes animés par la volonté de permettre aux génies de notre temps de réaliser l'œuvre de leur vie, et nous avons hâte de voir les percées que vous réaliserez.

Production et déploiement en entreprise

Jensen Huang

Les systèmes Grace Blackwell sont tous en production. C'est un miracle d'un point de vue technologique, et la chaîne d'approvisionnement qui s'est réunie pour construire ces systèmes GB200 de deux tonnes en produit mille par semaine.

Jensen Huang

Personne n'a jamais produit en série des superordinateurs à cette échelle auparavant. Chacun de ces racks est un superordinateur entier ; en 2018, le superordinateur Sierra était moins performant qu'un seul de ces racks et consommait 10 mégawatts. Ici, c'est 100 kilowatts.

Jensen Huang

Nous avons porté le calcul intensif de l'IA à un tout autre niveau et produisons ces machines à des échelles énormes. Ce n'est que le début. Le monde entier réclame le déploiement de ce système dans les centres de données pour l'IA générative.

Jensen Huang

Cependant, tous les centres de données ne peuvent pas gérer des systèmes refroidis par liquide. Certains ont besoin de piles d'entreprise pour exécuter Red Hat, VMware ou des systèmes de stockage de partenaires comme Dell, NetApp et d'autres d'une manière cohérente avec les systèmes informatiques traditionnels.

Jensen Huang

Nous avons de nombreux nouveaux ordinateurs à mettre en production, et chacun d'eux est maintenant disponible. DGX Spark vous permet d'avoir l'architecture Grace Blackwell sur votre bureau ou à côté pendant que vous développez votre logiciel d'IA.

Jensen Huang

Ces systèmes sont identiques du point de vue d'un développeur ; la seule différence est l'échelle et la vitesse. De l'autre côté se trouvent tous les systèmes x86. Partout où les organisations souhaitent s'intégrer dans l'informatique d'entreprise traditionnelle, nous leur offrons désormais la possibilité de le faire.

Jensen Huang

Il nous a fallu beaucoup de temps pour apporter une architecture native de l'IA à l'informatique d'entreprise traditionnelle. Voici notre tout nouveau serveur RTX Pro, dont la carte mère a été complètement repensée.

Jensen Huang

Mesdames et messieurs, Janine Paul.

Jensen Huang

Cette carte mère possède huit commutateurs SuperNIC qui connectent huit GPU Blackwell RTX Pro 6000 via une puce réseau de 200 gigabits par seconde. Ce serveur est le seul qui exécute tout ce que le monde a jamais écrit et tout ce que NVIDIA a développé.

Jensen Huang

Il exécute l'IA, Omniverse, RTX, Windows, Linux et VMware. Que vous souhaitiez diffuser un bureau Windows, Omniverse ou une pile robotique, il exécute tout. Si vous pouvez faire tourner Crysis, vous pouvez tout faire tourner. Voici le serveur RTX Pro, un tout nouveau système d'entreprise.

Les usines d'IA et la nouvelle révolution industrielle

Jensen Huang

Quelque chose est en train de changer. L'IA est une technologie logicielle qui peut transformer chaque industrie. Nous savons que la façon dont vous traitez l'IA est fondamentalement différente de la façon dont nous traitions les logiciels écrits à la main.

Jensen Huang

Les logiciels d'apprentissage automatique sont développés et s'exécutent différemment. L'architecture des systèmes, des logiciels, de la mise en réseau et du stockage est unique. Nous avons observé il y a presque dix ans que les centres de données d'IA ne sont pas des centres de données au sens classique.

Jensen Huang

Ceux-ci ne stockent pas vos fichiers ; ils ont une seule mission : produire des jetons intelligents. Ces usines d'IA ressemblent à des centres de données parce qu'elles contiennent des ordinateurs, mais leur conception, leur construction et leur fonctionnement sont complètement différents.

Jensen Huang

Personne ne considère un centre de données comme une installation génératrice de revenus, mais on considère les usines automobiles de cette façon. Ces usines d'IA sont des installations génératrices de revenus conçues pour fabriquer des jetons.

Jensen Huang

Ces jetons peuvent être reformulés en intelligence pour de nombreuses industries. Les usines d'IA font désormais partie de l'infrastructure d'un pays, c'est pourquoi je m'adresse à des chefs d'État qui souhaitent que l'IA soit pour eux une industrie manufacturière en pleine croissance.

Jensen Huang

Nous parlons d'une nouvelle révolution industrielle. Tout comme l'électricité et l'internet sont devenus une partie de notre infrastructure, nous avons maintenant une industrie de l'IA qui fait partie de la nouvelle infrastructure de l'intelligence.

Jensen Huang

Chaque pays et chaque entreprise en dépendra. Stargate, par exemple, est une usine d'un gigawatt qui contiendra 500 000 GPU. L'Europe a pris conscience de l'importance de l'infrastructure d'IA, et je suis ravi de voir autant d'activité ici.

Jensen Huang

Les opérateurs télécoms, les fournisseurs de cloud et les centres de calcul intensif européens construisent l'infrastructure d'IA de nouvelle génération avec NVIDIA. Dans deux ans, nous augmenterons la capacité de calcul de l'IA en Europe d'un facteur 10. Votre pénurie de GPU sera bientôt résolue.

Écosystème européen et partenariats

Jensen Huang

Nous travaillons en partenariat avec chaque pays pour développer son écosystème. Nous construisons des centres de technologie d'IA pour mener des recherches collaboratives et travailler avec des startups. Au Royaume-Uni, en Allemagne, en Italie et en France, ces écosystèmes sont construits sur la pile NVIDIA.

Jensen Huang

NVIDIA est la seule architecture d'IA disponible dans chaque cloud. Nous sommes partenaires de chaque fournisseur et accélérons les applications de développeurs tels que Siemens, Cadence et ServiceNow. Nous avons réinventé chaque couche de la pile informatique, y compris le réseau et le stockage.

Jensen Huang

La façon dont vous développez des logiciels a changé, passant d'une simple compilation au DevOps, MLOps et AIOps. Nous avons des partenaires dans toute l'Europe pour aider à améliorer les compétences de l'économie locale. En France, nous avons des partenariats incroyables, dont un avec Schneider où nous construisons des usines d'IA numériquement dans Omniverse.

Jensen Huang

Aujourd'hui, nous annonçons un partenariat avec Mistral pour construire un cloud d'IA afin de fournir leurs modèles et applications pour l'écosystème. La technologie de l'IA se déplace à la vitesse de la lumière, tant pour les modèles propriétaires que pour les modèles ouverts comme Llama et Mistral.

Modèles ouverts, Nemotron et NIM

Jensen Huang

Nous utilisons nos chercheurs pour rendre ces modèles ouverts encore meilleurs avec Nemotron. Nous prenons des modèles open-source, nous les entraînons a posteriori et nous les améliorons avec du raisonnement et un contexte étendu. Cela est conditionné dans un NIM téléchargeable, qui fournit un modèle d'IA de pointe via API.

Démonstration d'agents d'IA (Perplexity)

Narrateur de la démo

Les agents d'IA sont des assistants numériques. À partir d'une invite, ils raisonnent et décomposent les problèmes en plans à étapes multiples. Ils utilisent les outils appropriés, collaborent avec d'autres agents et utilisent le contexte de la mémoire pour exécuter correctement le travail sur les systèmes accélérés de NVIDIA. Tout commence par une simple invite. Demandons à Perplexity de nous aider à lancer un food truck à Paris. Tout d'abord, l'agent Perplexity analyse l'invite et élabore un plan. Ensuite, il appelle d'autres agents pour l'aider à aborder chaque étape à l'aide de nombreux outils. Le chercheur de marché lit des avis et des rapports pour découvrir les tendances et analyser le marché concurrentiel. Sur la base de cette recherche, un concepteur de concept explore les ingrédients locaux et propose un menu complet avec des estimations de temps de préparation, recherche des palettes et génère une identité de marque. Ensuite, le planificateur financier utilise des simulations de Monte Carlo pour prévoir la rentabilité et la trajectoire de croissance. Un planificateur d'opérations élabore un calendrier de lancement avec chaque détail, de l'achat de l'équipement à l'obtention des permis appropriés. Le spécialiste du marketing élabore un plan de lancement avec une campagne sur les réseaux sociaux et code même un site web interactif, comprenant une carte, un menu et la commande en ligne. Le travail de chaque agent se réunit dans une proposition finale globale. Et tout cela a commencé à partir d'une seule invite.

DGX Cloud Lepton et gestion des agents

Jensen Huang

Une seule invite dans un système agentique peut générer 10 000 fois plus de jetons qu'un chatbot traditionnel. C'est pourquoi Grace Blackwell est nécessaire. Chaque entreprise construira ses propres agents spécialisés à l'aide d'outils et de compétences spécialisés.

Narrateur NVIDIA

Les développeurs ont besoin d'un accès facile et fiable à la puissance de calcul qui suit le rythme de leur travail. Où qu'ils soient, quoi qu'ils construisent. DGX Cloud Lepton offre un accès à la demande à un réseau mondial de GPU à travers les clouds, les régions et les partenaires comme Yoda et Nebius. Les clusters de GPU multi-cloud sont gérés via une interface unique et unifiée. Le provisionnement est rapide. Les développeurs peuvent augmenter rapidement le nombre de nœuds sans configurations complexes et commencer l'entraînement immédiatement avec des outils pré-intégrés et une infrastructure prête pour l'entraînement. Les progrès sont suivis en temps réel. Les performances des GPU, la convergence et le débit sont à portée de main. Vous pouvez tester vos modèles affinés directement dans la console. DGX Cloud Lepton peut déployer des points de terminaison NIM ou vos modèles dans plusieurs clouds ou régions pour une inférence distribuée rapide. Tout comme les applications de covoiturage connectent les passagers aux conducteurs, DGX Cloud Lepton connecte les développeurs à la puissance de calcul des GPU, alimentant une usine d'IA mondiale virtuelle.

Jensen Huang

Cisco, SAP, Sana, DeepL et d'autres construisent leurs plateformes sur l'IA de NVIDIA en utilisant des NIM qui peuvent être déployés n'importe où. Tout ce framework de gestion des agents d'IA s'appelle NeMo. Maintenant, parlons de l'IA industrielle.

IA industrielle et NVIDIA DRIVE

Narrateur NVIDIA

Comme tout conducteur, les véhicules autonomes évoluent dans un monde rempli de scénarios imprévisibles et potentiellement critiques pour la sécurité. NVIDIA DRIVE, construit sur le système de sécurité Halo, permet aux développeurs de construire des véhicules autonomes sûrs avec des piles logicielles et des capteurs diversifiés ainsi que des ordinateurs redondants. Cela commence par l'entraînement. Les véhicules autonomes sûrs ont besoin de quantités massives de données diverses pour pouvoir traiter les cas limites. Mais les données du monde réel sont limitées. Les développeurs utilisent NVIDIA Omniverse et Cosmos pour reconstruire le monde réel et générer des données d'entraînement synthétiques réalistes afin d'apporter de la diversité au modèle de véhicule autonome. Le modèle peut percevoir et raisonner sur son environnement, prédire les résultats futurs et générer un plan de mouvement. Et pour la diversité de la prise de décision, une pile classique indépendante fonctionne en parallèle. Des garde-fous surveillent les performances de sécurité et, en cas d'anomalies, appellent l'arbitre pour effectuer un arrêt d'urgence. Une diversité et une redondance supplémentaires sont intégrées à l'architecture des capteurs et du calcul. Chaque capteur se connecte à des ordinateurs redondants. Ainsi, même si un capteur ou un ordinateur tombe en panne, le véhicule reste sûr et opérationnel. Et en cas de défaillance critique, le système peut exécuter une manœuvre de risque minimal, comme se garer sur le bas-côté. La sécurité est fondamentale pour la conduite autonome. NVIDIA DRIVE permet aux développeurs du monde entier d'intégrer des Halos dans leurs propres produits pour construire la prochaine génération de véhicules autonomes sûrs.

La quatrième révolution industrielle et la robotique

Narrateur NVIDIA

Tout a commencé ici. La première révolution industrielle. La machine à vapeur de Watt et le métier à tisser mécanisé ont introduit l'automatisation et l'avènement des usines. Et l'industrie est née. L'ère de l'électricité. Ampère a démêlé l'électromagnétisme. Faraday a construit le premier générateur électrique. Et Maxwell a jeté les bases de l'ingénierie électrique moderne. La dynamo de Siemens et Wheatstone. Le moteur de l'électricité. Donnant vie aux machines, aux trains, aux usines et aux villes. Électrifiant la planète. Allumant la fabrication moderne. Et aujourd'hui, issue de l'ère de l'informatique et de l'information, la quatrième révolution industrielle. L'ère de l'IA. Réinventant chaque partie de l'industrie. À travers le continent, l'IA industrielle s'installe. De la conception à l'ingénierie, vous ouvrez de nouvelles voies vers la compréhension et la réinvention. Vous avez fait entrer le monde physique dans le virtuel pour planifier et optimiser les usines modernes du monde. Vous construisez la prochaine frontière où tout ce qui bouge est robotique. Chaque voiture, un agent autonome intelligent. Et une nouvelle main-d'œuvre collaborative pour aider à combler le déficit mondial de main-d'œuvre. Les développeurs à travers le continent construisent chaque type de robot. En leur enseignant de nouvelles compétences dans des mondes de jumeaux numériques et des gymnases pour robots. Les préparant à travailler à nos côtés dans nos usines, nos entrepôts, la salle d'opération et à la maison. La quatrième révolution industrielle est là. Là même où la première a commencé.

Jensen Huang

Tout ce qui bouge sera piloté par l'IA, et la voiture est la prochaine application évidente. L'avenir de la conduite autonome est propulsé par l'IA et axé sur la sécurité. Au-delà des voitures, les robots humanoïdes seront une opportunité géante, nous permettant de construire, de former et de faire fonctionner des machines qui apprennent des humains.

Conclusion et avenir de l'IA

Jensen Huang

Une révolution industrielle a commencé. Le GTC est un exemple parfait de ce qui est possible avec la robotique. Nous avons des robots d'information appelés agents et des robots physiques. Cette prochaine vague d'IA va faire exploser les charges de travail d'inférence. Nous avons besoin d'un ordinateur spécial pour le raisonnement, et c'est Blackwell. L'Europe mise tout sur l'IA, et l'infrastructure construite ici va augmenter d'un ordre de grandeur. Merci à tous.