NVIDIA GTC Paris Keynote
11 juin 2025
Technology
L'ère des jetons et de l'IA
C'est ainsi que l'intelligence est fabriquée.
Un nouveau type d'usine.
Générateur de jetons.
Les briques élémentaires de l'IA.
Les jetons ont ouvert une nouvelle frontière.
Le premier pas dans un monde extraordinaire où naissent des possibilités infinies.
Les jetons transforment les images en données scientifiques, cartographiant les atmosphères extraterrestres et guidant les explorateurs de demain.
Ils sondent les profondeurs de la Terre pour débusquer les dangers cachés.
Ils transforment le potentiel en abondance et nous aident à récolter nos richesses.
Les jetons voient la maladie avant qu'elle ne s'installe.
Guérissent avec précision et apprennent ce qui nous anime.
Les jetons relient les points pour que nous puissions protéger nos créatures les plus nobles.
Les jetons décodent les lois de la physique pour nous faire avancer plus vite et rendre nos journées plus efficaces.
Les jetons ne font pas qu'enseigner aux robots comment bouger, mais à apporter joie et réconfort.
Je suis Miroka. Salut, Anna. Es-tu prête à voir le docteur ?
C'est quoi ça ?
C'est mon bijou enchanté.
Les jetons nous aident à aller de l'avant.
Un petit pas pour l'homme devient un bond de géant pour l'humanité.
Pour que nous puissions aller hardiment là où personne n'est allé auparavant.
Et c'est ici que tout commence.
Ouverture du GTC Paris
Bienvenue sur scène au fondateur et PDG de NVIDIA, Jensen Huang.
Bonjour, Paris !
Bonjour. Le premier GTC de NVIDIA à Paris. C'est incroyable.
Merci à tous les partenaires qui sont ici avec nous. Nous avons tant de personnes avec qui nous avons travaillé au fil des ans. En fait, nous sommes en Europe depuis très longtemps, même s'il s'agit de mon premier GTC à Paris. J'ai beaucoup de choses à vous dire.
L'informatique accélérée et les bibliothèques NVIDIA
NVIDIA, il était une fois, a voulu créer une nouvelle plateforme informatique pour faire des choses que les ordinateurs normaux ne peuvent pas faire. Nous avons accéléré le CPU, créé un nouveau type d'informatique appelé informatique accélérée, et l'une de nos premières applications était la dynamique moléculaire. Nous avons parcouru un long chemin depuis.
Tant de bibliothèques différentes. En fait, ce qui rend l'informatique accélérée spéciale, c'est que ce n'est pas seulement un nouveau processeur pour lequel vous compilez des logiciels. Vous devez reformuler votre façon de calculer et reformuler votre algorithme. Il s'avère qu'il est incroyablement difficile pour les gens de reformuler les logiciels et les algorithmes pour qu'ils soient hautement parallélisés. C'est pourquoi nous avons créé des bibliothèques pour aider chaque marché, chaque domaine d'application, à devenir accéléré.
Chacune de ces bibliothèques ouvre de nouvelles opportunités pour les développeurs, et elle ouvre de nouvelles opportunités de croissance pour nous et nos partenaires de l'écosystème. La lithographie computationnelle, probablement l'application la plus importante dans la conception de semi-conducteurs aujourd'hui, fonctionne dans une usine chez TSMC, Samsung et d'autres grandes usines de semi-conducteurs. Avant que la puce ne soit fabriquée, elle passe par un algorithme de physique inverse appelé cuLitho.
Des solveurs creux directs, des solveurs multigrille algébriques et cuOpt, que nous venons de passer en open source, est une bibliothèque d'applications incroyablement passionnante. Cette bibliothèque accélère la prise de décision pour optimiser des problèmes avec des millions de variables et des millions de contraintes, comme les problèmes du voyageur de commerce.
Warp, un framework Pythonique pour exprimer des solveurs de géométrie et de physique, est vraiment important. cuDF, cuML, bases de données structurées, data frames et algorithmes classiques d'apprentissage automatique. cuDF accélère Spark et cuML accélère Scikit-Learn avec zéro ligne de modification de code.
Dynamo et cuDNN. cuDNN est probablement la bibliothèque la plus importante jamais créée par NVIDIA. Elle accélère les primitives des réseaux neuronaux profonds. Dynamo est notre toute nouvelle bibliothèque qui permet de répartir, d'orchestrer et de distribuer des charges de travail d'inférence extrêmement complexes sur toute une usine d'IA.
cuEquivariance et cuTensor gèrent les algorithmes de contraction de tenseurs. L'équivariance est destinée aux réseaux neuronaux qui obéissent aux lois de la géométrie, tels que les protéines et les molécules. Aerial et Sionna est un framework vraiment important pour permettre à l'IA de faire fonctionner la 6G.
Earth-2, notre environnement de simulation pour les modèles de base météorologiques et climatiques, offre une résolution incroyablement élevée au kilomètre carré. MONAI, notre framework pour l'imagerie médicale, est incroyablement populaire. Parabricks, notre solveur pour l'analyse génomique, connaît un succès incroyable.
Comme vous pouvez le voir, ce ne sont là que quelques exemples de bibliothèques ; il y en a 400 autres. Chacune d'entre elles accélère un domaine d'application et ouvre de nouvelles opportunités.
L'informatique quantique et CUDA-Q
L'une des plus passionnantes est CUDA-Q. CUDA-X est cette suite de bibliothèques pour accélérer les applications et les algorithmes au-dessus de CUDA. Nous avons maintenant CUDA-Q pour l'informatique quantique-classique basée sur les GPU.
Nous travaillons sur CUDA-Q depuis plusieurs années, et aujourd'hui il y a un point d'inflexion dans l'informatique quantique. Le premier qubit physique a été démontré il y a près de 30 ans, l'algorithme de correction d'erreurs a été inventé en 1995 et, en 2023, le premier qubit logique au monde a été démontré par Google.
Depuis lors, le nombre de qubits logiques commence à croître. Tout comme la loi de Moore, je m'attends à 10 fois plus de qubits logiques tous les cinq ans et 100 fois plus tous les 10 ans. Ces qubits logiques seront mieux corrigés au niveau des erreurs, plus robustes, plus performants, plus résilients et continueront d'être évolutifs.
L'informatique quantique atteint un point d'inflexion. Nous travaillons avec des entreprises d'informatique quantique dans le monde entier, et ici en Europe, il y a une grande communauté. J'ai vu Pasqal et le Barcelona Supercomputing hier soir. Il est clair que nous sommes à portée de main d'être capables d'appliquer l'informatique quantique-classique dans des domaines qui peuvent résoudre des problèmes intéressants dans les années à venir.
C'est une période vraiment passionnante. Nous travaillons avec des centres de calcul intensif, et il est clair que la prochaine génération de superordinateurs aura un QPU assigné et connecté aux GPU. Le QPU fera du calcul quantique, et les GPU seront utilisés pour le prétraitement, le contrôle, la correction d'erreurs et le post-traitement.
Entre les deux architectures, tout comme nous avons accéléré le CPU, le QPU travaille maintenant avec le GPU pour permettre la prochaine génération d'informatique. Aujourd'hui, nous annonçons que l'ensemble de notre pile d'algorithmes quantiques est désormais accéléré sur Grace Blackwell 200, et le gain de vitesse est tout à fait incroyable.
Nous travaillons avec l'industrie de l'informatique quantique de plusieurs manières. L'une d'elles consiste à utiliser cuQuantum pour simuler les qubits ou les algorithmes qui s'exécutent sur ces ordinateurs quantiques, en utilisant essentiellement un ordinateur classique pour émuler un ordinateur quantique.
À l'autre extrême se trouve CUDA-Q, qui étend CUDA vers l'informatique quantique-classique. Les applications développées sur CUDA-Q peuvent fonctionner de manière émulée avant que l'ordinateur quantique n'arrive, ou de manière collaborative une fois qu'il est là.
Aujourd'hui, nous annonçons que CUDA-Q est disponible pour Grace Blackwell. L'écosystème ici est incroyablement riche. L'Europe est riche en science, en expertise en calcul intensif et en héritage dans ce domaine, il n'est donc pas surprenant de voir l'informatique quantique progresser ici. Dans les prochaines années, nous allons assister à un point d'inflexion fantastique.
Pour tous les acteurs de l'industrie de l'informatique quantique qui y travaillent depuis trois décennies, je vous félicite pour l'accomplissement incroyable et les étapes franchies aujourd'hui. Merci.
Les vagues de l'IA et l'IA agentique
Parlons de l'IA. Vous pourriez être surpris que je vous parle d'IA. Le même GPU qui a permis toutes les applications que j'ai mentionnées a également permis à l'intelligence artificielle de venir au monde. Notre premier contact a eu lieu en 2012, en travaillant avec des développeurs sur le deep learning, ce qui a permis le Big Bang de l'IA avec AlexNet.
Au cours des 15 dernières années, l'IA a progressé incroyablement vite. La première vague a été la perception, pour que les ordinateurs reconnaissent et comprennent l'information. La deuxième vague, dont nous parlons depuis cinq ans, est l'IA générative. Elle est multimodale, ce qui signifie qu'une IA peut apprendre à la fois les images et le langage pour générer du contenu.
La capacité de l'IA à être multimodale et à générer du contenu a permis la révolution de l'IA générative. Cette capacité à générer du contenu est fondamentalement vitale pour notre productivité. Nous entamons une nouvelle vague d'IA. Au cours de ces deux dernières années, nous avons vu d'énormes progrès dans les capacités de l'IA.
Fondamentalement, l'intelligence consiste à comprendre, percevoir, raisonner, planifier une tâche et l'exécuter. La perception, le raisonnement et la planification sont les cycles fondamentaux de l'intelligence. Cela nous permet d'appliquer des règles précédemment apprises pour résoudre des problèmes que nous n'avons jamais vus auparavant.
Les personnes intelligentes sont capables de prendre un problème compliqué, de le décomposer étape par étape et de raisonner sur la manière de le résoudre. C'est fondamentalement possible aujourd'hui avec ce qu'on appelle l'IA agentique, et je vous en montrerai davantage dans une seconde.
Simulation et Jumeaux Numériques
L'incarnation de cette IA agentique est la capacité générative produisant du mouvement. Au lieu de générer des vidéos ou du texte, cette IA génère de la locomotion, comme marcher ou saisir quelque chose. La capacité de l'IA à s'incarner sous une forme physique, c'est fondamentalement la robotique.
Ces capacités pour les agents et l'IA incarnée sont maintenant à notre portée. Des moments vraiment passionnants pour l'IA. Mais tout a commencé avec GeForce. GeForce a apporté l'infographie, la première application d'informatique accélérée sur laquelle nous ayons jamais travaillé.
C'est incroyable de voir jusqu'où l'infographie est allée. GeForce a apporté CUDA au monde, ce qui a permis aux chercheurs de faire progresser le deep learning. Ensuite, le deep learning a révolutionné l'infographie. Tout ce que je vais vous montrer aujourd'hui est une simulation informatique, pas de l'animation.
C'est de la simulation de photons, de la simulation physique et des simulations de particules. Tout est fondamentalement de la simulation, pas de l'art. C'est juste beau parce qu'il s'avère que le monde et les mathématiques sont beaux. Jetons un coup d'œil.
Qu'en pensez-vous ?
Des nombres en action. C'est essentiellement ce que sont les simulations. En raison de l'échelle et de la vitesse auxquelles nous pouvons maintenant tout simuler, nous pouvons tout transformer en un jumeau numérique. Cela signifie que tout peut être conçu, planifié, optimisé et exploité numériquement avant d'être mis dans le monde physique.
L'idée que nous construirions tout en logiciel est maintenant là. Tout ce qui est physique et à grande échelle sera d'abord construit numériquement. Aujourd'hui, nous allons beaucoup parler des jumeaux numériques.
L'architecture Blackwell et le système GB200
Quelqu'un ici sait-il ce qu'est une GeForce ?
Oui !
Ce qui a commencé par GeForce ressemble à ceci maintenant. Voici la nouvelle GeForce. Elle pèse deux tonnes et demie, comporte 1,2 million de pièces et coûte environ 3 millions de dollars. Elle consomme 120 kilowatts et est fabriquée dans 150 usines avec 200 partenaires technologiques. La création de la GB200, qui est maintenant en production, a nécessité environ 40 milliards de dollars de R&D.
Cette machine a été conçue pour être une machine pensante qui raisonne et planifie. Elle passe beaucoup de temps à se parler à elle-même, générant des mots et des images pour son propre esprit avant de les produire. Architecturalement, c'est ce que Grace Blackwell a été conçue pour faire.
Elle a été conçue pour être un GPU géant. GeForce est un GPU, et GB200 l'est aussi : c'est un GPU virtuel géant. Nous l'avons désagrégé en composants et créé une nouvelle technologie de réseau et SerDes avec une efficacité énergétique élevée pour connecter toutes ces puces en un seul GPU virtuel.
Voici le célèbre système Hopper, avec huit GPU connectés via NVLink. Il y a aussi un tiroir CPU avec deux CPU et la mémoire système. Ensemble, cela représente un nœud d'un superordinateur d'IA. C'est le système qui nous a vraiment fait connaître dans le domaine de l'IA.
Tout ce système est remplacé par le nœud Grace Blackwell. Ce tiroir de calcul est entièrement refroidi par liquide, avec des CPU connectés directement aux GPU. Deux CPU et quatre GPU sont plus performants que tout le système précédent.
Nous voulions connecter plusieurs de ces systèmes ensemble. Monter en charge avec des CPU et de l'Ethernet n'est pas si difficile, mais l'augmentation de puissance verticale est incroyablement difficile. On ne peut construire un ordinateur que d'une taille correspondant à un seul modèle de mémoire.
Nous avons décidé de créer une nouvelle interconnexion appelée NVLink. C'est une interconnexion à sémantique de mémoire et un tissu de calcul, pas un réseau. Elle connecte directement les CPU de ces nœuds. Voici le commutateur. Les commutateurs NVLink se trouvent en haut et en bas, et ce qui relie le tout, c'est ce miracle.
C'est la colonne vertébrale NVLink, faite à 100 % de cuivre coaxial. Elle connecte toutes les puces NVLink à tous les GPU. Chacun des 144 dies Blackwell communique entre eux sans blocage à travers cette colonne vertébrale. La bande passante est d'environ 130 téraoctets par seconde.
Attendez : 130 téraoctets par seconde. C'est plus que le débit de données du pic de trafic de l'internet tout entier. C'est ainsi que l'on réduit l'internet à 60 livres.
Nous avons fait tout cela parce que la façon de penser les ordinateurs va être fondamentalement différente. Il a été conçu pour donner à Blackwell un saut de géant par rapport à Hopper. La loi de Moore ne vous donne qu'environ deux fois plus de performances toutes les quelques années, mais nous avaient besoin de 30 ou 40 fois plus de performances pour les modèles de raisonnement.
Au lieu du ChatGPT en une seule fois, les modèles de raisonnement génèrent beaucoup plus de jetons lorsqu'ils réfléchissent à un problème étape par étape. Ils raisonnent, essaient différents chemins et réfléchissent à leurs propres réponses. Cela nécessite beaucoup plus de capacité de calcul, et l'architecture de Blackwell a entraîné un saut de géant en termes de performances.
L'axe X représente la vitesse de réflexion et l'axe Y la production de l'usine. On veut que le débit et la vitesse soient aussi élevés que possible pour pouvoir soutenir plus de personnes et augmenter les revenus. Plus l'IA peut réfléchir vite, plus elle est intelligente.
Cette performance combinée représente les revenus de l'usine. Une usine basée sur Blackwell peut générer plus de revenus grâce à l'architecture. C'est une chose incroyable que nous avons construite. Nous avons réalisé un film pour vous donner une idée de l'ingénierie qui a été consacrée à Grace Blackwell.
L'ingénierie derrière Blackwell
Blackwell est une merveille d'ingénierie.
Cela commence par une galette de silicium vierge.
Des centaines d'étapes de traitement de puces et de lithographie ultraviolette construisent chacun des 200 milliards de transistors, couche après couche, sur une galette de 12 pouces.
La galette est découpée en dies Blackwell individuels, testés et triés, séparant les bons dies pour la suite.
Le processus chip-on-wafer-on-substrate fixe 32 dies Blackwell et 128 piles HBM sur une galette d'interposition en silicium personnalisée.
Des traces d'interconnexion métallique y sont gravées directement, connectant les GPU Blackwell et les piles HBM dans chaque unité system-in-package, verrouillant tout en place.
Ensuite, l'assemblage est cuit, moulé et durci, créant la superpuce Blackwell B200.
Chaque Blackwell est testé sous contrainte dans des fours à 125 degrés Celsius et poussé à ses limites pendant plusieurs heures.
Des robots travaillent 24 heures sur 24 pour prélever et placer plus de 10 000 composants sur le PCB de la Grace Blackwell.
Pendant ce temps, des blocs de cuivre de refroidissement liquide personnalisés sont préparés pour maintenir les puces à des températures optimales.
Dans une autre installation, des SuperNIC ConnectX-7 sont construites pour permettre les communications horizontales (scale-out) et des DPU BlueField-3 pour décharger et accélérer les tâches de mise en réseau, de stockage et de sécurité.
Toutes ces pièces convergent pour être soigneusement intégrées dans les tiroirs de calcul GB200.
NVLink est la liaison à haute vitesse révolutionnaire que NVIDIA a inventée pour connecter plusieurs GPU et monter en puissance dans un GPU virtuel massif.
Le tiroir de commutation NVLink est construit avec des puces de commutation NVLink, offrant 14,4 téraoctets par seconde de bande passante all-to-all.
Les colonnes vertébrales NVLink forment un fond de panier personnalisé à couplage aveugle avec 5 000 câbles en cuivre connectant les 72 Blackwell, ou 144 dies GPU, en un seul GPU géant, délivrant 130 téraoctets par seconde de bande passante all-to-all, soit plus que le trafic de pointe de l'internet mondial.
Du monde entier, les pièces arrivent pour être assemblées par des techniciens qualifiés dans un superordinateur d'IA à l'échelle du rack.
Au total, 1,2 million de composants, 3 kilomètres de câble en cuivre, 130 billions de transistors, pour un poids de près de 2 tonnes.
Blackwell est plus qu'une merveille technologique. C'est un témoignage de la puissance de la collaboration mondiale et de l'innovation, alimentant les découvertes et les solutions qui façonneront notre avenir partout.
Nous sommes animés par la volonté de permettre aux génies de notre temps de réaliser l'œuvre de leur vie, et nous avons hâte de voir les percées que vous réaliserez.
Production et déploiement en entreprise
Les systèmes Grace Blackwell sont tous en production. C'est un miracle d'un point de vue technologique, et la chaîne d'approvisionnement qui s'est réunie pour construire ces systèmes GB200 de deux tonnes en produit mille par semaine.
Personne n'a jamais produit en série des superordinateurs à cette échelle auparavant. Chacun de ces racks est un superordinateur entier ; en 2018, le superordinateur Sierra était moins performant qu'un seul de ces racks et consommait 10 mégawatts. Ici, c'est 100 kilowatts.
Nous avons porté le calcul intensif de l'IA à un tout autre niveau et produisons ces machines à des échelles énormes. Ce n'est que le début. Le monde entier réclame le déploiement de ce système dans les centres de données pour l'IA générative.
Cependant, tous les centres de données ne peuvent pas gérer des systèmes refroidis par liquide. Certains ont besoin de piles d'entreprise pour exécuter Red Hat, VMware ou des systèmes de stockage de partenaires comme Dell, NetApp et d'autres d'une manière cohérente avec les systèmes informatiques traditionnels.
Nous avons de nombreux nouveaux ordinateurs à mettre en production, et chacun d'eux est maintenant disponible. DGX Spark vous permet d'avoir l'architecture Grace Blackwell sur votre bureau ou à côté pendant que vous développez votre logiciel d'IA.
Ces systèmes sont identiques du point de vue d'un développeur ; la seule différence est l'échelle et la vitesse. De l'autre côté se trouvent tous les systèmes x86. Partout où les organisations souhaitent s'intégrer dans l'informatique d'entreprise traditionnelle, nous leur offrons désormais la possibilité de le faire.
Il nous a fallu beaucoup de temps pour apporter une architecture native de l'IA à l'informatique d'entreprise traditionnelle. Voici notre tout nouveau serveur RTX Pro, dont la carte mère a été complètement repensée.
Mesdames et messieurs, Janine Paul.
Cette carte mère possède huit commutateurs SuperNIC qui connectent huit GPU Blackwell RTX Pro 6000 via une puce réseau de 200 gigabits par seconde. Ce serveur est le seul qui exécute tout ce que le monde a jamais écrit et tout ce que NVIDIA a développé.
Il exécute l'IA, Omniverse, RTX, Windows, Linux et VMware. Que vous souhaitiez diffuser un bureau Windows, Omniverse ou une pile robotique, il exécute tout. Si vous pouvez faire tourner Crysis, vous pouvez tout faire tourner. Voici le serveur RTX Pro, un tout nouveau système d'entreprise.
Les usines d'IA et la nouvelle révolution industrielle
Quelque chose est en train de changer. L'IA est une technologie logicielle qui peut transformer chaque industrie. Nous savons que la façon dont vous traitez l'IA est fondamentalement différente de la façon dont nous traitions les logiciels écrits à la main.
Les logiciels d'apprentissage automatique sont développés et s'exécutent différemment. L'architecture des systèmes, des logiciels, de la mise en réseau et du stockage est unique. Nous avons observé il y a presque dix ans que les centres de données d'IA ne sont pas des centres de données au sens classique.
Ceux-ci ne stockent pas vos fichiers ; ils ont une seule mission : produire des jetons intelligents. Ces usines d'IA ressemblent à des centres de données parce qu'elles contiennent des ordinateurs, mais leur conception, leur construction et leur fonctionnement sont complètement différents.
Personne ne considère un centre de données comme une installation génératrice de revenus, mais on considère les usines automobiles de cette façon. Ces usines d'IA sont des installations génératrices de revenus conçues pour fabriquer des jetons.
Ces jetons peuvent être reformulés en intelligence pour de nombreuses industries. Les usines d'IA font désormais partie de l'infrastructure d'un pays, c'est pourquoi je m'adresse à des chefs d'État qui souhaitent que l'IA soit pour eux une industrie manufacturière en pleine croissance.
Nous parlons d'une nouvelle révolution industrielle. Tout comme l'électricité et l'internet sont devenus une partie de notre infrastructure, nous avons maintenant une industrie de l'IA qui fait partie de la nouvelle infrastructure de l'intelligence.
Chaque pays et chaque entreprise en dépendra. Stargate, par exemple, est une usine d'un gigawatt qui contiendra 500 000 GPU. L'Europe a pris conscience de l'importance de l'infrastructure d'IA, et je suis ravi de voir autant d'activité ici.
Les opérateurs télécoms, les fournisseurs de cloud et les centres de calcul intensif européens construisent l'infrastructure d'IA de nouvelle génération avec NVIDIA. Dans deux ans, nous augmenterons la capacité de calcul de l'IA en Europe d'un facteur 10. Votre pénurie de GPU sera bientôt résolue.
Écosystème européen et partenariats
Nous travaillons en partenariat avec chaque pays pour développer son écosystème. Nous construisons des centres de technologie d'IA pour mener des recherches collaboratives et travailler avec des startups. Au Royaume-Uni, en Allemagne, en Italie et en France, ces écosystèmes sont construits sur la pile NVIDIA.
NVIDIA est la seule architecture d'IA disponible dans chaque cloud. Nous sommes partenaires de chaque fournisseur et accélérons les applications de développeurs tels que Siemens, Cadence et ServiceNow. Nous avons réinventé chaque couche de la pile informatique, y compris le réseau et le stockage.
La façon dont vous développez des logiciels a changé, passant d'une simple compilation au DevOps, MLOps et AIOps. Nous avons des partenaires dans toute l'Europe pour aider à améliorer les compétences de l'économie locale. En France, nous avons des partenariats incroyables, dont un avec Schneider où nous construisons des usines d'IA numériquement dans Omniverse.
Aujourd'hui, nous annonçons un partenariat avec Mistral pour construire un cloud d'IA afin de fournir leurs modèles et applications pour l'écosystème. La technologie de l'IA se déplace à la vitesse de la lumière, tant pour les modèles propriétaires que pour les modèles ouverts comme Llama et Mistral.
Modèles ouverts, Nemotron et NIM
Nous utilisons nos chercheurs pour rendre ces modèles ouverts encore meilleurs avec Nemotron. Nous prenons des modèles open-source, nous les entraînons a posteriori et nous les améliorons avec du raisonnement et un contexte étendu. Cela est conditionné dans un NIM téléchargeable, qui fournit un modèle d'IA de pointe via API.
Démonstration d'agents d'IA (Perplexity)
Les agents d'IA sont des assistants numériques. À partir d'une invite, ils raisonnent et décomposent les problèmes en plans à étapes multiples. Ils utilisent les outils appropriés, collaborent avec d'autres agents et utilisent le contexte de la mémoire pour exécuter correctement le travail sur les systèmes accélérés de NVIDIA. Tout commence par une simple invite. Demandons à Perplexity de nous aider à lancer un food truck à Paris. Tout d'abord, l'agent Perplexity analyse l'invite et élabore un plan. Ensuite, il appelle d'autres agents pour l'aider à aborder chaque étape à l'aide de nombreux outils. Le chercheur de marché lit des avis et des rapports pour découvrir les tendances et analyser le marché concurrentiel. Sur la base de cette recherche, un concepteur de concept explore les ingrédients locaux et propose un menu complet avec des estimations de temps de préparation, recherche des palettes et génère une identité de marque. Ensuite, le planificateur financier utilise des simulations de Monte Carlo pour prévoir la rentabilité et la trajectoire de croissance. Un planificateur d'opérations élabore un calendrier de lancement avec chaque détail, de l'achat de l'équipement à l'obtention des permis appropriés. Le spécialiste du marketing élabore un plan de lancement avec une campagne sur les réseaux sociaux et code même un site web interactif, comprenant une carte, un menu et la commande en ligne. Le travail de chaque agent se réunit dans une proposition finale globale. Et tout cela a commencé à partir d'une seule invite.
DGX Cloud Lepton et gestion des agents
Une seule invite dans un système agentique peut générer 10 000 fois plus de jetons qu'un chatbot traditionnel. C'est pourquoi Grace Blackwell est nécessaire. Chaque entreprise construira ses propres agents spécialisés à l'aide d'outils et de compétences spécialisés.
Les développeurs ont besoin d'un accès facile et fiable à la puissance de calcul qui suit le rythme de leur travail. Où qu'ils soient, quoi qu'ils construisent. DGX Cloud Lepton offre un accès à la demande à un réseau mondial de GPU à travers les clouds, les régions et les partenaires comme Yoda et Nebius. Les clusters de GPU multi-cloud sont gérés via une interface unique et unifiée. Le provisionnement est rapide. Les développeurs peuvent augmenter rapidement le nombre de nœuds sans configurations complexes et commencer l'entraînement immédiatement avec des outils pré-intégrés et une infrastructure prête pour l'entraînement. Les progrès sont suivis en temps réel. Les performances des GPU, la convergence et le débit sont à portée de main. Vous pouvez tester vos modèles affinés directement dans la console. DGX Cloud Lepton peut déployer des points de terminaison NIM ou vos modèles dans plusieurs clouds ou régions pour une inférence distribuée rapide. Tout comme les applications de covoiturage connectent les passagers aux conducteurs, DGX Cloud Lepton connecte les développeurs à la puissance de calcul des GPU, alimentant une usine d'IA mondiale virtuelle.
Cisco, SAP, Sana, DeepL et d'autres construisent leurs plateformes sur l'IA de NVIDIA en utilisant des NIM qui peuvent être déployés n'importe où. Tout ce framework de gestion des agents d'IA s'appelle NeMo. Maintenant, parlons de l'IA industrielle.
IA industrielle et NVIDIA DRIVE
Comme tout conducteur, les véhicules autonomes évoluent dans un monde rempli de scénarios imprévisibles et potentiellement critiques pour la sécurité. NVIDIA DRIVE, construit sur le système de sécurité Halo, permet aux développeurs de construire des véhicules autonomes sûrs avec des piles logicielles et des capteurs diversifiés ainsi que des ordinateurs redondants. Cela commence par l'entraînement. Les véhicules autonomes sûrs ont besoin de quantités massives de données diverses pour pouvoir traiter les cas limites. Mais les données du monde réel sont limitées. Les développeurs utilisent NVIDIA Omniverse et Cosmos pour reconstruire le monde réel et générer des données d'entraînement synthétiques réalistes afin d'apporter de la diversité au modèle de véhicule autonome. Le modèle peut percevoir et raisonner sur son environnement, prédire les résultats futurs et générer un plan de mouvement. Et pour la diversité de la prise de décision, une pile classique indépendante fonctionne en parallèle. Des garde-fous surveillent les performances de sécurité et, en cas d'anomalies, appellent l'arbitre pour effectuer un arrêt d'urgence. Une diversité et une redondance supplémentaires sont intégrées à l'architecture des capteurs et du calcul. Chaque capteur se connecte à des ordinateurs redondants. Ainsi, même si un capteur ou un ordinateur tombe en panne, le véhicule reste sûr et opérationnel. Et en cas de défaillance critique, le système peut exécuter une manœuvre de risque minimal, comme se garer sur le bas-côté. La sécurité est fondamentale pour la conduite autonome. NVIDIA DRIVE permet aux développeurs du monde entier d'intégrer des Halos dans leurs propres produits pour construire la prochaine génération de véhicules autonomes sûrs.
La quatrième révolution industrielle et la robotique
Tout a commencé ici. La première révolution industrielle. La machine à vapeur de Watt et le métier à tisser mécanisé ont introduit l'automatisation et l'avènement des usines. Et l'industrie est née. L'ère de l'électricité. Ampère a démêlé l'électromagnétisme. Faraday a construit le premier générateur électrique. Et Maxwell a jeté les bases de l'ingénierie électrique moderne. La dynamo de Siemens et Wheatstone. Le moteur de l'électricité. Donnant vie aux machines, aux trains, aux usines et aux villes. Électrifiant la planète. Allumant la fabrication moderne. Et aujourd'hui, issue de l'ère de l'informatique et de l'information, la quatrième révolution industrielle. L'ère de l'IA. Réinventant chaque partie de l'industrie. À travers le continent, l'IA industrielle s'installe. De la conception à l'ingénierie, vous ouvrez de nouvelles voies vers la compréhension et la réinvention. Vous avez fait entrer le monde physique dans le virtuel pour planifier et optimiser les usines modernes du monde. Vous construisez la prochaine frontière où tout ce qui bouge est robotique. Chaque voiture, un agent autonome intelligent. Et une nouvelle main-d'œuvre collaborative pour aider à combler le déficit mondial de main-d'œuvre. Les développeurs à travers le continent construisent chaque type de robot. En leur enseignant de nouvelles compétences dans des mondes de jumeaux numériques et des gymnases pour robots. Les préparant à travailler à nos côtés dans nos usines, nos entrepôts, la salle d'opération et à la maison. La quatrième révolution industrielle est là. Là même où la première a commencé.
Tout ce qui bouge sera piloté par l'IA, et la voiture est la prochaine application évidente. L'avenir de la conduite autonome est propulsé par l'IA et axé sur la sécurité. Au-delà des voitures, les robots humanoïdes seront une opportunité géante, nous permettant de construire, de former et de faire fonctionner des machines qui apprennent des humains.
Conclusion et avenir de l'IA
Une révolution industrielle a commencé. Le GTC est un exemple parfait de ce qui est possible avec la robotique. Nous avons des robots d'information appelés agents et des robots physiques. Cette prochaine vague d'IA va faire exploser les charges de travail d'inférence. Nous avons besoin d'un ordinateur spécial pour le raisonnement, et c'est Blackwell. L'Europe mise tout sur l'IA, et l'infrastructure construite ici va augmenter d'un ordre de grandeur. Merci à tous.