Jensen Huang

NVIDIA GTC Keynote : L'ère de l'IA physique et agentique

19 mars 2025

Intelligence Artificielle
Illustration de Jensen Huang

Introduction et GeForce 5090

Jensen Huang

Bienvenue au GTC. Quelle année incroyable. Nous voulions faire cela chez NVIDIA, donc grâce à la magie de l'intelligence artificielle, nous allons vous emmener au siège de NVIDIA. Je pense que je vous emmène au siège de NVIDIA. Que pensez-vous que ce soit ? C'est là que nous travaillons. Quelle année extraordinaire ce fut, et nous avons beaucoup de choses incroyables à aborder. Je veux juste que vous sachiez que je suis ici sans filet ; il n'y a pas de scripts, pas de téléprompteur, et j'ai beaucoup de sujets à couvrir, alors commençons. Tout d'abord, je tiens à remercier tous les sponsors et toutes les personnes formidables qui participent à cette conférence. Presque tous les secteurs industriels sont représentés : la santé, les transports, le commerce de détail, l'industrie informatique — tout le monde dans l'informatique est présent. C'est vraiment formidable de vous voir tous et merci de parrainer cet événement. Le GTC a commencé avec GeForce. Tout a commencé avec GeForce, et aujourd'hui, j'ai ici une GeForce 5090. Incroyablement, 25 ans après avoir commencé à travailler sur GeForce, elle est en rupture de stock partout dans le monde. Voici la 5090, la génération Blackwell, et si on la compare à la 4090, voyez comment elle est 30 % plus petite en volume et 30 % plus efficace pour dissiper l'énergie — des performances incroyables, difficiles à comparer. La raison en est l'intelligence artificielle. GeForce a apporté CUDA au monde, CUDA a permis l'IA, et l'IA est maintenant revenue pour révolutionner l'infographie. Ce que vous voyez, c'est de l'infographie en temps réel, 100 % tracée par chemin (path-traced) ; pour chaque pixel rendu, l'intelligence artificielle prédit les 15 autres. Pensez-y une seconde : pour chaque pixel que nous avons rendu mathématiquement, l'IA a déduit les 15 autres. Elle doit le faire avec une telle précision que l'image semble correcte et soit temporellement exacte, ce qui signifie que d'une image à l'autre, en avant ou en arrière, l'infographie reste stable. L'intelligence artificielle a fait des progrès extraordinaires. Cela ne fait que 10 ans ; nous parlons d'IA depuis un peu plus longtemps, mais l'IA est vraiment entrée dans la conscience mondiale il y a environ une décennie. Cela a commencé avec l'IA de perception, la vision par ordinateur et la reconnaissance vocale, puis l'IA générative. Ces cinq dernières années, nous nous sommes largement concentrés sur l'IA générative, en lui apprenant à traduire d'une modalité à une autre : texte en image, image en texte, texte en vidéo, acides aminés en protéines, propriétés en produits chimiques — toutes sortes de façons d'utiliser l'IA pour générer du contenu. L'IA générative a fondamentalement changé le fonctionnement de l'informatique. D'un modèle informatique de récupération, nous avons maintenant un modèle informatique génératif. Alors que presque tout ce que nous faisions par le passé consistait à créer du contenu à l'avance, à en stocker plusieurs versions et à extraire la version appropriée au moment de l'utilisation, l'IA comprend désormais le contexte, notre demande et sa signification, et génère ce qu'elle sait. Si nécessaire, elle récupère des informations, enrichit sa compréhension et génère une réponse. Au lieu de récupérer des données, elle génère désormais des réponses, changeant ainsi fondamentalement l'informatique. Chaque couche de l'informatique a été transformée ces dernières années. Un progrès majeur s'est produit récemment, une avancée fondamentale que nous appelons l'IA agentique. L'IA agentique signifie essentiellement que vous avez une IA dotée d'agence. Elle peut percevoir et comprendre le contexte d'une situation, raisonner — c'est crucial, elle peut raisonner sur la manière de répondre ou de résoudre un problème — et planifier une action. Elle peut utiliser des outils car elle comprend désormais les informations multimodales. Elle peut aller sur un site web, en analyser le format, les mots et les vidéos — peut-être même lire une vidéo — apprendre de ce site, le comprendre et utiliser ces nouvelles connaissances pour faire son travail. Au fondement de l'IA agentique se trouve le raisonnement. Ensuite, bien sûr, la prochaine vague est déjà là ; nous allons beaucoup en parler aujourd'hui : la robotique, rendue possible par l'IA physique. Une IA qui comprend le monde physique, qui comprend des concepts comme la friction, l'inertie, la cause et l'effet, et la permanence des objets. Cette capacité à comprendre le monde physique, le monde en trois dimensions, est ce qui va permettre une nouvelle ère de l'IA physique et de la robotique. Chacune de ces vagues ouvre de nouvelles opportunités de marché et amène de nouveaux partenaires au GTC. En conséquence, le GTC est maintenant complet. La seule façon d'accueillir plus de monde est d'agrandir San Jose, et nous y travaillons. Nous avons beaucoup de terrains disponibles pour rendre le GTC vivant. En étant ici, j'aimerais que vous puissiez voir ce que je vois. Nous sommes au milieu d'un stade. L'année dernière était la première année de retour en présentiel, et c'était comme un concert de rock ; le GTC a été décrit comme le Woodstock de l'IA. Cette année, on le décrit comme le Super Bowl de l'IA. La seule différence est que tout le monde gagne au Super Bowl. Chaque année, plus de gens viennent car l'IA résout des problèmes plus intéressants pour plus d'industries. Cette année, nous parlerons beaucoup d'IA agentique et d'IA physique. À la base, qu'est-ce qui permet chaque vague d'IA ? Trois éléments fondamentaux sont impliqués. Le premier est la résolution du problème des données. L'IA est une approche informatique basée sur les données ; elle a besoin de données pour apprendre, acquérir des connaissances et une expérience numérique. Le deuxième est l'entraînement du modèle sans intervention humaine directe (human in the loop). C'est un défi car notre temps est limité, et nous voulons qu'une IA apprenne à des vitesses surhumaines et à une échelle qu'aucun humain ne peut suivre. Le troisième est le passage à l'échelle — trouver un algorithme par lequel plus vous fournissez de ressources, plus l'IA devient intelligente : la loi de mise à l'échelle (scaling law). L'année dernière, presque le monde entier s'est trompé sur ce point. Les besoins en calcul — la loi de mise à l'échelle de l'IA — sont plus résilients et, en fait, hyper-accélérés. La quantité de calcul dont nous avons besoin actuellement, en raison de l'IA agentique et du raisonnement, est facilement 100 fois supérieure à ce que nous pensions l'année dernière. Analysons pourquoi. Regardons d'abord ce que l'IA peut faire. L'IA agentique repose sur le raisonnement. Nous avons maintenant des IA capables de raisonner, ce qui consiste à décomposer un problème étape par étape. Elle peut aborder un problème de différentes manières et choisir la meilleure réponse, ou résoudre le même problème de diverses façons pour vérifier la cohérence. Ou peut-être, après avoir trouvé la réponse, elle la réinjecte dans l'équation pour confirmer qu'elle est correcte au lieu de simplement l'énoncer. Rappelez-vous il y a deux ans avec ChatGPT : aussi miraculeux que ce fût, il y avait des questions auxquelles il ne pouvait pas répondre correctement. Il utilisait une approche directe ; ce qu'il avait appris en étudiant les données d'entraînement, il le restituait. Maintenant, nous avons des IA qui raisonnent étape par étape grâce à la « chaîne de pensée » (chain of thought), à la vérification de cohérence best-of-N et à d'autres techniques. Vous pouvez imaginer que le nombre de jetons (tokens) générés est nettement plus élevé. Le jeton suivant constitue l'étape 1, qui revient en entrée de l'IA pour générer l'étape 2, et ainsi de suite. Au lieu de générer un mot après l'autre, elle génère une séquence de mots représentant une étape de raisonnement. Le volume de jetons est facilement 100 fois plus élevé. Cela signifie que soit elle génère 100 fois plus de jetons, soit le modèle est plus complexe et génère 10 fois plus de jetons, et pour qu'il reste réactif, nous devons calculer 10 fois plus vite. Donc, 10 fois plus de jetons et 10 fois plus vite signifie 100 fois plus de calcul. Vous verrez dans la suite de la présentation que la puissance de calcul pour l'inférence est radicalement plus élevée qu'auparavant. Comment apprendre à une IA à exécuter cette chaîne de pensée ? Il faut lui apprendre à raisonner. Comme mentionné, l'entraînement pose deux problèmes : la source des données et l'affranchissement de l'intervention humaine. La grande percée récente est l'apprentissage par renforcement avec des résultats vérifiables. Nous avons résolu de nombreux problèmes dans l'histoire humaine : équations quadratiques, théorème de Pythagore, règles mathématiques et logiques. Nous avons des jeux comme le Sudoku où nous pouvons générer des millions d'exemples et donner à l'IA des centaines de chances de les résoudre étape par étape, en la récompensant via l'apprentissage par renforcement lorsqu'elle s'améliore. En combinant des centaines de sujets et des millions d'exemples, on parle de billions de jetons pour entraîner le modèle. Avec l'apprentissage par renforcement, nous pouvons générer énormément de jetons synthétiques — une approche robotique pour enseigner à une IA. Cela pose un défi de calcul immense, et l'industrie y répond. Je vais vous montrer les expéditions de processeurs Hopper vers les quatre principaux fournisseurs de cloud (CSP) : Amazon, Azure, GCP et OCI. Cela n'inclut pas les startups ou les entreprises. En comparant l'année record de Hopper et la première année de Blackwell, on voit que l'IA franchit un point d'inflexion. Elle est plus utile car plus intelligente et plus utilisée. On le voit avec ChatGPT : il faut parfois attendre plus longtemps, ce qui prouve son succès. La puissance de calcul nécessaire a explosé. En un an seulement, l'infrastructure IA a connu une croissance incroyable. Les analystes prévoient une hausse massive des dépenses d'investissement des centres de données d'ici 2030. Je pense que nous atteindrons bientôt un billion de dollars d'investissements. Deux dynamiques sont à l'œuvre. D'abord, la croissance sera portée par l'accélération. L'informatique classique a atteint ses limites ; nous passons de logiciels codés à la main sur des processeurs classiques à des logiciels d'apprentissage automatique sur des accélérateurs et des GPU. Ensuite, on reconnaît que le futur du logiciel nécessite des investissements en capital. À l'avenir, les ordinateurs généreront des jetons pour le logiciel. Nous passons de l'informatique de récupération à l'informatique générative, et des centres de données classiques aux usines d'IA. Leur seul but : générer des jetons transformés en musique, textes, vidéos ou protéines. Je voudrais dire quelques mots sur cette diapositive, c'est ma préférée. Pour ceux qui viennent au GTC depuis des années, vous m'entendez parler de ces bibliothèques. C'est l'essence même du GTC. Il y a 20 ans, nous n'avions que cela : une bibliothèque après l'autre. On ne peut pas juste accélérer le logiciel ; il faut des frameworks pour la physique, la biologie, la multiphysique. Ce sont les bibliothèques CUDA-X. La première est incroyable : CuPy Numeric. NumPy est la bibliothèque Python la plus utilisée au monde. CuPy Numeric est une accélération directe pour NumPy. Puis il y a cuLitho pour la lithographie computationnelle. En quatre ans, nous avons accéléré tout ce processus. Chaque entreprise avec des usines aura deux usines : celle pour ses produits et l'usine d'IA pour les calculs. TSMC, Samsung, ASML sont nos partenaires. CUDA Aerial est notre bibliothèque pour la 5G, transformant un GPU en radio 5G. La prochaine génération de réseaux radio intégrera l'IA (AI-RAN). cuOpt permet l'optimisation mathématique pour la logistique ou la planification. NVIDIA l'utilise pour sa chaîne d'approvisionnement. cuOpt transforme des heures de calcul en secondes. Nous allons le rendre open-source. Parabricks sert au séquençage génétique. Monai est leader pour l'imagerie médicale. Earth-2 prédit la météo locale en haute résolution. cuQuantum et CUDA-Q concernent l'informatique quantique. Voici une nouvelle annonce : cuDSS, des solveurs pour l'ingénierie assistée par ordinateur (CAE). Nous travaillons avec Cadence et Ansys pour accélérer la conception. Désormais, toute notre industrie va être suralimentée. cuDF accélère les données structurées pour Spark et pandas. Warp est une bibliothèque de physique en Python pour CUDA. Toutes ces bibliothèques rendent l'informatique accélérée possible. Ce n'est pas seulement CUDA, c'est aussi votre engagement. Nous avons fait une courte vidéo pour vous. Merci.

L'impact de CUDA

Narrateur

Aux créateurs, aux pionniers, aux bâtisseurs du futur, CUDA a été fait pour vous. Depuis 2006, six millions de développeurs dans plus de 200 pays ont utilisé CUDA et transformé l'informatique. Avec plus de 900 bibliothèques CUDA-X et modèles d'IA, vous accélérez la science, façonnez les industries et donnez aux machines le pouvoir de voir, d'apprendre et de raisonner. Désormais, NVIDIA Blackwell est 50 000 fois plus rapide que le premier GPU CUDA. Ces gains massifs de vitesse et d'échelle comblent le fossé entre simulation et jumeaux numériques en temps réel. Pour vous, ce n'est encore que le début. Nous avons hâte de voir ce que vous ferez ensuite.

L'IA partout et l'autonomie

Jensen Huang

J'aime ce que nous faisons ; j'aime encore plus ce que vous en faites. Une des choses qui m'a le plus touché en 33 ans, c'est quand un scientifique m'a dit : « Jensen, grâce à votre travail, je peux accomplir le travail de toute une vie en l'espace d'une vie. » C'est pour vous tous. Merci. Parlons de l'IA. Elle a commencé dans le cloud car elle nécessite une infrastructure massive. L'IA ira partout. Les fournisseurs de cloud apprécient notre technologie car l'informatique accélérée ne se résume pas à une puce, c'est toute une pile logicielle complexe. L'IA va maintenant s'étendre au reste du monde : entreprises, usines, robotique, voitures autonomes. Je suis très enthousiaste pour l'« edge computing ». Aujourd'hui, nous annonçons que Cisco, NVIDIA, T-Mobile et d'autres vont construire une pile complète pour les réseaux radio aux États-Unis, infusée d'IA. L'IA révolutionnera les communications en adaptant les signaux radio aux conditions changeantes. Imaginez une communication plus fluide grâce au contexte et aux connaissances préalables. L'IA va toucher tous les secteurs, à commencer par les véhicules autonomes. AlexNet nous a convaincus de miser sur la voiture autonome il y a plus de dix ans. Tesla et Waymo utilisent nos technologies. Aujourd'hui, je suis ravi d'annoncer que GM a choisi NVIDIA comme partenaire pour sa future flotte de véhicules autonomes. Le temps de l'autonomie est arrivé. Un point dont je suis fier est la sécurité. La sécurité automobile exige une technologie rigoureuse, du silicium aux algorithmes. Nous sommes la première entreprise au monde à avoir fait évaluer la sécurité de chaque ligne de code — sept millions de lignes. Nos puces et systèmes sont audités par des tiers. Je vous encourage à voir l'atelier HALOS sur la sécurité. Vous avez vu les robotaxis Waymo ; nous avons fait une vidéo sur la technologie que nous utilisons pour créer de l'IA grâce à l'IA. Regardons cela.

IA Agentique et Puissance de Calcul

Jensen Huang

L'accélération de la puissance de calcul nécessaire est immense. À cause de l'IA agentique et du raisonnement, c'est 100 fois plus que prévu. L'IA agentique décompose les problèmes étape par étape. Elle teste plusieurs approches, vérifie la cohérence, ou réinjecte le résultat dans l'équation pour confirmer la réponse au lieu de répondre au hasard.

Jensen Huang

Il y a deux ans, ChatGPT était miraculeux mais faisait des erreurs car il répondait d'un seul coup (one-shot). Aujourd'hui, we have des IA capables de raisonner grâce à la chaîne de pensée. Elles décomposent les problèmes et raisonnent de manière structurée.

Jensen Huang

Le nombre de jetons générés est donc bien plus élevé. Chaque étape du raisonnement génère des jetons qui servent d'entrée pour la suite. Au total, c'est facilement 100 fois plus de jetons. Pour que le modèle reste réactif, il faut calculer 10 fois plus vite. Plus de jetons et plus de vitesse signifie un besoin de calcul 100 fois supérieur. Vous verrez que le calcul pour l'inférence est radicalement plus élevé qu'avant.

Jensen Huang

Comment enseigner ce raisonnement ? L'un des défis est la source des données et l'affranchissement de l'intervention humaine. La grande percée est l'apprentissage par renforcement avec des résultats vérifiables, permettant à l'IA de s'entraîner étape par étape.

Jensen Huang

Nous utilisons des problèmes dont nous connaissons la réponse, comme les mathématiques ou le Sudoku, pour entraîner l'IA avec des millions d'exemples. L'IA génère des billions de jetons synthétiques pour apprendre. Cette combinaison pose un défi de calcul énorme auquel l'industrie répond déjà.

Économie des Centres de Données et Usines d'IA

Jensen Huang

Voici les expéditions de Hopper vers les quatre grands du cloud. L'IA franchit un point d'inflexion ; elle est plus intelligente et plus utilisée. Vous le voyez quand vous devez attendre pour ChatGPT. La puissance nécessaire pour l'entraînement et l'inférence a crû énormément. Blackwell commence à être livré, reflétant cette croissance de l'infrastructure.

Jensen Huang

Les analystes prévoient une explosion des dépenses pour les centres de données d'ici 2030. Nous passons de l'informatique classique aux accélérateurs et GPU. C'est un changement de plateforme. À l'avenir, les ordinateurs généreront des jetons au lieu de simplement récupérer des fichiers. Ce sont de véritables usines d'IA, dont le rôle est de produire les éléments constitutifs de la musique, du texte ou de la recherche scientifique.

Bibliothèques CUDA-X

Jensen Huang

Tout dans le centre de données sera accéléré. Ma diapositive préférée montre nos bibliothèques CUDA-X pour la physique, la biologie et plus encore. CuPy Numeric offre une accélération sans modification pour NumPy. cuLitho révolutionne la fabrication des puces. À l'avenir, chaque masque de gravure sera traité sur NVIDIA CUDA.

Jensen Huang

CUDA Aerial transforme les GPU en radios 5G. cuOpt optimise la logistique en transformant les heures de calcul en secondes. Nous le rendons open-source pour accélérer toute l'industrie. Monai sert à l'imagerie médicale, Earth-2 à la météo, et nous lançons notre premier Quantum Day pour l'informatique quantique.

Jensen Huang

cuEquivariance et cuTensor concernent la chimie quantique. CUDA n'est pas qu'un logiciel, c'est un écosystème. cuDSS va accélérer la conception industrielle (EDA/CAE). Avant, nous concevions nos puces avec des processeurs lents ; maintenant, tout sera accéléré. cuDF accélère les données structurées pour Spark. CUDA est partout, et c'est grâce à vous que nous avons atteint ce point de bascule.

Célébration de la Communauté CUDA

Narrateur

Aux créateurs, aux pionniers, aux bâtisseurs du futur, CUDA a été fait pour vous. Depuis 2006, six millions de développeurs ont transformé l'informatique. Avec Blackwell, NVIDIA est 50 000 fois plus rapide. C'est un nouveau départ, nous avons hâte de voir la suite.

IA à la Périphérie et Sécurité Automobile

Jensen Huang

Oh non.

Jensen Huang

J'aime ce que nous faisons, et encore plus ce que vous en faites. Grâce à notre travail, des scientifiques accomplissent le travail d'une vie en un temps record. L'IA a commencé dans le cloud pour des raisons d'infrastructure. Mais elle va se généraliser. L'informatique accélérée est complexe et repose sur une pile logicielle riche que les développeurs apprécient.

Jensen Huang

L'IA s'adapte maintenant au monde réel : entreprises, robotique, réseaux radio. Avec nos partenaires, nous construisons une pile complète pour le « edge ». L'IA optimisera les signaux radio et révolutionnera les communications grâce au contexte. Je suis très enthousiaste par les annonces faites aujourd'hui avec T-Mobile et Cisco.

Jensen Huang

L'IA pénètre toutes les industries, notamment les véhicules autonomes. Nous travaillons sur ce sujet depuis plus de dix ans. GM a choisi NVIDIA pour ses futurs véhicules. La sécurité est notre priorité, avec sept millions de lignes de code auditées. Nous utilisons l'IA pour créer l'IA, comme vous allez le voir dans cette vidéo sur la diversité des données et l'entraînement.

Cosmos et Simulation pour l'IA

Narrateur

NVIDIA accélère le développement de l'IA pour les véhicules autonomes avec Omniverse et Cosmos. Les capacités de raisonnement de Cosmos permettent des systèmes entraînables de bout en bout. La distillation de modèle permet de transférer l'intelligence d'un modèle « enseignant » vers un modèle « étudiant » plus rapide pour la voiture. L'entraînement en boucle fermée affine les modèles dans des simulations physiques 3D. Omniverse génère des jumeaux numériques du monde réel pour diversifier l'entraînement et combler le fossé entre simulation et réalité.

Architecture Blackwell et Inférence à Grande Échelle

Jensen Huang

C'est notre destin : utiliser l'IA pour recréer l'IA. Parlons des centres de données. Blackwell est en production. Nous avons fait une transition majeure vers une architecture capable de monter en charge (scale-up). Le système Ranger a initié cette idée avec NVLink 32. L'informatique distribuée classique était trop énergivore ; nous avons dû repenser l'architecture. Le système HGX avec 8 GPU a révolutionné l'IA, mais nous voulions aller plus loin. Nous avons désagrégé le système NVLink avec un commutateur haute performance permettant à tous les GPU de communiquer à pleine bande passante. Le rack Blackwell NVLink 72 est refroidi par liquide, contient 600 000 composants et offre une puissance d'un exaflops. C'est un supercalculateur intégré. Notre but est le scale-up ultime : 130 billions de transistors travaillant comme une seule puce grâce à une bande passante mémoire de 570 téraoctets par seconde. Cela résout le problème de l'inférence à grande échelle. Une usine d'IA doit être efficace pour maximiser le débit de jetons tout en gardant une latence faible. Pour avoir une IA plus intelligente, il faut générer plus de jetons rapidement.

Démonstration de Raisonnement

Narratrice

Les LLM traditionnels capturent les connaissances fondamentales, tandis que les modèles de raisonnement aident à résoudre des problèmes complexes avec des jetons de pensée. Ici, on demande de placer des invités à un mariage avec des contraintes sociales. Le LLM classique répond vite mais fait des erreurs. Le modèle de raisonnement utilise 8 000 jetons pour trouver la solution parfaite.

NVIDIA Dynamo et Gestion de Charge

Jensen Huang

Placer 300 invités à un mariage est un défi que seule l'IA peut résoudre. Le modèle a dû raisonner et tester des scénarios, contrairement à l'approche directe qui a échoué. Pour les modèles de demain avec des billions de paramètres, la gestion de la charge est cruciale. Nous annonçons NVIDIA Dynamo, le système d'exploitation d'une usine d'IA. Il orchestre les agents et les flux de travail complexes entre le calcul intensif (prefill) et la génération de jetons (decode). Blackwell est 40 fois plus performant que Hopper pour les modèles de raisonnement. Plus vous investissez dans ces usines d'IA, plus vous économisez et produisez. Voici à quoi ressemble une usine d'IA en jumeau numérique.

Jumeaux Numériques d'Usines d'IA

Narrateur

Le monde fait la course pour construire des usines d'IA de pointe. Le « blueprint » NVIDIA Omniverse pour les jumeaux numériques d'usines d'IA permet de concevoir et d'optimiser ces sites avant leur construction physique. Les ingénieurs simulent le refroidissement liquide et l'efficacité électrique en temps réel, réduisant les erreurs et accélérant la mise en service. Cela permet de tester des scénarios de mise à niveau sans interruption de service.

Feuille de Route Future : Rubin et Feynman

Jensen Huang

Blackwell est en production et nous passerons à Blackwell Ultra fin 2024 avec plus de mémoire. Notre feuille de route est claire : la plateforme Rubin arrivera en 2026, nommée d'après Vera Rubin. Elle inclura de nouveaux GPU, CPU et une mise en échelle extrême (NVLink 144 puis 576). Nous passons de 1x avec Hopper à 900x avec Rubin en termes de puissance. Nous utilisons le cuivre pour la fiabilité et la photonique sur silicium pour les très grandes distances afin d'économiser l'énergie. Notre prochaine génération s'appellera Feynman. Pour les entreprises, l'informatique change : on ne récupère plus de données, on interroge des agents. Nous lançons la DGX Station pour apporter cette puissance dans chaque bureau. Le stockage devient sémantique et accéléré par GPU. Chaque entreprise aura bientôt son propre système de connaissances assisté par IA.