Satya Nadella

Microsoft Build 2025 Keynote

20 mai 2025

Technology Conference
Illustration de Satya Nadella

The Passion for Programming

?

Je pense avoir commencé la programmation vers 15 ans.

?

Je ne pouvais tout simplement pas me détacher de ces machines.

?

Je voulais être développeur, je voulais écrire du code.

?

J'ai commencé à créer mes propres jeux vidéo.

?

Cela a déclenché quelque chose en moi.

?

J'ai commencé à vraiment aimer la programmation.

?

Devenir programmeur m'a ouvert les portes du monde.

?

Je suis très enthousiaste à propos de l'IA.

?

Ce sentiment d'émerveillement est la raison pour laquelle j'ai commencé à développer des logiciels.

?

J'ai hâte de voir ce que nous allons construire avec des outils aussi puissants.

?

Programmer avec un agent donne vraiment du pouvoir.

?

C'est comme une extension de moi-même. Cela m'aide à aller plus loin.

?

Aucun projet n'est trop grand, aucune idée n'est trop grande.

?

C'est magique.

?

Si vous mettez l'intelligence artificielle à la disposition de tous, vous rendez essentiellement ce super-pouvoir accessible à tout le monde.

?

Savoir que mon projet est utilisé par des gens pour améliorer leur vie.

?

Pour avoir un impact dans le monde.

?

Résoudre les problèmes que nous voulons résoudre est tout simplement le meilleur sentiment au monde.

?

Les idées que j'ai sont illimitées et infinies.

?

Tout ce que nous faisons donne aux autres les moyens de rendre le monde meilleur.

The Rise of the Agentic Web

Satya Nadella

Bonjour et bienvenue à Build. C'est toujours un plaisir d'être de retour à Build, surtout en des temps comme ceux-ci. Nous entrons tout juste dans les manches intermédiaires d'un nouveau changement de plateforme. Ces manches intermédiaires sont le moment où tout se passe, où tout se met à l'échelle. Cela me rappelle 91 et Win32, la pile web en 96, 2008 et le cloud et le mobile. Nous voici en 2025, en train de bâtir ce web agentique ouvert à grande échelle. Nous passons de ces quelques applications avec des piles intégrées verticalement à une plateforme qui permet ce web agentique ouvert et évolutif. Plus important encore, il s'agit d'étendre cette opportunité aux développeurs à chaque couche de la pile afin que vous puissiez tous créer les applications et les agents capables de donner du pouvoir à chaque personne et à chaque organisation sur la planète. C'est ce que nous allons décortiquer lors de cette conférence. Mais commençons par là où tout commence : les outils que nous utilisons pour construire. L'ingénierie logicielle a toujours consisté à disposer des bons outils pour donner vie à vos idées, perfectionner, créer et apprivoiser continuellement la complexité. Nous faisons évoluer ces outils en permanence. Nous constatons un élan, une adoption et une diffusion incroyables. La famille Visual Studio compte désormais plus de 50 millions d'utilisateurs. GitHub en compte 150 millions. GitHub Copilot a été utilisé par plus de 15 millions de développeurs, et nous ne faisons que commencer. Nous déployons une série de nouvelles mises à jour à Build, à commencer par Visual Studio. C'est l'EDI le plus puissant pour .NET et C++, et nous l'améliorons encore. Prise en charge de .NET 10, aperçu en direct au moment de la conception, améliorations des outils Git, un nouveau débogueur pour les applications multiplateformes, et bien plus encore. Nous passons à un rythme mensuel pour les versions stables. En ce qui concerne VS Code, il y a tout juste quelques semaines, nous avons publié notre 100e version en open source. Elle incluait une meilleure prise en charge du multi-fenêtrage et facilitait la visualisation des étapes directement depuis l'éditeur. GitHub continue d'être la maison des développeurs. GitHub Enterprise connaît un essor formidable en entreprise, et nous redoublons d'efforts pour les développeurs qui créent n'importe quelle application. La confiance, la sécurité, la conformité, l'auditabilité et la résidence des données sont encore plus critiques aujourd'hui. Maintenant, en passant des outils que vous utilisez à l'infrastructure sur laquelle vous déployez pour atteindre les utilisateurs et les marchés que vous visez. En parlant de confiance, l'open source est au cœur de GitHub, et nous franchissons cette prochaine étape importante. Alors que GitHub Copilot a évolué à l'intérieur de VS Code, l'IA est devenue si centrale dans notre façon de coder. C'est pourquoi nous rendons Copilot dans VS Code open source. Nous en sommes vraiment ravis ; c'est un événement majeur. À partir d'aujourd'hui, nous intégrerons ces capacités basées sur l'IA directement au cœur de VS Code, en les intégrant au même dépôt open source qui alimente l'outil de développement le plus apprécié au monde. Nous continuerons également à développer GitHub Copilot. Au cours des dernières années, nous sommes passés des complétions de code au chat, puis aux modifications multi-fichiers et maintenant aux agents. Ce même modèle émerge plus largement sur le web agentique. Vous pouvez poser des questions et des assistants IA nous donnent des réponses. Vous pouvez confier des tâches à des agents et les laisser les exécuter, ou travailler côte à côte avec l'IA pour mener à bien des travaux et des projets. Vous pouvez mélanger et assortir tous ces formats. C'est ce qui nous importe en tant que développeurs ; il ne s'agit pas de l'un ou l'autre. Nous intégrons la modernisation des applications directement dans le mode agent. Copilot est désormais capable de mettre à jour des frameworks comme Java 8 vers Java 21 ou .NET 6 vers .NET 9 et de migrer n'importe quelle application sur site vers le cloud. Il crée un plan pour votre code et vos dépendances, suggère des corrections en cours de route, apprend des changements que vous apportez et rend l'ensemble du processus fluide. La chose suivante que nous présentons est un agent autonome pour l'ingénierie de fiabilité des sites, ou SRE. Pensez à l'un des plus gros points de douleur pour n'importe lequel d'entre nous : être réveillé au milieu de la nuit pour traiter un problème sur un site en direct. Prenez un problème de fuite de mémoire PagerDuty. L'agent SRE commence automatiquement le tri, la recherche de la cause racine, l'atténuation du problème, puis il enregistre le rapport de gestion d'incident en tant que ticket GitHub avec tous les éléments de réparation. De là, vous pouvez même attribuer les éléments de réparation à GitHub Copilot. Nous ne nous arrêtons pas là. Voici la prochaine grande étape : un agent de codage complet intégré directement dans GitHub, faisant passer Copilot de partenaire de programmation en binôme à un pair programmeur. Vous pouvez attribuer des tickets à Copilot, des corrections de bogues, de nouvelles fonctionnalités, la maintenance du code, et il accomplira ces tâches de manière autonome. Aujourd'hui, je suis super enthousiaste car il est désormais disponible pour vous tous. Laissez-moi m'approcher. L'époque où je pouvais simplement signaler des bogues est révolue. À ce stade, on m'attribue des bogues à corriger, et c'est ce qu'on appelle l'autonomisation. Me voici avec tous les bogues ou problèmes que je dois traiter dans les tickets GitHub. Le premier consiste à ajouter un filtre pour la taille des groupes d'utilisateurs sur la page communautaire. Allons voir ce ticket. Ils disent que je dois aller mettre un nouveau filtre ici. Il faut aussi que ce soit une plage : petite, moyenne, grande par taille ou un percentile. C'est un type de cas de regroupement par condition. Faisons ce qui est le plus facile pour moi. Il y a même des trucs de mise en cache dont je n'ai aucune idée de ce que c'est, mais il y a un cache de staging puis un Redis. Faisons ce que je peux faire, c'est-à-dire l'attribuer à mon nouveau pote, Copilot. Je vais l'assigner et voilà. Laissez-moi faire défiler. Il l'a pris en compte. Il me voit. Il crée une pull request et vous voyez ce joli emoji avec des yeux. Il sait que je suis là et il se met au travail. Nous reviendrons voir cela plus tard. C'est tellement amusant de pouvoir régler des problèmes comme ça, comme le tri des e-mails assigné à Copilot. Ce qu'il fait, c'est qu'il configure une branche, il lance GitHub Actions et génère simplement le calcul pour vous ou crée une machine virtuelle via GitHub Actions. Il valide une version préliminaire de la pull request dans les journaux de session. Vous pouvez revenir aux journaux de session et continuer à voir toutes les pull requests préliminaires pendant qu'il travaille. Notre agent de codage respecte toutes les mesures de sécurité tout en offrant une excellente expérience de développement. L'agent travaille dans sa propre branche. Il n'utilise que des serveurs MCP configurés par un développeur. Nous pouvons demander à d'autres agents d'effectuer des revues de code et de maintenir les humains dans la boucle avant d'exécuter un CI/CD ou une fusion. Nous rendons également toutes ces caractéristiques intrinsèques disponibles pour les partenaires afin de garantir un écosystème d'agents ouvert et sécurisé, qu'il s'agisse de SRE, de SWE, de revue de code et de bien d'autres agents que vous construirez tous. Nous voulons également nous assurer que les développeurs individuels ainsi que l'informatique disposent de tous les contrôles ici. En parlant d'écosystème d'agents, nous sommes très enthousiasmés par l'agent Codex d'OpenAI qui a été lancé vendredi dernier. Je suis ravi d'accueillir Sam Altman virtuellement. Bienvenue à Build, Sam.

OpenAI: From Codex to Agentic Coding

Sam Altman

Merci de m'avoir invité.

Satya Nadella

L'une des choses auxquelles je sais que vous avez beaucoup réfléchi, ce sont tous ces divers formats que les développeurs utilisent pour l'ingénierie logicielle. Bien sûr, vous avez fait la CLI et maintenant, la semaine dernière, vous avez lancé l'agent de codage. Vous voulez nous parler un peu, Sam, de la vision que vous avez sur l'évolution de l'ingénierie logicielle et sur la manière dont les développeurs utiliseront tous ces différents formats ensemble ?

Sam Altman

Oui, Satya, nous en parlons depuis longtemps. La toute première version de Codex, remontant à 2021, a été l'une des premières choses que nous avons faites ensemble avec GitHub. Nous discutions du fait qu'un jour nous parviendrions à une véritable expérience de codage agentique, et il est fou pour moi que ce soit enfin là. Je pense que c'est l'un des plus grands changements dans la programmation que j'aie jamais vus. Cette idée que vous avez maintenant un véritable coéquipier virtuel à qui vous pouvez déléguer du travail, à qui vous pouvez dire : 'Hé, va faire une partie de ce que tu viens de faire', et des choses de plus en plus avancées. Et à un moment donné dire : 'J'ai une grande idée. Va travailler dessus pendant quelques jours et réalise-la.' Vous pouvez émettre de nombreuses demandes en parallèle, vous pouvez corriger des bogues, implémenter de nouvelles fonctionnalités, répondre à des questions sur le code. C'est une véritable délégation de tâches d'ingénierie logicielle. Je pense que cela ne fera que s'améliorer à partir de maintenant. C'est un moment extrêmement excitant. Il s'intègre très profondément à GitHub. Vous pouvez lui donner accès à un dépôt et à un environnement et vous pouvez accomplir des choses incroyables.

Satya Nadella

C'est vraiment excitant de voir cela. C'est aussi génial de permettre aux développeurs de rester dans le flux, de travailler avec des pairs programmeurs, ces agents ainsi que d'autres personnes avec qui nous collaborons, et de faire en sorte que le processus de développement lui-même et son cycle de vie s'accélèrent. Évidemment, vous travaillez aussi sur beaucoup de modèles. Nous avons eu l'occasion de déployer simultanément bon nombre des modèles que vous avez construits. Dites-nous en un peu plus sur ce qui arrive concernant la feuille de route des modèles eux-mêmes.

Sam Altman

Les modèles sont déjà très intelligents. Ils continueront également à gagner en intelligence. Je pense que l'une des choses les plus excitantes est que les modèles deviendront plus simples à utiliser. Vous n'en aurez pas autant à choisir ; ils feront automatiquement la bonne chose. Ils deviendront beaucoup plus fiables ; vous pourrez leur faire confiance pour bien plus de choses. Il y a beaucoup plus de fonctionnalités comme la multimodalité et une excellente utilisation et intégration des outils. Ce sera plus proche du 'ça fonctionne tout seul'. Je peux lui parler, je peux lui faire faire un truc de codage agentique compliqué, je peux compter sur lui, et je pense que les gens vont être surpris de la rapidité avec laquelle nous allons progresser dans ces directions maintenant.

Satya Nadella

Nous sommes très enthousiasmés par votre feuille de route de modèles. Quand on regarde ChatGPT, c'est aujourd'hui l'application agentique avec état la plus à grande échelle que vous ayez construite. Codex est une autre application agentique que vous avez créée. Cette conférence vise à tout décortiquer pour que chaque développeur puisse construire ces nouvelles applications agentiques qui utilisent le modèle, fassent leur propre échafaudage de modèle, aillent même jusqu'à l'orchestration multi-agents, et ainsi de suite. Quel conseil auriez-vous pour ceux qui construisent ces applications agentiques avec état à haute échelle pour la production, Sam, sur la base de ce que vous avez accompli et dirigé ?

Sam Altman

Je pense que l'une des choses les plus difficiles à gérer est simplement le rythme du changement. Si vous pensez à ce qui était possible il y a deux ans, ou il y a un an, ou maintenant, et ce qui sera possible dans un an ou deux, planifier pour cette augmentation incroyable de la puissance des modèles et la manière dont les gens vont construire des produits, des logiciels et des entreprises dans un avenir proche en s'appuyant réellement sur les nouveaux outils et les nouveaux flux de travail qui sont possibles. Nous n'avons pas vu beaucoup de transitions technologiques comme celle-ci dans l'histoire, mais chaque fois qu'une s'est présentée, s'impliquer tôt et fort a été très gratifiant.

Satya Nadella

C'est tout à fait bien dit, car l'une des choses que nous voulons vraiment explorer lors de cette conférence est quel est ce serveur d'applications qui permet de prendre le dernier échantillon qui arrive et de continuer à avancer à ce rythme ? C'est le défi que nous avons en tant que développeurs construisant ces applications. C'est fantastique. Allez-y.

Sam Altman

Je voulais juste dire que c'était incroyable de voir au cours des derniers mois, alors que nous travaillions sur Codex en interne. Il y a toujours quelques personnes qui sont les premiers adoptants, et la rapidité avec laquelle ceux qui utilisaient Codex toute la journée ont changé leur flux de travail et la quantité incroyable de choses qu'ils étaient capables d'accomplir par rapport à quelqu'un d'autre était tout à fait intéressante.

Satya Nadella

Non, c'est fantastique. Merci beaucoup, Sam. Merci pour ce partenariat. On se voit à Build.

Sam Altman

Merci de m'avoir invité.

Microsoft 365 Copilot & Copilot Studio

Satya Nadella

C'est un moment incroyable pour être développeur avec tous ces outils qui s'enrichissent. Plus important encore, il ne s'agit pas d'un seul outil, d'un seul agent ou d'un seul format. C'est la convergence de tout cela pour nous, en tant qu'individus et en tant qu'équipes d'ingénieurs logiciels, pour être capables d'exprimer notre art. Maintenant, montons dans la pile. Parlons de l'opportunité de plateforme de Microsoft 365. Je suis très enthousiaste à propos de la dernière mise à jour de Microsoft 365 Copilot, qui est désormais disponible pour tous. C'est la mise à jour la plus importante. Je ne pense pas que nous ayons eu une mise à jour de ce niveau depuis le lancement de Teams. Elle réunit le chat, la recherche, les carnets de notes, la création et les agents, le tout dans une structure intuitive. Je dis toujours que c'est l'interface utilisateur pour l'IA. Le chat est ancré à la fois dans les données du web et dans vos données professionnelles, et c'est ce qui change la donne, surtout avec Pages. La recherche fonctionne sur l'ensemble de vos applications, qu'il s'agisse de Confluence, Google Drive, Jira ou ServiceNow, et pas seulement sur les données M365. Avec les carnets de notes, je peux désormais créer ces collections hétérogènes de données. Je peux avoir des chats, des pages, n'importe quels documents ou e-mails, le tout dans cette collection. Je peux en extraire toutes ces revues audio ou des podcasts. Je peux utiliser Create pour transformer un PowerPoint en une nouvelle vidéo explicative ou générer une image. En ce qui concerne les agents, nous avons quelques agents spéciaux comme Researcher. C'est peut-être celui qui a le plus changé la donne pour moi car il fait la synthèse entre les sources du web et celles de l'entreprise, en appliquant un raisonnement approfondi par chaîne de pensée à n'importe quel sujet ou projet. Analyst part de données brutes provenant de plusieurs fichiers sources. Je peux télécharger une série de fichiers Excel ; il en tirera les enseignements, fera des prévisions, fera toutes les visualisations. Ces agents consistent à mettre l'expertise à portée de main. Build parlait il y a longtemps de l'information à portée de main. Je sens que nous sommes à cet âge où nous allons maintenant mettre l'expertise à portée de main. Teams prend tout cela et le rend multijoueur. Tous les agents que vous construisez peuvent désormais apparaître dans Teams et dans Copilot. Vous pouvez poser des questions, attribuer des éléments d'action ou lancer un flux de travail en mentionnant simplement un agent avec un @ dans un chat ou une réunion. Avec la bibliothèque d'IA de Teams, construire des agents multijoueurs est plus facile que jamais. Elle prend désormais en charge MCP et, avec une seule ligne de code, vous pouvez même lui permettre d'activer le A2A. Vous pouvez ajouter des éléments tels que de la mémoire épisodique ou sémantique en utilisant Azure Search et un nouveau système de récupération. En tant que développeur, vous pouvez désormais créer un agent, le publier sur l'Agent Store et faire en sorte qu'il soit découvert et distribué à la fois sur Copilot et Teams, vous donnant accès à des centaines de millions d'utilisateurs et débloquant cette opportunité. Au cours de l'année écoulée, nous avons vu tant de partenaires dans tous les secteurs d'activité créer des agents qui se connectent à Copilot et Teams. Avec l'agent de Workday, vous pouvez demander à Copilot ce qui requiert votre attention. Il vous donne un résumé de toutes les tâches Workday afin que vous restiez au courant des formations, des approbations et des flux de travail. L'agent ServiceNow, vous pouvez l'interroger en temps réel sur un incident, les métriques de résolution, puis l'utiliser pour créer instantanément une présentation PowerPoint contenant les résultats. Avec l'agent LSEG, les professionnels de la finance peuvent découvrir, analyser et partager n'importe quelle donnée financière directement dans Excel et PowerPoint. Avec Copilot Studio, vous pouvez commencer à créer vos propres agents. Nous avons intégré une multitude de nouvelles fonctionnalités dans Copilot Studio. Très récemment, nous y avons intégré un agent de requête complet. MCP, flux d'agents — vous pouvez désormais mélanger et assortir à la fois des LLM et des flux de travail déterministes. Aujourd'hui, nous facilitons la création de flux de travail multi-agents encore plus complexes dans Copilot Studio grâce à l'orchestration. Prenez par exemple l'intégration d'une nouvelle recrue. C'est un processus complexe impliquant des agents des services généraux, des finances et du juridique, chacun avec sa propre expertise et ses flux de travail. Vous pouvez tous les réunir et tout va plus vite, et l'expérience est meilleure pour tout le monde. Cette orchestration multi-agents se trouve directement dans Copilot Studio. Vous avez créé plus d'un million d'agents connectés à Copilot et Teams au cours de l'année écoulée, et nous ne ralentissons pas. Aujourd'hui, nous introduisons une nouvelle classe d'agents de qualité entreprise que vous pouvez construire en utilisant des modèles affinés sur les données, les flux de travail et le style de votre entreprise. Nous appelons cela Copilot Tuning.

Miti Joshi

En tant que développeurs, nous pouvons facilement mettre à l'échelle des solutions de productivité en utilisant la nouvelle application Microsoft 365 Copilot, Copilot Studio et Copilot Tuning. Commençons par la nouvelle application M365 Copilot, où je vais vous montrer comment Copilot peut raisonner sur mon backlog GitHub. Cette application est mon hub de travail tout-en-un. Elle intègre le chat, la recherche, les agents, les carnets de notes et la création. Ici, je peux faire appel à des agents comme l'agent Researcher. Researcher peut raisonner sur toutes mes données professionnelles, et avec un connecteur, il peut même puiser dans GitHub. Demandons de l'aide pour analyser les problèmes de performance et prioriser mes prochaines étapes. Il me pose quelques questions de clarification, tout comme si je déléguais cela à quelqu'un de mon équipe. Je lui donne un peu plus de direction et c'est parti. Parce qu'il est basé sur le modèle de raisonnement o3 d'OpenAI, Researcher montre sa chaîne de pensée pendant qu'il extrait des informations à la fois du web et de mes données de travail. Il me donne tout ce dont j'ai besoin, y compris quelques citations pour m'aider à démarrer. Laissez-moi vous montrer comment j'ai construit ce connecteur dans Visual Studio. Cela ne prend que quelques étapes. Je vais ajouter un nom et un emplacement pour l'enregistrer. En quelques secondes, le M365 Agents Toolkit m'a fourni un code entièrement échafaudé que je peux modifier, comme la création de ma connexion à l'aide des API Microsoft Graph. Je peux indexer n'importe quel type de données ; ici, j'ai défini un schéma spécifique pour mon scénario. Ensuite, j'utilise l'API GitHub pour récupérer mes tickets. Enfin, j'intégrerai chaque ticket dans Microsoft Graph pour que Copilot puisse raisonner sur ces données. Voyons tout cela en action. Tous mes tickets sont en cours d'indexation et je reçois un journal complet de ce qui se passe. Pendant que le journal se charge, je confirme que ma connexion GitHub a été établie et qu'elle contient tous les éléments du backlog qui m'intéressent. Passons maintenant à la façon dont Copilot Studio peut nous aider à créer des agents avec peu de code. Ici, j'ai créé un agent de réponse aux appels d'offres, que vous pouvez voir dans Teams. Il a généré une proposition et l'a même publiée en utilisant son propre Entra ID. Ici, vous pouvez voir une proposition spécifique qui a le contenu, la langue et le format que l'on attendrait d'un employé expérimenté. Voyons comment je l'ai construite. Je vais aller sur Copilot Studio. Ici, j'ai décrit ce que je veux que l'agent fasse et je lui ai donné des instructions. Le modèle de réponse GPT-4o est sélectionné par défaut, mais je peux choisir d'autres modèles via AI Foundry. Je vais faire défiler vers le bas et sélectionner les connaissances sur lesquelles ancrer cet agent, en m'assurant qu'il puise dans les bonnes sources au sein de mon organisation. En allant à la section des outils, j'ai ajouté un déclencheur qui invite mon agent à commencer à travailler chaque fois qu'un nouvel appel d'offres arrive dans ma boîte de réception. Maintenant, lions cet agent au serveur MCP de Dynamics pour lui donner accès aux données de référence et de tarification pour une proposition plus détaillée. En quelques clics, il est connecté. Ce serveur maintiendra l'agent à jour automatiquement. Il peut également utiliser des serveurs tiers comme DocuSign ou des serveurs MCP personnalisés comme celui de SAP que nous avons créé pour accéder aux données des comptes clients. L'agent devra être capable de vérifier la conformité et les termes du contrat. Au lieu de construire cela de toutes pièces, je peux utiliser la nouvelle orchestration multi-agents. Les agents peuvent désormais collaborer entre eux pour assumer des tâches plus complexes. Connectons cet agent à un autre spécialisé dans les contrôles de conformité. Grâce à l'orchestration, l'agent d'appel d'offres peut se connecter à l'agent de revue de conformité pour s'assurer qu'il n'y a pas d'alerte. S'il passe le test, il reviendra à cet agent pour continuer le processus, et notre agent de réponse aux appels d'offres est opérationnel. Passons à Copilot Tuning, que Satya vient d'annoncer. C'est un moyen 'low-code' de faire ce qui prendrait normalement des semaines à toute une équipe de scientifiques de données : affiner un nouveau modèle spécifiquement conçu pour la rédaction de contrats. Voici à quoi cela ressemble en action. Je vais ouvrir l'agent Contract Builder et lui demander de rédiger un contrat à l'aide de quelques documents d'exemple. Il va se référer à ces documents et au modèle personnalisé que j'ai créé pour assembler le contrat. Lorsque le document sera terminé, je recevrai un e-mail avec le brouillon. Ce contrat utilise le langage, les termes et conditions, la structure et le format de notre entreprise. Voici comment je l'ai construit. Je vais commencer par créer un nouveau modèle. Je vais lui donner quelques informations de base : un nom, une description, et sélectionner le type de tâche, qui est la génération de documents. J'ajouterai la source de connaissances de notre base de données de contrats dans SharePoint. Je préciserai qui doit y avoir accès : l'équipe des contrats et l'équipe des achats. Copilot s'assure que tout cet accès aux sources de connaissances et au modèle affiné est aligné. Notre Contract Builder est maintenant prêt pour l'étiquetage des données. Une fois que les experts métier auront terminé le processus d'étiquetage, nous pourrons achever l'entraînement de ce modèle affiné et le publier. Depuis l'application M365 Copilot, l'équipe peut sélectionner 'Créer un agent', choisir un agent spécifique à une tâche et sélectionner le modèle Contract Builder que je viens d'affiner. L'agent est prêt. J'ai mis à l'échelle le travail que je peux fournir en tant que développeur, en donnant à ceux qui sont au plus proche de l'entreprise les moyens de réimaginer leurs flux de travail avec l'IA. À vous, Satya.

Azure AI Foundry: Scaling Intelligence

Satya Nadella

Merci beaucoup, Miti. Je suis tellement enthousiaste à propos de Copilot Studio et de l'accès aux modèles de raisonnement, de la capacité à faire des choses comme Copilot Tuning, ces flux de travail déterministes. Vous pouvez désormais envisager ces agents et ces cadres multi-agents orchestrant les flux de travail de manière agentique pour chaque rôle et chaque processus métier. Surtout une fois que chaque application métier apparaîtra comme un serveur MCP, vous pouvez imaginer en tant que développeur comment vous pouvez commencer à penser au prochain niveau d'automatisation. C'est un changement total de paradigme dans notre façon de concevoir le flux de travail et l'automatisation des processus métier. Ces applications SaaS et ces logiciels de productivité convergent tous par rôle et par processus. C'est une journée passionnante. Nous prenons tout ce qui se trouve sous Copilot et Copilot Studio et nous le rendons disponible en tant que plateforme de premier ordre pour vous tous, développeurs, afin de construire vos propres applications et extensions d'applications. À mesure que les modèles évoluent plus vite et deviennent plus performants, les applications devront évoluer pour devenir des applications complètes avec état, multi-modèles et multi-agents. Il ne s'agit pas d'un modèle unique avec un simple appel d'API requête-réponse. Nous construisons de réelles applications multi-modèles avec état, et elles doivent être prêtes pour la production. C'est la motivation derrière la construction d'un serveur d'applications de premier ordre. Considérez Foundry comme une ligne de production pour l'intelligence. Il faut plus qu'un excellent modèle pour construire ces agents et ces applications. Le système autour du modèle, qu'il s'agisse des évaluations, de cette couche d'orchestration ou du RAG, compte vraiment. Foundry est cette plateforme d'application complète pour l'ère de l'IA. Plus de 70 000 organisations l'utilisent déjà dans tous les secteurs : BMW, Carvana, Coca-Cola, Nasdaq, ainsi que de nombreux éditeurs de logiciels indépendants comme Gainsight. Ils choisissent tous Foundry, et les entreprises passent de la réalisation de preuves de concept à des déploiements à l'échelle de l'entreprise pour véritablement débloquer le retour sur investissement de l'IA. Au cours des trois derniers mois, nous avons traité plus de 100 trillions de jetons, ce qui représente une multiplication par 5 d'une année sur l'autre. Lors de mon récent voyage au Japon, j'ai vu une application construite avec Foundry qui aide les personnes souffrant de troubles du traitement auditif à donner un sens à ce qu'elles entendent, et cela m'a époustouflé. Regardons la vidéo.

Yukari Kato

Quand j'avais deux ans, j'ai perdu l'audition à cause d'une maladie. Je n'entendais plus rien du tout. Alors ils m'ont appris comment il y a des sons et des voix dans ce monde.

Kiyomi Kusaka

J'ai rencontré Mme Kato pour la première fois après qu'elle a commencé à utiliser YYSystem. Elle a été profondément émue par l'expérience et a fini par nous écrire une lettre. Elle nous a fait savoir que cela avait changé sa vie.

Yukari Kato

Le plus difficile était de ne pas pouvoir avoir de conversation.

Kiyomi Kusaka

Au Japon, il existe divers dialectes régionaux, avec des façons de parler et des expressions uniques. Il y avait de nombreuses demandes pour convertir les voix des utilisateurs en mots, et c'est ainsi que MyEngine s'est développé. Nous utilisons beaucoup Azure AI Foundry. L'élément principal pour lequel nous l'utilisons est de vérifier la logique utilisée pour corriger les déclarations et comme outil pour vérifier que les éléments sont correctement traduits. Nous utilisons le service de parole Azure en temps réel pour la transcription. De plus, il est utilisé pour apprendre la parole des personnes malentendantes afin de créer des modèles de parole personnalisés uniques à ces personnes. Grâce au soutien de tous, nous sommes heureux de dire que l'application de notre YYSystem a été téléchargée 1,45 million de fois au Japon.

Yukari Kato

Je ne pouvais pas comprendre ce que disaient mes enfants et mes petits-enfants. Maintenant, je le peux. Dans mon entreprise, ils me disaient : 'Hé, Mme Kato.' Je ne comprenais pas avant. Maintenant, je peux comprendre quand ils m'appellent et je peux communiquer mes pensées.

Kiyomi Kusaka

J'étais juste un ingénieur ordinaire mais, depuis que j'ai développé cette application, je sens maintenant que les voix de ces utilisateurs me donnent de l'énergie et de la motivation pour continuer.

Grok on Azure: A Partnership with xAI

Satya Nadella

Un grand merci à tous les développeurs d'Aisin et à Kato-san pour avoir partagé cette histoire. Aujourd'hui, nous allons plus loin. Pour Foundry, tout commence par le choix du modèle. Nous prenons déjà en charge 1 900 modèles : des modèles de réponse, de raisonnement, des modèles spécifiques à des tâches et multi-modèles. Ils sont tous là dans Foundry. Cela inclut les derniers modèles de nos partenaires chez OpenAI. Rien que cette année, nous avons déployé simultanément 15 modèles d'OpenAI sur Azure, offrant un accès le jour même de la sortie d'un nouveau modèle. Sora arrive la semaine prochaine. En tant que développeurs, nous nous soucions de multiples dimensions : coût, fiabilité, latence et qualité. Azure OpenAI est le meilleur de sa catégorie. Nous offrons des garanties d'entreprise telles qu'une haute fiabilité et des contrôles de coûts, des éléments comme le traitement par lots ou le débordement, ainsi qu'une sécurité, une conformité et une sûreté de premier plan. Choisir un modèle peut être un peu fastidieux, et vous devez être capable de router vos requêtes vers le bon modèle rapidement. Nous facilitons cela. Notre nouveau routeur de modèles choisira automatiquement le meilleur modèle OpenAI pour la tâche, plus de sélection manuelle de modèle. Notre approche aujourd'hui consiste à passer d'applications ou d'agents liés à un seul modèle à une approche véritablement multi-modèle. Aujourd'hui, nous sommes ravis d'annoncer que Grok de xAI arrive sur Azure. Grok 3 propose des modèles de raisonnement, de recherche approfondie et de réponse, le tout dans un seul modèle unique. C'était génial d'avoir l'occasion de discuter avec Elon ce week-end à ce sujet. Lançons la vidéo. Merci beaucoup, Elon, d'être ici à Build. Je sais que vous avez commencé comme stagiaire chez Microsoft, vous étiez développeur Windows, et vous êtes toujours un grand joueur sur PC. Vous voulez nous parler de vos débuts avec Windows et des genres de choses que vous avez construites ?

Elon Musk

J'ai commencé avant Windows avec DOS. J'avais l'un des premiers PC IBM avec MS-DOS et je pense qu'il avait 128 Ko au début, puis cela a doublé à 256 Ko, ce qui semblait être beaucoup. J'ai programmé des jeux vidéo sous DOS puis plus tard sous Windows. Vous vous souvenez de Windows 3.1 ?

Satya Nadella

C'est merveilleux. La dernière fois que j'ai discuté avec vous, vous parliez des subtilités d'Active Directory, donc c'est fantastique de vous avoir à notre conférence pour développeurs. La chose excitante pour nous est de lancer Grok sur Azure. Je sais que vous avez une vision profonde de ce que l'IA doit être et c'est ce qui vous a poussé à faire construire ceci. C'est une famille de modèles qui sont à la fois des modèles de réponse et de raisonnement, et vous avez une feuille de route passionnante. Vous voulez nous parler un peu de votre vision, de la capacité — vous poussez à la fois sur la capacité et l'efficacité. Peut-être pouvez-vous en parler.

Miri Rodriguez

Mes données de travail. Avec un connecteur, il peut même puiser dans GitHub. Demandons de l'aide pour analyser les problèmes de performance et prioriser mes prochaines étapes. Il avance et me pose quelques questions de clarification, tout comme si j'avais délégué cela à quelqu'un de mon équipe. Je lui donne un peu plus de direction et c'est parti. Parce qu'il est construit sur le modèle de raisonnement o3 d'OpenAI, Researcher montre sa chaîne de pensée pendant qu'il puise à la fois dans le web et dans mes données de travail. Il me donne tout ce dont j'ai besoin, y compris quelques citations, pour m'aider à démarrer. Maintenant, laissez-moi vous montrer comment j'ai construit ce connecteur dans Visual Studio. Cela ne prend que quelques étapes. J'ajouterai un nom et un emplacement pour l'enregistrer. En quelques secondes, le M365 Agents Toolkit m'a donné un code entièrement échafaudé que je peux modifier, comme la création de ma connexion à l'aide des API Microsoft Graph. Je peux indexer n'importe quel type de données, donc ici j'ai défini un schéma spécifique pour mon scénario. Ensuite, j'utilise l'API GitHub pour récupérer mes tickets. Enfin, j'intégrerai chaque ticket dans Microsoft Graph, afin que Copilot puisse désormais raisonner sur ces données. Voyons tout cela en action. Tous mes tickets sont en cours d'indexation et je reçois un journal complet de ce qui se passe. Pendant que le journal se charge, je confirmerai que ma connexion GitHub a été établie et qu'elle contient tous les éléments du backlog qui m'intéressent. Passons à la démonstration de la manière dont Copilot Studio peut nous aider à créer des agents avec peu de code requis. Ici, j'ai créé un agent de réponse aux appels d'offres que vous pouvez voir dans Teams. Il ha généré une proposition et l'a même publiée en utilisant son propre Entra ID. Ici, vous pouvez voir une proposition spécifique qui a le contenu, la langue et le format que vous attendriez d'un employé expérimenté. Voyons comment je l'ai construite ; je vais passer sur Copilot Studio. Ici, j'ai décrit ce que je veux que l'agent fasse et je lui ai donné des instructions. Le modèle de réponse GPT-4o est sélectionné par défaut, mais je peux choisir d'autres modèles via AI Foundry. Je vais faire défiler vers le bas et sélectionner les connaissances sur lesquelles ancrer cet agent, en m'assurant qu'il puise dans les bonnes sources au sein de mon organisation. Nous continuerons à faire défiler jusqu'à la section des outils et j'ai ajouté ce déclencheur qui invite mon agent à commencer à travailler chaque fois qu'un nouvel appel d'offres arrive dans ma boîte de réception. Maintenant, lions cet agent au serveur MCP de Dynamics pour lui donner accès aux données de référence et de prix pour une proposition plus détaillée. En quelques clics, il est connecté. Ce serveur maintiendra l'agent à jour automatiquement. Il peut également utiliser des serveurs tiers comme DocuSign ou des serveurs MCP personnalisés comme celui-ci de SAP que nous avons créé pour accéder aux données des comptes clients. L'agent devra être capable de vérifier la conformité et les termes du contrat. Au lieu de construire cela de toutes pièces, je peux utiliser la nouvelle orchestration multi-agents. Les agents peuvent désormais collaborer entre eux pour assumer des tâches plus complexes. Connectons cet agent à un autre spécialisé dans les contrôles de conformité. Avec l'orchestration, l'agent d'appel d'offres peut se connecter à l'agent de revue de conformité pour s'assurer qu'il n'y a pas d'alerte. S'il passe, il reviendra à cet agent pour continuer le processus, et notre agent de réponse aux appels d'offres est opérationnel. Passons à l'ajustement Copilot, que Satya vient d'annoncer. C'est un moyen peu coûteux en code de peaufiner un nouveau modèle spécifiquement conçu pour la rédaction de contrats. Voici à quoi cela ressemble en action. J'ouvrirai l'agent Contract Builder et lui demanderai de rédiger un contrat à l'aide de quelques documents d'exemple. Il va se référer à ces documents et au modèle personnalisé que j'ai créé pour assembler le contrat. Lorsque le document sera terminé, je recevrai un e-mail avec le brouillon. Ce contrat utilise le langage, les termes et conditions, la structure et le format de notre entreprise. Je commencerai par créer un nouveau modèle. Je lui donnerai quelques informations de base : un nom, une description, et sélectionnerai le type de tâche, qui est la génération de documents. J'ajouterai la source de connaissances de notre base de données de contrats dans SharePoint. Je préciserai qui doit y avoir accès : l'équipe des contrats et l'équipe des achats. Copilot s'assure que tout cet accès aux sources de connaissances et au modèle affiné est aligné. Notre Contract Builder est maintenant prêt pour l'étiquetage des données. Une fois que les experts métier auront terminé le processus d'étiquetage des données, nous pourrons achever la formation de ce modèle affiné et le publier. Depuis l'application M365 Copilot, l'équipe peut sélectionner 'créer un agent', choisir un agent spécifique à une tâche et sélectionner le modèle Contract Builder que je viens d'affiner. L'agent est prêt. J'ai mis à l'échelle le travail que je peux fournir en tant que développeur, en donnant aux personnes les plus proches de l'entreprise les moyens de réimaginer leurs flux de travail avec l'IA. À vous, Satya.

Windows: The Best Dev Box for the Agentic Web

Satya Nadella

besoin spécifique de votre application. Pensez-y : il est livré avec Phi Silica, vous faites juste un adaptateur LoRA dans votre application et cela fonctionne tout simplement. Si O1 et DeepSeek marquent le début de l'inférence ou du calcul au moment du test dans le cloud, je pense que Phi Silica va complètement révolutionner ce à quoi ressemblera le calcul d'inférence sur le PC et vous tous, en tant que développeurs, allez vraiment exploiter cela pour construire des expériences incroyables. Au-delà du modèle lui-même, vous disposez désormais de toutes ces riches API sémantiques pour intégrer et indexer vos données locales dans un magasin vectoriel, avec la confidentialité protégée. Ensuite, vous pouvez créer ces applications RAG hybrides où, lorsque vous faites un RAG, vous pouvez réellement accéder aux données locales et faire en sorte qu'elles soient contextuellement pertinentes. Si vous construisez vos propres modèles, Windows ML vous offre une voie pour déployer une IA haute performance sur une variété de silicium sans la complexité d'un réglage spécifique à l'appareil. Aujourd'hui, nous franchissons la prochaine étape, en modernisant Windows pour le web agentique. Nous annonçons le support natif de MCP dans Windows. Windows inclura désormais plusieurs serveurs MCP intégrés comme les systèmes de fichiers, les paramètres, les actions d'application, ainsi que le fenêtrage. Nous ajoutons un registre MCP natif qui permet aux clients compatibles MCP de découvrir des serveurs MCP sécurisés qui ont été vérifiés par nous pour la sécurité et la performance, tout en vous gardant aux commandes. Laissez-moi passer la main à Divya pour vous montrer comment tout cela se met en place à la fois en tant que développeur d'applications et aussi en tant qu'utilisateur d'applications sur Windows. Divya, c'est à vous.

Miti Joshi

Merci, Satya. Aujourd'hui, je vais vous montrer à quel point il est facile de configurer une nouvelle distribution Linux, de construire un projet de site web complet et de le mettre à jour avec mon design Figma, le tout avec seulement trois phrases dans VS Code à l'aide de GitHub Copilot et MCP sur Windows. Tout d'abord, assurons-nous que nous sommes correctement configurés. Pour que les agents se connectent aux serveurs MCP, les applications ont besoin d'autorisations explicites des utilisateurs. Dans les paramètres, vous verrez que j'ai déjà activé WSL et Figma, afin que leurs serveurs MCP soient facilement accessibles aux agents. Les autres applications restent dans leur état désactivé par défaut, me plaçant en tant qu'utilisateur en plein contrôle. Maintenant que nous sommes tous configurés, plongeons dans VS Code et utilisons mes deux premières phrases. J'ai VS Code ouvert avec GitHub Copilot en mode agent. Je demande à GitHub Copilot : 'Peux-tu rechercher la dernière version de Fedora dans WSL et l'installer pour moi ? Une fois qu'elle est installée, peux-tu aussi configurer un projet de site web simple dans Fedora en utilisant Node.js ?' J'appuie sur entrée, et Copilot essaie ici d'établir une connexion sécurisée avec le serveur MCP de WSL. Il me donne plusieurs invites de consentement rapide de l'utilisateur. J'accepte et lui permets de continuer. Dans les coulisses, il essaie également de requêter la liste des distributions en ligne disponibles, trouve que Fedora 42 est la dernière version et procède à l'installation. Cette installation peut prendre environ deux à trois minutes, alors passons sur un appareil où cette configuration est terminée. Sur cet appareil, j'ai l'environnement configuré. Remontons et voyons quelles étapes il a exécutées pour moi. C'est exactement la même invite. GitHub Copilot en mode agent a été assez intelligent pour analyser cette requête en plusieurs étapes de manière fluide. Il a requêté la distribution en ligne WSL, configuré l'environnement Fedora et installé Node.js NPM directement à l'intérieur de Fedora en utilisant le gestionnaire de paquets DNF. La meilleure partie ici est qu'il savait comment exécuter des commandes spécifiques interagissant directement avec WSL sur mon appareil. C'est plutôt génial. Maintenant, jetons un coup d'œil au projet de site web simple qu'il a créé pour moi. C'est un début. J'aimerais faire un pas de plus et lui donner l'apparence du design que j'ai sélectionné dans mon Figma. Voici mon application de bureau Figma et le design que j'ai sélectionné, Penguin Pen Pals. Maintenant, je suis prête à retourner dans VS Code et à utiliser ma troisième phrase. Je vais demander à GitHub Copilot : 'Peux-tu faire en sorte que mon site web ressemble au design que j'ai sélectionné dans Figma, extraire les détails du design et les appliquer à mon projet ?' Maintenant j'appuie sur entrée, et Copilot établit une connexion sécurisée avec le serveur MCP de Figma et demande mon consentement pour continuer. Avant de faire cela, il a interrogé la liste des serveurs disponibles dans mon registre MCP, a trouvé que Figma était le plus pertinent pour effectuer cette tâche, et il procède à la connexion. Une fois connecté, l'agent extrait les détails du design directement de Figma, les intègre à mon projet et met à jour la mise en page, le design, le style et le contenu du site en conséquence. Cela pourrait prendre environ deux à trois minutes. Passons à un autre appareil où cette étape finale est terminée. Sur cet appareil, toute la configuration est terminée. Sur le côté gauche, vous verrez les changements de code qu'il a appliqués en extrayant les détails du design de mon application de bureau Figma. Il est maintenant temps pour nous de jeter un coup d'œil au site web qu'il a créé pour moi. C'est exactement le design que j'ai sélectionné dans mon application de bureau Figma. Il a fait tout cela en seulement trois phrases dans une seule interface de chat. Ce n'est qu'un exemple d'un scénario centré sur le développeur que je vous ai montré aujourd'hui. Imaginez quelles autres opportunités incroyables cela peut débloquer pour vous, améliorant votre productivité tout en restant sécurisé. C'est la puissance de MCP sur Windows : sécurisé, piloté par agent et axé sur le développeur. À vous, Satya.

Satya Nadella

Merci, Divya. Comme vous l'avez vu avec VS Code, GitHub Copilot et WSL, nous faisons de Windows la meilleure boîte de développement pour le web agentique. En parlant de WSL, nous avons annoncé pour la première fois Bash sur Ubuntu sur Windows il y a près de 10 ans. C'est devenu par la suite ce que nous appelons WSL. En regardant en arrière, le tout premier ticket dans le dépôt était une demande pour le rendre open source. À l'époque, toute notre logique pour le projet était inséparable du reste de l'image Windows. Depuis lors, les distributions WSL2 sont plus séparables et autonomes. Revenons en arrière et réouvrons ce tout premier ticket pour le fermer comme résolu, car aujourd'hui nous rendons WSL entièrement open source.

The Open Agentic Web Ecosystem

Satya Nadella

Jusqu'à présent, nous avons beaucoup parlé du web agentique et de l'écosystème qui l'entoure se rejoignant, que ce soit de Microsoft 365 à Foundry jusqu'à Windows. J'ai pensé qu'il serait formidable d'inviter Kevin Scott, notre directeur de la technologie, pour vous donner une perspective plus large sur cet écosystème et notre opportunité collective de construire un web plus agentique. Bienvenue, Kevin.

Kevin Scott

Merci, Satya. Heureux de vous voir tous. C'est mon neuvième Build en tant que directeur de la technologie de Microsoft, ce qui semble être une période vraiment longue. Je viens ici une fois par an pour vous parler et oublier que je suis introverti pendant 15-20 minutes. Ce n'est pas qu'une chose magique se produit chaque mois de mai qui me fait oublier que je suis introverti, c'est juste qu'il y a eu beaucoup de choses passionnantes dans l'univers de la technologie au cours de l'année écoulée et beaucoup de choses à venir l'année prochaine que je veux partager un peu de cet enthousiasme avec vous tous. La chose qui m'enthousiasme en ce moment est quelque chose qui émerge parce que les composants, protocoles et services sur lesquels nous avons collectivement travaillé ces dernières années forment ce que nous avons appelé le web agentique. La chose encourageante est que cela se produit d'une manière ouverte, ce que je pense que nous devrions tous surveiller étant donné où nous nous dirigeons. Je vais expliquer pourquoi c'est important. Avant d'entrer dans l'architecture de ce web agentique ouvert, parlons de ce qu'est un agent. Je sais que vous avez probablement tous des définitions différentes en tête. C'est un peu comme un test de Rorschach, mais la chose à laquelle je reviens toujours est qu'un agent est quelque chose à quoi un être humain est capable de déléguer des tâches. Au fil du temps, les tâches que vous déléguez à ces agents deviennent de plus en plus complexes. C'est ce que nous visons au fil du temps. Nous avons vu une explosion des agents eux-mêmes. Voici notre diagramme de ce à quoi ressemble le web agentique, et tout en haut de la pile se trouve un écosystème plus riche d'agents que nous construisons, que nos partenaires construisent et que vous construisez tous. Nous allons en voir d'autres arriver au cours de l'année prochaine. La chose frappante à propos de ces agents au cours de l'année écoulée est qu'ils sont utilisés plus fréquemment que jamais. Les utilisateurs actifs quotidiens depuis ma dernière visite ici ont plus que doublé. Les gens les utilisent à un rythme accéléré. Le plus important qui s'est produit est que ces agents, grâce aux nouveaux modèles de raisonnement qui ont été lancés au cours de l'année écoulée, ont pu assumer des tâches extrêmement compliquées. Vous en avez déjà vu une partie de la part de Satya et des personnes qui ont fourni des démonstrations, juste les choses incroyables que certains de ces agents peuvent faire en ce moment, particulièrement dans l'ingénierie logicielle. Vous allez en voir davantage au cours de Build. Au-dessus de la couche d'agent de cette pile de web agentique se trouve la couche d'exécution (runtime). L'exécution est un ensemble émergent de composants que nous construisons. Ce qui s'est vraiment amélioré au cours de l'année écoulée est la couche de raisonnement à l'intérieur de la couche d'exécution. Les capacités de raisonnement de ces modèles continueront de s'améliorer. Si quoi que ce soit, nous avons un surplus de capacité avec le raisonnement ; les modèles sont plus puissants que ce pour quoi nous les utilisons collectivement. L'un de mes grands défis pour vous tous cette année est de porter votre niveau d'ambition à 11, de cibler des choses que vous pensez être à peine possibles en ce moment en termes de capacité de raisonnement, car les modèles vont devenir tellement plus puissants et moins chers au cours des 12 prochains mois que nous ne voulons pas que ce surplus de capacité s'agrandisse. Il y a un tas de choses en plus du raisonnement qui doivent être construites. Une chose qui a manqué aux agents est une mémoire agentique vraiment robuste. Nous l'avons approximée avec des choses comme le RAG et les longues fenêtres de contexte, mais vous voulez que vos agents aient une mémoire riche sur laquelle ils peuvent s'appuyer avec une réelle étendue et une haute précision afin que les souvenirs soient exacts et que vous puissiez leur faire confiance. Il se passe des trucs super intéressants. Nous avons rendu open source un système appelé TypeAgent sur lequel vous pourrez en apprendre davantage plus tard. C'est une façon dont nous essayons d'aborder cette mémoire agentique pour rendre les agents moins transactionnels afin qu'ils puissent résoudre un problème une fois et se souvenir de la solution, et se souvenir de leurs interactions avec vous pour qu'ils puissent devenir personnalisés et comprendre vos préférences. Microsoft livre ces composants via Azure Foundry. Azure Foundry va s'enrichir au cours de l'année à venir, et vous allez entendre Jay Parikh et d'autres parler de cette couche Foundry et de cet environnement d'exécution plus en profondeur. Il est super important pour un web agentique ouvert que les agents puissent entreprendre des actions en votre nom. Les agents doivent être raccordés au monde extérieur. Vous avez besoin de protocoles comme MCP et A2A qui aideront à connecter de manière ouverte, fiable et interopérable les agents que vous écrivez et les agents utilisés par des centaines de millions de personnes pour accéder au contenu, aux services et entreprendre des actions au nom des utilisateurs. La chose passionnante dont nous voulons parler à ce Build est notre engagement sérieux envers MCP. MCP a décollé au cours des derniers mois. Il remplit un créneau important dans cet écosystème de web agentique ouvert. C'est un protocole simple, semblable à l'HTTP, qui vous permet de faire des choses sophistiquées parce que le protocole lui-même n'a pas beaucoup d'avis sur la charge utile qu'il transporte. C'est une excellente base sur laquelle vous pouvez superposer des choses. Cette composabilité des composants et la superposition des protocoles étaient importantes pour qu'Internet lui-même parvienne à sa richesse. Cela vous donne de bons points de départ et la capacité de résoudre des problèmes à mesure que vous les découvrez. Nous avons entendu Satya parler du registre MCP dans Windows. Nous faisons énormément de travail pour permettre aux composants de plateforme de premier niveau de Microsoft et aux services de premier niveau d'être mis à niveau avec MCP. Nous l'avons choisi comme notre protocole standard pour la communication agentique entre agents et des agents vers les services. Nous allons faire tout un tas de travail au cours des prochains mois avec nos partenaires chez Anthropic pour nous assurer que les problèmes d'entreprise complexes qui doivent être résolus sur un protocole comme MCP soient réglés, comme la façon dont un agent s'identifie et comment vous construisez une infrastructure de droits riche afin que nous puissions autoriser les agents à avoir accès aux systèmes dont ils ont besoin. Nous allons vraiment soutenir la communauté open source ici. Quand on pense à l'utilité d'un protocole à cette couche de la pile, la chose la plus importante est l'ubiquité. Nous pouvons entrer dans des débats d'ingénieurs sur la technologie où vous avez des opinions tranchées, mais ce qui est mieux, c'est d'obtenir quelque chose de standard que nous pouvons tous utiliser et sur lequel nous pouvons construire, et nous espérons que cette chose soit MCP. J'ai mentionné la superposition. Dans le web, nous avons HTTP et des choses qui se trouvent au-dessus, comme HTML, qui ont un avis sur la charge utile. Nous annonçons NLWeb aujourd'hui. L'idée derrière NLWeb est un moyen pour quiconque possède un site web ou une API de transformer très facilement son site web ou son API en une application agentique. Cela vous permet d'implémenter et de tirer parti de toute la puissance des grands modèles de langage pour enrichir les services et les produits que vous proposez. Étant donné que chaque point de terminaison NLWeb est par défaut un serveur MCP, cela signifie que les choses que les gens proposent via NLWeb seront accessibles à tout agent parlant MCP. Vous pouvez vraiment y penser un peu comme au HTML pour le web agentique. Nous avons déjà travaillé avec des partenaires qui ont pu obtenir des mises en œuvre rapides à l'aide de NLWeb. Nous avons travaillé avec TripAdvisor, O'Reilly Media et de nombreuses grandes entreprises qui proposent des produits et services importants sur Internet pour ajouter la fonctionnalité NLWeb à leurs sites afin qu'elles puissent avoir des expériences agentiques directement sur leurs sites. L'une des choses que je voulais vous montrer pour vous ancrer dans les capacités est la façon dont vous pourriez tous aller chercher du code de ce dépôt. Ce que nous montrons ici est un moyen pour vous de mettre une interface utilisateur NLWeb agentique au-dessus de n'importe quel dépôt GitHub auquel vous avez accès. Ce que nous montrons à l'écran, c'est l'exécution de ce script Python : il parle à l'API GitHub et extrait des données de votre dépôt GitHub. Jennifer Marsman de mon équipe récupère toutes les métadonnées et données de ses dépôts dans un référentiel NLWeb. La deuxième chose que vous faites est d'exécuter un script qui prend toutes ces données et calcule des intégrations (embeddings) pour celles-ci. Vous avez énormément de choix sur le modèle, les intégrations et le magasin vectoriel que vous utilisez. Dès que vous calculez les intégrations et que vous les importez dans un magasin vectoriel local, vous êtes en mesure d'effectuer des requêtes intéressantes par-dessus. Vous pouvez faire plus que ce que vous obtiendriez avec une requête de base de données ou de recherche d'informations. Vous êtes capable de dire : 'J'ai écrit ce morceau de code dans une PR, j'ai besoin de me rappeler du nom de cet algorithme', et c'est le genre de chose que NLWeb peut faire. Nous rendons cela open source et espérons avoir vos retours sur la façon dont nous pouvons améliorer NLWeb, car nous pensons que la somme totale de votre imagination opérant sur le web agentique va le rendre fondamentalement plus intéressant que si une seule entité essayait de tout faire seule. Vous pouvez en apprendre davantage sur ces choses grâce à ces deux conférences en particulier. Il y a une conférence fantastique de 16h30 à 17h30 aujourd'hui sur la façon dont vous pouvez transformer votre site web en une application IA. Et puis pour les trucs de mémoire auxquels je faisais référence, nous avons une conférence de 13h45 à 14h00 aujourd'hui qui va être vraiment géniale. La dernière chose que je veux dire avant de rendre la parole à Satya est d'insister sur ces points : pourquoi l'ouverture est-elle si importante. C'est incroyable ce qui peut arriver dans le monde quand des composants simples et des protocoles simples qui sont composables les uns avec les autres sont exposés au plein examen et à la créativité de chaque développeur dans le monde qui a une idée. J'essaie d'imaginer à quoi le web aurait ressemblé si l'un des acteurs du développement initial du web, disons les fabricants de navigateurs, avait décidé qu'ils voulaient s'intégrer verticalement et posséder l'intégralité du web. 100% du web aurait été dicté par les limites de leur imagination. Il est évident avec 30 ans d'histoire que cela n'aurait pas été un web très intéressant, car le web est intéressant parce que des millions, des dizaines de millions, des centaines de millions de personnes participent pour en faire cette chose riche et dynamique. C'est ce que nous pensons dont nous avons besoin avec le web agentique et c'est ce que nous espérons que vous pourrez être inspirés à travailler, à explorer et à utiliser toute l'étendue de votre imagination pour aider à rendre cette chose intéressante. Merci à tous d'être à Build. On se voit l'année prochaine.

Data & Infrastructure: Powering the AI Era

Satya Nadella

Merci beaucoup, Kevin. La vision du web agentique que Kevin vient de décrire nous rapproche de la vision originale et de l'éthos du web. Le contenu et l'intelligence peuvent désormais être plus distribués et découvrables sur le web. NLWeb est une chose assez fascinante. J'ai hâte de voir ce que vous en ferez. Il démocratise la création d'intelligence pour n'importe quelle application et n'importe quel site web. Il démocratise l'agrégation de cette intelligence pour n'importe quel développeur. Vous pouvez facilement dire : 'Donnez-moi un modèle de raisonnement et NLWeb', et je peux prendre une intention et commencer à composer en utilisant le modèle de raisonnement pour synthétiser à travers cette intelligence distribuée. Ce qu'est la recherche, ce qu'est un flux, n'importe laquelle de ces choses est complètement changée en termes de façon de construire. C'est une plateforme que nous voulons créer ensemble. Je pense que quelque chose d'important va en sortir car ce n'est pas juste une répétition du passé. Les 10-15 dernières années ont toujours porté sur le pouvoir de l'agrégateur. Je pense que quelque chose d'important va changer. Passons maintenant à la couche suivante de la pile : les données. Après tout, pour toute application IA, le niveau de données est super important. Nous construisons la pile de données complète. Il y a tellement de bons exemples, que ce soit Lumen utilisant Fabric pour économiser plus de 10 000 heures car ils peuvent accéder aux données plus rapidement, ou Sitecore offrant une vitesse multipliée par 10 avec notre pile de données. Mais l'un de mes exemples préférés est la NFL, qui a utilisé notre pile de données pour organiser le récent 'scouting combine'. Regardons la vidéo.

Jacqueline Davidson

Le succès dans la NFL se résume souvent à une action, une seconde, une chose qui est faite mieux que votre adversaire. Les données en sont une grande partie.

Jeff Foster

Le combine est un événement qui rassemble les 3% meilleurs joueurs de football éligibles pour le recrutement. Dans les premières années, nous collections la même quantité de données, mais elles étaient dispersées dans différents systèmes.

Johnny Halife

Les équipes n'avaient aucun moyen de filtrer, rechercher et comparer ces statistiques sans fouiller dans de multiples rapports. L'IA était le moyen idéal pour obtenir cette vue complète des prospects.

Jeff Foster

Nous avions très peu de temps pour mettre tout cela en place avant le coup d'envoi. Azure AI Foundry nous a donné les outils dont nous avions besoin pour démarrer sur les chapeaux de roue.

Johnny Halife

Nous avons commencé avec les modèles Azure OpenAI GPT que nous n'avions pas besoin d'affiner. Nous avions Azure Cosmos DB pour stocker et récupérer rapidement ces données, et nous avons Azure Container Apps pour déployer la charge de travail de manière fluide. C'était comme un défi majeur que nous avons résolu en un rien de temps.

Jeff Foster

Désormais, les équipes ont la possibilité de poser des questions sur des joueurs spécifiques et d'obtenir immédiatement des données permettant une analyse comparative de joueur à joueur. Cela donne vraiment un avantage aux évaluateurs que nous n'avions pas auparavant.

Jacqueline Davidson

Pouvoir poser une question comme je vous la poserais à vous, du genre 'Donne-moi les temps les plus rapides sur 40 yards d'un joueur de ligne défensive'. Le filtrage des données qui aurait pris des heures se fait en quelques secondes.

Jeff Foster

La capacité de collecter des données en temps réel et de creuser les détails pendant que le joueur est devant vous vous rend plus confiant dans votre décision.

Satya Nadella

Le sport et les données : c'est ce qu'il y a de plus amusant. J'adore ça, et nous faisons beaucoup d'annonces sur les données à Build, en commençant par le lancement de SQL Server 2025. Plus important encore, we rapprochons plus que jamais la couche de données et l'intelligence. Pour tout agent en conditions réelles, vous avez besoin de stockage, c'est pourquoi nous intégrons Cosmos DB directement dans Foundry. Cela signifie que n'importe quel agent peut stocker et récupérer l'historique des conversations, et bientôt ils pourront utiliser Cosmos pour tous leurs besoins en applications RAG. Et nous allons plus loin avec Azure Databricks, en connectant vos données dans les espaces Genie ou dans les fonctions IA à Foundry. Une autre fonctionnalité très cool est que désormais, à l'intérieur d'une requête PostgreSQL, vous pouvez intégrer directement les réponses d'un LLM. Ainsi, vous pouvez mélanger le langage naturel et le SQL et avoir l'orchestration et un plan de requête qui se déroulent d'une manière très différente. Fabric, que nous avons lancé ici à Build il y a deux ans, est au cœur de notre pile de données et d'analyse. Fabric réunit toutes vos données et charges de travail dans cette expérience unifiée. L'automne dernier, nous avons mis SQL dans Fabric, et aujourd'hui nous franchissons la prochaine grande étape. Nous apportons également Cosmos DB à Fabric, car les applications d'IA ont besoin de plus que de simples données structurées, elles ont besoin de données semi-structurées, qu'il s'agisse de texte, d'images ou d'audio. Avec Cosmos et Fabric et vos données instantanément disponibles aux côtés de SQL, vous pouvez désormais unifier l'ensemble de votre patrimoine de données et le préparer pour l'IA. Nous intégrons même notre constructeur de jumeaux numériques directement dans Fabric. Désormais, vous pouvez facilement créer des jumeaux numériques sans code ou avec peu de code ; vous pouvez cartographier les données de vos actifs physiques et systèmes super rapidement. Nous annonçons également des transformations par raccourcis dans OneLake. Pensez à cela comme à de l'ETL piloté par l'IA : vous pouvez appliquer toutes ces transformations pré-construites et alimentées par l'IA, comme l'audio vers le texte ou l'analyse de sentiment lorsque les données arrivent, la synthèse, le tout alimenté par Foundry directement dans Fabric, et tout cela en quelques clics. Enfin, je veux parler de l'une de mes fonctionnalités préférées qui arrive maintenant sur Power BI, à savoir Copilot dans Power BI, qui vous permet de discuter avec toutes vos données. Vous pouvez poser des questions sur les données, les explorer visuellement, les analyser à travers plusieurs rapports Power BI et modèles sémantiques. Ce sera également disponible dans Microsoft 365 Copilot, donc la puissance de tout le travail que vous avez fait pour construire ces modèles sémantiques et tableaux de bord dans Power BI et pouvoir maintenant y ajouter des modèles de raisonnement dans une interface de chat changera la donne. Nous en sommes très enthousiastes. Passons donc à la couche inférieure de la pile, qui est l'infrastructure. En tant que développeur, vous faites face à ce problème d'optimisation classique entre fournir la meilleure expérience d'IA en termes de performance et de latence, et ensuite vous devez la fournir avec un coût qui diminue de façon monotone. C'est pourquoi nous adoptons une approche systémique, travaillant à travers toute l'industrie pour optimiser l'ensemble de la pile. Qu'il s'agisse du centre de données, du silicium, du logiciel système ou du serveur d'applications, nous réunissons le tout comme un seul système et optimisons grâce à la puissance du logiciel. Notre objectif est d'offrir l'infrastructure la moins coûteuse et la plus vaste pour construire à la fois le cloud et la prochaine génération de charges de travail d'IA. Et tout se résume à fournir le plus grand nombre de jetons par watt par dollar. Et c'est l'équation ultime pour nous. Et nous suivons de multiples courbes en S à travers le silicium, voyez cela comme la loi de Moore classique plus l'optimisation du logiciel système et l'optimisation des modèles. C'est l'effet cumulatif de ces trois courbes en S. Et nous faisons tout cela avec une réelle rapidité. Quand quelque chose est prêt, vous voulez l'intégrer à la flotte. En fait, Azure est le premier cloud à mettre en ligne les NVIDIA GB200 et à le faire à grande échelle. Azure mène désormais la performance à partir d'un seul GB200 avec rack NVLink 72, générant un nombre étonnant : 865 000 jetons par seconde. C'est le débit le plus élevé pour n'importe quelle plateforme cloud. Et bien sûr, il n'y a personne de mieux placé pour en parler que Jensen Huang. Lançons la vidéo. Merci beaucoup, Jensen, de nous rejoindre encore une fois pour notre conférence Build. Notre objectif commun est de fournir plus d'intelligence au monde. C'est jetons par dollar par watt. Je voulais avoir votre perspective là-dessus, en commençant par le début de ce qui a été notre industrie, c'est-à-dire la loi de Moore.

Jensen Huang

Tellement heureux d'être ici, Satya. Il y a deux ans, nous venions de lancer ensemble le plus grand supercalculateur d'IA au monde sur Azure. C'est le grand changement dans le fonctionnement de l'informatique maintenant. Avec nos nouveaux algorithmes CUDA et la nouvelle technologie de modèle dans votre nouvelle infrastructure d'IA sur Azure, tout cela combiné représente une accélération de 40x par rapport à Hopper. C'est une accélération folle en seulement deux ans.

Satya Nadella

Voulez-vous parler des effets cumulatifs du logiciel qui s'ajoutent ensuite à tout ce que nous faisons ensemble ?

Jensen Huang

Nous voulons toujours la compatibilité d'architecture, nous voulons que l'écosystème riche soit stable afin que les investissements des développeurs de logiciels et de tous les développeurs d'IA et de tous vos clients d'infrastructure soient distribués et amortis sur l'ensemble de la flotte.

Satya Nadella

Voulez-vous parler un peu de ce qui arrive à l'utilisation et à la diversité des charges de travail qui sont toutes accélérées ?

Jensen Huang

L'un des avantages de CUDA est que la base installée est immense. Un autre avantage de CUDA est que d'une part, c'est une architecture d'accélérateur. D'autre part, c'est assez polyvalent pour certaines des charges de travail les plus lourdes. Nos deux équipes travaillent sur l'accélération du traitement des données par 20x, 50x, le transcodage vidéo, le traitement d'images, des modèles de toutes sortes. Tous ces différents types d'algorithmes se mappent merveilleusement bien sur CUDA. Notre travail est de s'assurer que cette flotte et ces charges de travail de votre centre de données sont pleinement accélérées, et que la flotte est pleinement utilisée pendant toute sa vie.

Satya Nadella

Ce ne sont pas seulement les jetons, mais ce sont toutes les charges de travail par dollar par watt. Pouvons-nous vraiment les accélérer toutes alors que nous continuons à innover à travers les frontières du matériel et du logiciel ?

Jensen Huang

Et Satya, merci pour votre partenariat et votre leadership et l'alignement entre nos deux organisations pour construire l'infrastructure la plus avancée au monde, les usines d'IA les plus avancées au monde. Le meilleur reste à venir.

Satya Nadella

Merci, Jensen. Le plus grand supercalculateur basé sur GB200 va être Azure. Nous sommes très enthousiastes à l'idée de mettre cela à l'échelle et de le rendre disponible pour vous tous en tant que développeurs. Nous continuons à étendre Azure. Nous avons maintenant plus de 70 régions de centres de données, plus que n'importe quel autre fournisseur. Au cours des trois derniers mois seulement, nous avons ouvert 10 centres de données à travers les pays et les continents. Nous construisons un système d'IA complet. Cela inclut le refroidissement pour répondre aux demandes des charges de travail d'IA. Avec Maia, nous avons introduit et conçu cette unité de refroidissement liquide d'accompagnement qui prend également en charge le GB200 dans ce mode en circuit fermé afin que vous puissiez réellement consommer zéro eau. Côté réseau, nos centres de données les plus récents construits pour l'IA ont plus de fibres optiques que ce que nous avons ajouté dans tout Azure avant l'année dernière. Même la conception des centres de données est époustouflante pour moi. Nous connectons nos DC avec ce backbone AI WAN de 400 téraoctets. Qu'il s'agisse de besoins d'inférence ou d'entraînement lorsque vous les distribuez, l'AI WAN connecte cette empreinte de centre de données. Et bien sûr, les applications d'IA elles-mêmes. Il ne s'agit pas seulement d'avoir un accélérateur d'IA ou un GPU ; vous avez besoin de tout votre calcul. Chaque application a besoin de stockage et de calcul, et c'est là que nous générons beaucoup d'efficacité sur la courbe en S. En octobre dernier, nous avons lancé Cobalt, nos machines virtuelles basées sur Arm. Elles alimentent déjà beaucoup de nos propres charges de travail à grande échelle. Teams tourne dessus, Defender tourne dessus. Nous avons tous nos partenaires — Adobe, Databricks, Snowflake — qui passent à l'échelle sur Cobalt. En parlant de nouvelles charges de travail utilisant notre flotte fongible d'accélérateurs d'IA, de GPU, de calcul et de stockage, le Met Office est un exemple incroyable. Ils utilisent Azure pour mieux prédire la météo, garantissant des prévisions rapides et précises pour des millions de personnes. Le supercalculateur qu'ils ont construit sur Azure est le supercalculateur le plus avancé de tout type pour la météo et la science du climat. Jetons un coup d'œil.

Charlie Ewan

Le Met Office existe depuis plus de 170 ans, fournissant l'intelligence météorologique et climatique la plus fiable dans notre monde en mutation radicale. Chaque jour, nous intégrons plus de 50 milliards d'observations, 200 à 300 téraoctets de données opérationnelles par jour. Nous avons donc besoin d'un très grand stockage et d'un très grand calcul pour pouvoir faire cette prévision météorologique numérique.

Ségolène Berthou

La résolution des modèles est très importante. Ils nécessitent beaucoup de puissance de supercalculateur. Plus nous aurons de puissance de supercalculateur, plus nous pourrons augmenter la précision de nos prévisions.

Ségolène Berthou

Cela aidera également les gens à prendre de meilleures décisions.

Simon Vosper

La science de la météo et du climat est une science de grande envergure. Les données que ces modèles produisent sous-tendent tous nos produits et services.

Penny Endersby

Notre capacité à fournir de manière répétée et fiable ces services de supercalcul massifs est d'une importance primordiale. Et nous ne pouvons vraiment le faire que dans quelque chose comme Azure. Ce programme place réellement un supercalculateur scientifique au cœur de l'infrastructure plus large d'Azure et il est entièrement intégré, ce qui signifie qu'à l'avenir, nous pourrons commencer à développer des produits et services nouveaux et actuellement impossibles.

Alex Deakin

Ce sera le premier supercalculateur au monde basé sur le cloud exclusivement destiné aux prévisions météorologiques.

Simon Vosper

Il nous permet de faire tourner des modèles plus complexes à une résolution plus élevée pour fournir des prévisions plus rapides et plus précises. Et nos clients remarqueront des améliorations dans la précision de nos prévisions.

Annie Shuttleworth

Bonjour. Bienvenue à notre mise à jour météo du Met Office britannique.

Alex Deakin

Nous faisons des prévisions météorologiques et des prédictions climatiques pour le public, pour le gouvernement et pour les entreprises. Il s'agit de cette honnêteté et de cette construction de confiance pour que, lorsque le temps est rude, les gens croient vraiment ce que vous allez dire et, surtout, qu'ils agissent en conséquence.

Simon Vosper

En regardant plus loin, nous avons des projets vraiment passionnants où nous étendons notre plage de prévisions, avec une modélisation à plus haute résolution, ce qui bénéficiera à la précision, à la rapidité et à l'utilité de nos prévisions météo.

Alex Deakin

Cela va simplement améliorer tout ce que nous faisons ici au Met Office et améliorer la vie de chacun.

Microsoft Discovery: Accelerating Scientific Breakthroughs

Satya Nadella

C'est bien sûr plus qu'une question de performance et d'efficacité. C'est une question de résilience numérique. Nous disposons de l'ensemble le plus complet de capacités de conformité dans le cloud. Nous offrons des contrôles souverains tels que la résidence des données, le calcul confidentiel pour l'infrastructure cloud, y compris vos accélérateurs d'IA et GPU, ainsi que les charges de travail pass. Cela garantit que vous maintenez ce contrôle total sur la manière dont vos systèmes sont gouvernés et qui y a accès. Maintenant, alors que notre cloud offre cette couverture complète, il existe encore de nombreux cas d'utilisation critiques qui nécessitent une latence extrêmement faible et un contrôle explicite de l'endroit et de la manière dont vos applications et vos données sont stockées. Cela signifie la capacité de faire fonctionner des choses de manière déconnectée. C'est pourquoi nous proposons également Azure Local. Jusqu'à présent, nous avons parlé des flux de travail des développeurs et des travailleurs du savoir sur notre plateforme d'IA, mais il y a un autre domaine dont je veux parler pour conclure : la science. L'une des choses les plus excitantes qui, selon moi, se produiront au cours des années à venir, ce sont de réelles percées dans le processus scientifique lui-même, ce qui accélérera notre capacité à créer un nouveau matériau, composé ou molécule. C'est pourquoi nous réunissons toute la pile dont j'ai parlé aujourd'hui et l'appliquons au processus scientifique. C'est notre ambition avec Microsoft Discovery, que nous annonçons aujourd'hui. Si vous pensez à GitHub pour les développeurs de logiciels, ou à Microsoft 365 et Copilot Studio pour le travail de connaissance et les processus métier, Microsoft Discovery est pour la science. Il est construit sur un moteur de connaissance basé sur des graphes très puissant, GraphRAG. Au lieu de récupérer des faits, il comprend les connaissances nuancées dans le domaine scientifique à partir du domaine public ainsi que de vos propres données si vous êtes une entreprise biopharmaceutique. Discovery est construit sur Foundry, apportant des agents avancés hautement spécialisés dans la R&D, pas seulement pour le raisonnement, mais pour mener la recherche elle-même. Au lieu de pipelines statiques, ces agents coopèrent dans un cycle itératif continu, générant des candidats, les simulant et apprenant des résultats. C'est l'agent scientifique. Laissez-moi passer la parole à John pour vous montrer tout cela en action. John ?

John Link

Merci, Satya. Je suis John, responsable produit chimie pour notre plateforme scientifique. Aujourd'hui, je vais vous montrer comment je dirige une équipe d'agents pour faire une découverte de liquides de refroidissement par immersion. C'est une piste de recherche intéressante pour le refroidissement des centres de données. Malheureusement, la plupart d'entre eux sont basés sur des PFAS ou des produits chimiques éternels, qui sont nocifs pour l'environnement. Comment pourrais-je découvrir un meilleur liquide de refroidissement ? Je vais vous montrer trois étapes aujourd'hui : raisonner sur les connaissances, générer des hypothèses et mener des expériences, le tout dans une boucle itérative. Plongeons-y. Ma première étape est de mener des recherches. Je veux être à jour avec les dernières connaissances sur ce sujet, donc je vais commencer par poser des questions sur les liquides de refroidissement et leurs propriétés pour m'aider à identifier des candidats de départ. La plateforme utilise un réseau d'agents qui raisonnent sur les connaissances scientifiques provenant à la fois de sources publiques et de vos recherches internes de confiance. En coulisses, elle utilise un graphe de connaissances pour fournir des informations plus approfondies et des réponses plus précises que ce que nous obtenons des LLM seuls, qui peuvent avoir du mal à relier les points. Ce processus prendra quelques minutes, alors passons à la suite. Ce que nous voyons ici est un résumé à gauche et un rapport complet à droite, couvrant l'état de l'art dans la recherche sur les liquides de refroidissement avec des liens partout vers des citations pour des recherches de confiance. Maintenant, je peux valider ces conclusions et itérer si je le souhaite avant de continuer. Notre objectif aujourd'hui n'est pas seulement de raisonner sur les connaissances. Nous voulons faire une véritable découverte de liquide de refroidissement. Nous devons donc passer à la deuxième étape, qui est la génération d'hypothèses. Je vais demander un plan spécifique à mon enquête, éclairé par cette recherche, sachant que je devrais cibler un point d'ébullition spécifique et une constante diélectrique qui ne grillera pas mes composants électroniques. Nous allons soumettre cela. Maintenant, mon équipe d'agents travaille à construire le bon flux de travail. Je n'ai pas spécifié les méthodes à utiliser ni écrit de code. Microsoft Discovery gère tout pour moi. Les agents peuvent utiliser des outils et des modèles de Microsoft. Ils peuvent intégrer des solutions open source ou tierces ou même celles de ma propre organisation. Je peux toujours ajuster ce plan, soit en ajoutant des étapes supplémentaires, soit en changeant les critères afin d'être toujours aux commandes. Si nous regardons juste ici, nous pouvons voir le plan que mes agents ont renvoyé. Il commence par une étape de chimie générative où il crée des millions de nouveaux candidats qui sont plus susceptibles de répondre à mes critères. Il utilise des modèles d'IA pour les filtrer rapidement. Enfin, nous utilisons des simulations HPC pour valider nos conclusions. En regardant cela, j'aime ce plan. Cela semble être une bonne approche. Alors, allons-y et lançons-le. Nous cliquons sur continuer et avec cela, nous sommes à l'étape trois : l'expérimentation. Microsoft Discovery exécute ce plan complet, choisissant et gérant les meilleures ressources HPC dans Azure. À l'avenir, il intégrera également nos avancées dans le calcul quantique. Nous pouvons voir les agents de découverte travailler ensemble en temps réel, pilotant tous ces calculs intenses. Avec les méthodes traditionnelles, arriver à une courte liste de candidats pouvait prendre des mois ou des années d'essais et d'erreurs. Microsoft Discovery peut compresser ce temps en jours ou même en heures. Laissez-moi vous montrer les résultats finaux du processus. Ce sont les candidats que Microsoft Discovery ha identifiés pour des liquides de refroidissement par immersion sans PFAS. Je peux analyser ces résultats pour décider si je suis prêt à aller au labo ou si je dois lancer une autre itération. Si je jette un coup d'œil à quelques-uns d'entre eux, je peux voir qu'en effet les points d'ébullition sont conformes à mes attentes et la constante diélectrique est excellente. C'est très prometteur. Mais avons-nous réellement fait une découverte ? Eh bien, ce n'est pas juste une démo. Nous l'avons vraiment fait. Nous avons pris l'un des candidats les plus prometteurs et nous l'avons synthétisé. Ils ne m'ont pas laissé apporter un nouveau matériau inconnu des humains sur cette scène, mais j'ai cette vidéo du labo. Nous pouvons voir mon liquide de refroidissement et nous y avons plongé un PC standard. Il fait tourner Forza Motorsport et maintient la température stable sans aucun ventilateur. C'est littéralement très frais. Nous avons trouvé un candidat prometteur pour un liquide de refroidissement par immersion qui ne repose pas sur des produits chimiques éternels. Imaginez utiliser Microsoft Discovery dans tous les domaines : concevoir de nouvelles thérapies, des semi-conducteurs ou des matériaux. Cela a fonctionné pour nous, mais la prochaine grande percée est la vôtre à découvrir. Merci. Passez un excellent Build. À vous, Satya.

Global Impact: Transforming Education

Satya Nadella

Merci, John. C'est en effet très cool. C'est formidable de voir comment des entreprises de tous les secteurs utilisent déjà Discovery pour accélérer leur R&D et j'ai hâte de voir cela entre les mains de plus de laboratoires de R&D et ce qu'ils pourront faire. C'était un rapide tour d'horizon complet de toute la pile et de la manière dont nous créons de nouvelles opportunités pour vous à travers le web agentique. Nous adoptons une approche de système et de plateforme, ce que vous pouvez attendre de Microsoft à chaque couche de la pile. Qu'il s'agisse de GitHub et GitHub Copilot permettant un écosystème ouvert pour le cycle de vie du développement logiciel, de Microsoft 365 Copilot, Teams et Copilot Studio permettant des agents pour chaque rôle et processus métier, ou d'une usine d'agents dans Foundry vous permettant de construire n'importe quelle application d'IA en utilisant n'importe quelle donnée, tout cela tourne sur une infrastructure de classe mondiale. Tout cela repose sur un ensemble robuste de rails pour la gestion, l'identité et la sécurité. En fin de compte, tout cela vise à créer des opportunités pour alimenter votre ambition. Je repense à certains des développeurs que j'ai eu la chance de rencontrer au cours de l'année dernière. Un père en Espagne utilisant Foundry pour aider à accélérer le diagnostic de maladies rares comme celle qui affecte son fils, une start-up en Amérique du Sud construisant une application pour ludifier le bien-être, une compagnie aérienne au Japon utilisant Phi pour aider les agents de bord à remplir des rapports même quand ils sont à 30 000 pieds d'altitude. Des exemples comme ceux-là sont ce qui m'enthousiasme et dont je tire beaucoup de fierté. Après tout, les grands gagnants seront des gens comme vous qui vont construire ces applications, et pas seulement ceux qui créent des plateformes comme nous. Les gagnants doivent se trouver dans chaque secteur de l'économie et dans chaque partie du monde. C'est notre objectif. Pour nous, il ne s'est jamais agi de la technologie. Il s'agit de ce que les gens peuvent en faire. C'est ce qui est au cœur de notre mission et je veux vous laisser avec ce puissant exemple. Plus tôt cette année, la Banque mondiale a mené une étude pour des étudiants au Nigeria utilisant Copilot. Ce qu'ils ont trouvé était assez remarquable. Selon leur analyse, c'était l'intervention éducative impliquant la technologie la plus efficace. C'est quelque chose sur lequel j'ai travaillé tout au long de ma vie chez Microsoft et de voir enfin dans un pays comme le Nigeria, mettre quelque chose entre les mains des gens et le voir vraiment s'inscrire statistiquement comme une intervention qui a eu un impact positif. La Banque mondiale a étendu le programme au Pérou où des centaines d'enseignants d'écoles publiques utilisent désormais Copilot pour améliorer les plans de cours, les résultats des élèves et progresser dans leur propre carrière. Alors, lançons la vidéo. Merci beaucoup à tous. Profitez bien de la suite de Build.

Marcos Saúl Tupayachi

Dans la zone métropolitaine de Lima, le nombre d'enfants risquant de ne pas recevoir une éducation de qualité s'élève à un peu plus de 445 000 élèves.

Ezequiel Molina

Les enseignants font face à un environnement de classe très diversifié et doivent réfléchir à la manière de garantir que tous les élèves apprennent, même à des niveaux académiques très différents. La Banque mondiale travaille activement à l'amélioration de l'éducation. Et en collaboration avec la Direction régionale de Lima, nous avons décidé de former les enseignants à l'utilisation de l'intelligence artificielle, car l'IA a le potentiel de transformer l'éducation.

Marcos Saúl Tupayachi

Le Chat de Microsoft 365 Copilot a été mis à la disposition de plus de 390 écoles et 482 enseignants de la zone métropolitaine de Lima, pour améliorer l'apprentissage dans nos classes.

Marco Antonio Pedraza

Copilot m'aide à créer des activités personnalisées pour mes enfants neurodivergents sans que ce soit ma spécialité, d'une manière à ce qu'ils se sentent intégrés, ce qui n'était pas le cas auparavant. Je pense que c'est phénoménal — je suis heureux.

Marcela Vásquez

J'avais peur de l'intelligence artificielle. Je pensais qu'elle remplacerait les enseignants et je ne croyais pas être assez douée pour manipuler ce genre d'outils. Mais grâce à cette formation que nous avons reçue, Copilot me fait me sentir plus forte. Il suggère des stratégies très créatives et personnalisées pour chacun des élèves. En conséquence, leur apprentissage s'améliore. Cela me donne un sentiment d'accomplissement. Maintenant, je peux donner plus à mes élèves.