Satya Nadella

Satya Nadella: The Future of AI Infrastructure, Software, and Agents

12 novembre 2025

Technology
Illustration de Satya Nadella

Introduction and Fairwater 2 Tour

Satya Nadella

C'est peut-être, après la révolution industrielle, la chose la plus importante. Mais en même temps, je reste un peu terre-à-terre car nous n'en sommes qu'aux premières étapes. Si vous êtes une entreprise de modèles, vous pourriez subir la malédiction du vainqueur. Vous avez peut-être accompli tout le travail difficile, réalisé une innovation incroyable, sauf qu'il suffit d'une copie pour que cela soit banalisé. Nous ne voulions pas être simplement l'hébergeur d'une seule entreprise et avoir un carnet de commandes massif avec un seul client. Ce n'est pas une entreprise. Vous ne pouvez pas construire une infrastructure optimisée pour un seul modèle. Si vous faisiez cela, à la moindre modification, une percée de type MoE survient et toute votre topologie de réseau s'effondre. C'est une chose effrayante. Notre entreprise, qui est aujourd'hui une entreprise d'outils pour l'utilisateur final, deviendra essentiellement une entreprise d'infrastructure pour soutenir le travail des agents. Ce à quoi il faut réfléchir n'est pas ce que vous ferez dans les 5 prochaines années, mais ce que vous ferez pendant les 50 prochaines.

Dwarkesh Patel

Aujourd'hui, nous interviewons Satya Nadella. Nous, c'est-à-dire moi et Dylan Patel, fondateur de SemiAnalysis. Satya, bienvenue.

Satya Nadella

Merci. C'est un plaisir. Merci d'être venus à Atlanta.

Dwarkesh Patel

Oui. Merci de nous avoir fait visiter la nouvelle installation. C'était vraiment cool à voir.

Satya Nadella

Absolument.

Dwarkesh Patel

Satya et Scott Guthrie, vice-président exécutif du Cloud et de l'IA chez Microsoft, nous font visiter leur tout nouveau centre de données Fairwater 2, actuellement le plus puissant au monde.

Scott Guthrie

Nous essayons de décupler la capacité d'entraînement tous les 18 à 24 mois. Et donc, ceci constituerait effectivement une augmentation de 10 fois.

Dwarkesh Patel

10 fois par rapport à ce avec quoi GPT-5 a été entraîné.

Scott Guthrie

Et pour mettre cela en perspective, le nombre d'optiques, les optiques réseau dans ce bâtiment, est presque aussi important que tout Azure dans l'ensemble de nos centres de données il y a deux ans et demi.

Scaling AI Training and Networking

Satya Nadella

Il y a, quoi, 5 millions de connexions réseau.

Dwarkesh Patel

Vous avez toute cette bande passante entre les différents sites d'une région et entre les deux régions. Est-ce un gros pari sur l'évolution future, anticipant qu'il y aura un modèle énorme nécessitant deux régions entières pour être entraîné ?

Satya Nadella

L'objectif est de pouvoir agréger ces flops pour une tâche d'entraînement massive, puis d'assembler ces éléments à travers les sites. La réalité est que vous l'utiliserez pour l'entraînement, puis pour la génération de données, puis pour l'inférence de toutes sortes de manières. Ce n'est pas comme s'il n'allait être utilisé que pour une seule charge de travail pour toujours.

Scott Guthrie

Fairwater 4, que vous verrez en construction à proximité, sera également sur ce réseau d'un pétabit afin que nous puissions lier les deux à un débit très élevé. Et ensuite, nous réalisons essentiellement l'AI WAN se connectant à Milwaukee où nous avons plusieurs autres Fairwater en construction.

Satya Nadella

Littéralement, vous pouvez voir le parallélisme des modèles et le parallélisme des données. C'est conçu pour les tâches d'entraînement, les pods, les superpods à travers ce campus, puis avec le WAN, vous pouvez aller au centre de données du Wisconsin et littéralement lancer une tâche d'entraînement en les agrégeant tous.

Scott Guthrie

Et ce que nous voyons ici même, c'est une cellule sans serveurs pour l'instant, sans baies.

Dylan Patel

Combien y a-t-il de baies dans une cellule ?

Scott Guthrie

Nous ne partageons pas nécessairement cela en soi, mais vous verrez à l'étage et vous pourrez commencer à compter. Nous vous laisserons commencer à compter.

Dylan Patel

Combien y a-t-il de cellules dans ce bâtiment ?

Scott Guthrie

Cette partie-là non plus je ne peux pas vous la dire, mais la division est facile, non ?

Dylan Patel

Mon Dieu... c'est bruyant.

Scott Guthrie

Regardez-vous cela en vous disant : "maintenant je vois où va mon argent" ?

Dylan Patel

C'est du genre : "je dirige une entreprise de logiciels." "Bienvenue dans l'entreprise de logiciels."

Hardware Optimization and Future Chips

Dwarkesh Patel

Quelle est l'ampleur de l'espace de conception une fois que vous avez décidé d'utiliser le GB200 et NVLink ? Combien d'autres décisions reste-t-il à prendre ?

Satya Nadella

Il y a un couplage entre l'architecture du modèle et l'installation physique qui est optimisée. Et c'est aussi effrayant en ce sens. Une nouvelle puce va sortir. Si vous prenez Vera Rubin Ultra, elle aura une densité de puissance tellement différente, avec des besoins de refroidissement tellement différents. Donc, vous ne voulez pas construire selon une seule spécification. Cela nous ramène au dialogue que nous aurons, à savoir que vous voulez évoluer dans le temps plutôt que d'évoluer une fois et de rester bloqué.

The AI Revolution in Historical Context

Dylan Patel

Quand on regarde toutes les transitions technologiques passées, qu'il s'agisse des chemins de fer, d'Internet, de l'industrialisation des pièces remplaçables, du cloud, toutes ces révolutions sont allées beaucoup plus vite entre la découverte technologique et sa généralisation dans l'économie. Beaucoup de gens passés sur le podcast de Dwarkesh pensent qu'il s'agit de la révolution ou transition technologique finale et que cette fois-ci est très, très différente. Et du moins jusqu'à présent sur les marchés, en trois ans, nous avons déjà grimpé en flèche. Les hyperscalers vont consacrer 500 milliards de dollars de dépenses d'investissement l'année prochaine, ce qui est une échelle inégalée par les révolutions précédentes en termes de rapidité. Et l'état final semble être assez différent. Comment... votre vision de cela semble assez différente de celle de l'IA-enthousiaste de base qui se dit : "l'AGI arrive". J'aimerais mieux comprendre cela.

Satya Nadella

Je commence par l'enthousiasme que je ressens aussi, car après la révolution industrielle, c'est peut-être la plus grande chose. Je pars donc de ce principe. Mais en même temps, je garde les pieds sur terre car nous n'en sommes qu'au début. Nous avons construit des choses très utiles, nous voyons de superbes propriétés, les lois d'échelle semblent fonctionner, et je suis optimiste quant au fait qu'elles continueront à fonctionner. Une partie nécessite de réelles percées scientifiques, mais c'est aussi beaucoup d'ingénierie. Cela dit, je considère également que même ce qui s'est passé au cours des 70 dernières années de l'informatique a été une marche qui nous a aidés à avancer. J'aime l'une des métaphores de Raj Reddy pour définir ce qu'est l'IA. Il est lauréat du prix Turing de CMU, et il utilisait cette métaphore : l'IA devrait être soit un ange gardien, soit un amplificateur cognitif. J'adore ça. C'est une façon simple de penser à ce que c'est. En fin de compte, quelle est son utilité humaine ? Ce sera un amplificateur cognitif et un ange gardien. Si je le vois ainsi, je le vois comme un outil. Mais on peut aussi devenir très mystique et dire : "Oh, c'est plus qu'un outil, il fait toutes ces choses que seuls les humains faisaient jusqu'à présent". Mais cela a été le cas avec de nombreuses technologies par le passé. Seuls les humains faisaient beaucoup de choses et puis nous avons eu des outils qui les ont faites.

Economic Growth and Human Utility

Dwarkesh Patel

Je suppose que nous n'avons pas besoin de nous perdre dans les définitions ici, mais une façon d'y penser est peut-être que cela prendra 5 ans, 10 ans, 20 ans. À un moment donné, une machine finira par produire des jetons Satya. Et le conseil d'administration de Microsoft pense que les jetons Satya valent beaucoup. Quelle valeur économique gaspillez-vous en interviewant Satya ?

Dwarkesh Patel

Je ne pourrais pas m'offrir les coûts d'API des jetons Satya. Mais, quel que soit le nom qu'on lui donne, les jetons Satya sont-ils un outil ou un agent. À l'heure actuelle, si vous avez des modèles qui coûtent de l'ordre du dollar ou du centime par million de jetons, il y a juste une marge énorme pour l'expansion, une expansion de marge où un million de jetons de Satya valent beaucoup. Et ma question est de savoir où va cette marge et à quel niveau de cette marge Microsoft est impliqué.

Satya Nadella

Je pense que cela revient à ce à quoi ressemblera réellement la croissance économique, à quoi ressemblera l'entreprise, à quoi ressemblera la productivité. Et c'est là que, encore une fois, si la révolution industrielle a créé de la croissance économique après 70 ans de diffusion — c'est l'autre chose à retenir, c'est que même si la technologie se diffuse rapidement cette fois-ci, pour qu'une véritable croissance économique apparaisse, elle doit se diffuser jusqu'au point où le travail, l'artefact de travail et le flux de travail doivent changer. C'est donc un point où je pense que la gestion du changement nécessaire pour qu'une entreprise change véritablement est quelque chose que nous ne devrions pas négliger. À l'avenir, les humains et les jetons qu'ils produisent bénéficieront-ils d'un effet de levier plus élevé, qu'il s'agisse des jetons Dwarkesh ou Dylan du futur ? Pensez à la quantité de technologie, seriez-vous able de diriger SemiAnalysis ou ce podcast sans technologie ? Aucune chance. L'échelle que vous avez pu atteindre, aucune chance. La question est donc : quelle est cette échelle ? Sera-t-elle décuplée avec quelque chose qui arrive ? Absolument. Et par conséquent avec votre progression vers un certain chiffre d'affaires ou une certaine audience. C'est donc ce qui va arriver, je pense. Le fait est que ce qui a pris 70 ans, peut-être 150 ans pour la révolution industrielle, pourrait arriver en 20 ou 25 ans. J'adorerais compresser ce qui s'est passé en 200 ans de révolution industrielle en une période de 20 ans si nous avons de la chance.

The Evolution of SaaS and AI Costs

Dylan Patel

Historiquement, Microsoft a peut-être été la plus grande entreprise de logiciels, la plus grande entreprise de logiciels en tant que service (SaaS). Vous avez connu une transition par le passé où vous vendiez des licences Windows et des disques de Windows ou de Microsoft et maintenant vous vendez des abonnements à 365. Alors que nous passons de cette transition à là où en est votre entreprise aujourd'hui, il y a aussi une transition qui suit. Le logiciel en tant que service, avec un coût incrémental par utilisateur incroyablement bas, beaucoup de R&D, beaucoup de coûts d'acquisition de clients. C'est pourquoi, pas Microsoft, mais les entreprises de SaaS ont massivement sous-performé sur les marchés parce que le coût des marchandises vendues (COGS) de l'IA est tellement élevé et que cela brise complètement le fonctionnement de ces modèles économiques. Comment, en tant que peut-être la plus grande entreprise de logiciels et de SaaS, faites-vous passer Microsoft à cette nouvelle ère où le COGS compte beaucoup et où le coût incrémental par utilisateur est différent ? Parce qu'en ce moment vous facturez, "Hé, c'est 20 dollars pour Copilot".

Satya Nadella

Oui, je pense que c'est une excellente question car, en un sens, les modèles économiques eux-mêmes, je pense que les leviers resteront similaires. Si je regarde le menu des modèles, du consommateur jusqu'au bout, il y aura des unités publicitaires, des transactions, des marges brutes sur les appareils pour celui qui construit un appareil IA, il y aura des abonnements, pour les consommateurs et les entreprises, et puis il y aura de la consommation. Je pense toujours que ce sont là tous les compteurs. Pour répondre à votre point, qu'est-ce qu'un abonnement ? Jusqu'à présent, les gens aiment les abonnements parce qu'ils peuvent les budgétiser ; ce sont essentiellement des droits à une certaine consommation encapsulés dans un abonnement. Je pense que cela devient en quelque sorte une décision de tarification. Le niveau de consommation auquel vous avez droit est — si vous regardez tous les abonnements de codage, c'est ce qu'ils sont, et vous avez le niveau pro, le niveau standard, etc. Je pense que c'est ainsi que la tarification et les structures de marge seront hiérarchisées. La chose intéressante pour nous chez Microsoft, c'est que nous sommes présents dans ce secteur sur tous ces compteurs. En fait, au niveau du portefeuille, nous avons pratiquement de la consommation, des abonnements et tous les autres leviers de consommation. Et je pense que le temps nous dira lesquels de ces modèles ont du sens dans quelles catégories. Une chose sur le côté SaaS puisque vous l'avez évoqué, à laquelle je pense beaucoup, prenez Office 365 ou Microsoft 365. Avoir un faible revenu moyen par utilisateur (ARPU) est formidable car voici une chose intéressante. Lors de la transition du serveur vers le cloud, l'une des questions que nous nous posions était : "Mon Dieu, si tout ce que nous faisions était de déplacer les mêmes utilisateurs qui utilisaient nos licences Office et nos serveurs à l'époque vers le cloud et que nous avions des COGS, cela va non seulement réduire nos marges, mais nous serons fondamentalement une entreprise non rentable ou encore moins rentable." Sauf que ce qui s'est passé, c'est que le passage au cloud a élargi le marché de manière folle. Nous vendions quelques serveurs en Inde, pas beaucoup, alors que dans le cloud, soudain, tout le monde en Inde pouvait aussi se permettre d'acheter des fractions de serveurs. Le coût informatique — en fait, la plus grande chose que je n'avais pas réalisée, par exemple, était le montant d'argent que les gens dépensaient pour acheter du stockage sous SharePoint. En fait, le plus gros segment d'EMC était peut-être les serveurs de stockage pour SharePoint. Tout cela a chuté dans le cloud parce que personne n'avait besoin d'aller acheter, c'était du fonds de roulement, des sorties de trésorerie. Et cela a donc élargi massivement le marché. Donc, cette IA sera la même chose. Si vous prenez le codage, ce que nous avons construit avec GitHub et VS Code sur des décennies, soudain, l'assistant de codage devient aussi important en un an. Et je pense que c'est aussi ce qui va se passer, c'est-à-dire que le marché s'élargit massivement.

Competition in AI Coding and GitHub's Strategy

Dwarkesh Patel

Je suppose qu'il y a une question de savoir si le marché va s'élargir, les parts de revenus qui touchent Microsoft vont-elles s'élargir ? Copilot est un exemple où, si vous regardez au début de cette année, selon les chiffres de Dylan je crois, les revenus de GitHub Copilot étaient de 500 millions ou quelque chose comme ça et il n'y avait pas de concurrents proches, alors que maintenant vous avez Claude Code, Cursor et Copilot avec des revenus similaires autour d'un milliard, puis Codex rattrape son retard autour de 700 ou 800 millions. La question est donc, sur toutes les surfaces auxquelles Microsoft a accès, quel est l'avantage des équivalents de Copilot chez Microsoft ?

Satya Nadella

D'ailleurs, j'adore ce graphique. Je l'adore pour tellement de raisons. D'abord, nous sommes toujours au sommet. Ensuite, toutes ces entreprises listées ici sont nées au cours des quatre ou cinq dernières années. C'est pour moi le meilleur signe. Si vous avez de nouveaux concurrents, de nouveaux problèmes existentiels quand vous dites : "Mince, c'est qui lui ? Maintenant Claude va vous tuer, Cursor va vous tuer." Ce n'est pas Borland. Donc, Dieu merci, cela signifie que nous sommes dans la bonne direction. Mais c'est ça. Le fait que nous soyons passés de rien à cette échelle est l'expansion du marché. C'est comme le cloud. Fondamentalement, cette catégorie du codage et de l'IA va probablement être l'une des plus grandes catégories. C'est la catégorie de l'usine logicielle. En fait, elle pourrait être plus importante que le travail intellectuel. Donc, je veux garder l'esprit ouvert sur... nous allons avoir une concurrence acharnée, je pense que c'est votre point, qui est excellent. Mais je suis complet que nous ayons transformé ce que nous avions en cela. Et maintenant, nous devons rivaliser. Et donc, du côté de la compétition, même au cours du dernier trimestre, je pense que nous venons de terminer notre annonce trimestrielle, nous sommes passés de 20 à 26 millions d'abonnés. Je me sens donc bien quant à la croissance de nos abonnés et à la direction prise. Mais la chose la plus intéressante qui s'est produite est : devinez où vont tous les dépôts de tous ces autres gars qui génèrent énormément de code ? Ils vont sur GitHub. GitHub est donc à un niveau record en termes de création de dépôts, de pull requests, de tout. Donc, en un sens, nous voulons garder cela ouvert d'ailleurs. Cela signifie que nous voulons cela, car nous ne voulons pas confondre cela avec notre propre croissance. Curieusement, nous avons un développeur qui rejoint GitHub chaque seconde, c'était la statistique, et 80 % d'entre eux tombent simplement dans un flux de travail GitHub Copilot parce qu'il y en a — et d'ailleurs, beaucoup de ces choses utiliseront même certains de nos agents de révision de code qui sont activés par défaut juste parce que vous pouvez les utiliser. Nous aurons donc de nombreuses opportunités structurelles à cet égard. Ce que nous allons faire aussi, c'est ce que nous avons fait avec GitHub : les primitives de GitHub, en commençant par Git jusqu'aux problèmes (issues) et aux actions, sont des choses puissantes et formidables parce qu'elles sont toutes construites autour de votre dépôt. Nous voulons donc étendre cela. La semaine dernière à GitHub Universe, c'est ce que nous avons fait. Nous avons dit que Agent HQ était le concept que nous allions développer. C'est là que, par exemple, vous avez une chose appelée Mission Control et vous allez sur Mission Control et maintenant je peux lancer — je décris parfois cela comme la télévision par câble de tous ces agents IA parce que j'aurai regroupé dans un seul abonnement Codex, Claude, des trucs de Cognition, les agents de n'importe qui, Grok, ils seront tous là. J'ai donc un seul pack et ensuite je peux littéralement donner une tâche, les piloter, ils travailleront tous dans leurs branches indépendantes, je peux les surveiller, donc j'aurai littéralement — parce que je pense que ce sera l'un des plus grands lieux d'innovation. Car en ce moment, je veux pouvoir utiliser plusieurs agents, je veux pouvoir ensuite digérer le résultat des multiples agents, je veux pouvoir garder le contrôle sur mon dépôt. Il y a donc une sorte d'affichage tête haute qui doit être construit pour que je puisse rapidement piloter et trier ce que les agents de codage ont généré. Pour moi, entre VS Code, GitHub et toutes ces nouvelles primitives que nous construirons pour Mission Control, je pense qu'avec l'observabilité du plan de contrôle — pensez à tous ceux qui vont déployer tout cela, ils auront besoin de toute une panoplie d'observabilité sur quel agent a fait quoi à quel moment sur quelle base de code. Je pense donc que c'est là l'opportunité et, en fin de compte, votre point est bien noté, c'est-à-dire que nous ferions mieux d'être compétitifs et d'innover et si nous ne le faisons pas, oui, nous serons renversés, mais j'aime le graphique tant que nous sommes en haut, même avec la concurrence.

Dylan Patel

Le point clé ici est que GitHub continuera de croître quel que soit l'agent de codage qui gagne, mais ce marché ne croît qu'à 10, 15, 20 %, ce qui est bien au-dessus du PIB, c'est donc un excellent multiplicateur, mais ces agents de codage IA sont passés d'un rythme annuel de 500 millions de dollars à la fin de l'année dernière, qui était essentiellement juste GitHub Copilot, à un rythme actuel sur GitHub Copilot, Claude Code, Cursor, Cognition, Windsurf, Replit, Codex, OpenAI Codex, d'environ 5 ou 6 milliards de dollars pour le quatrième trimestre de cette année. C'est un décuplement. Et quand on regarde, "Hé, quel est le marché total adressable (TAM) des agents logiciels ?" Est-ce les 2 000 milliards de dollars de salaires que vous payez aux gens ou est-ce quelque chose de plus car chaque entreprise au monde pourra désormais développer davantage de logiciels ? Sans aucun doute, Microsoft en prend une part, mais vous êtes passé de près de 100 % ou certainement bien au-dessus de 50 % à moins de 25 % de part de marché en seulement un an. Quelle confiance les gens peuvent-ils avoir dans le fait que Microsoft sera...

Satya Nadella

Écoutez, il n'y a pas de droit de naissance ici qui devrait nous donner une confiance quelconque, si ce n'est de dire : "Hé, nous devrions innover", et de savoir que la chance que nous avons est que cette catégorie va être beaucoup plus grande que tout ce dans quoi nous avions une part élevée. Laissez-moi le dire ainsi. Dans un sens, on pourrait dire : "Mince, on avait une part élevée dans VS Code, on avait une part élevée dans les dépôts avec GitHub", et c'était un bon marché, mais le fait est que même avoir une part décente dans ce qui est un marché beaucoup plus vaste. Je veux dire, on pourrait dire qu'on avait une part élevée dans l'informatique client-serveur, on a une part beaucoup plus faible que cela dans l'hyperscale, mais est-ce une entreprise beaucoup plus importante par ordres de grandeur ? Donc, il y a au moins la preuve par l'existence que Microsoft s'en est bien sorti même si notre position de part n'a pas été aussi forte qu'elle l'était, tant que les marchés sur lesquels nous rivalisons créent plus de valeur et qu'il y a plusieurs gagnants. Je pense donc que c'est l'idée. Mais je note votre point qu'en fin de compte, tout cela signifie qu'il faut être compétitif. Je surveille donc cela chaque trimestre et c'est pourquoi je suis très optimiste sur le fait que ce que nous allons faire avec GitHub HQ ou Agent HQ, en transformant GitHub en un lieu où tous ces agents viennent, comme je l'ai dit, nous aurons plusieurs occasions de marquer là-bas. Il n'est pas nécessaire que certains de ces gars ne puissent réussir qu'en même temps que nous, il n'y a donc pas besoin d'un seul gagnant et d'un seul abonnement.

Value Migration: Models vs. Scaffolding

Dwarkesh Patel

Je suppose que la raison de se concentrer sur cette question est qu'il ne s'agit pas seulement de GitHub, mais fondamentalement d'Office et de tous les autres logiciels que Microsoft propose, à savoir qu'une vision que l'on pourrait avoir de la suite des événements est que les modèles vont continuer à être limités et que vous aurez besoin de cette observabilité visible directe tout le temps. Une autre vision est qu'avec le temps, ces modèles peuvent — ils font des tâches qui prennent 2 minutes, l'année prochaine peut-être des tâches qui prennent 10, 30 minutes, à l'avenir peut-être qu'ils feront des journées entières de travail de manière autonome et alors les entreprises de modèles factureront peut-être des milliers de dollars pour l'accès à un véritable collègue qui pourrait utiliser n'importe quelle interface pour communiquer avec son humain et ainsi de suite et migrer entre les plateformes. Si nous nous rapprochons de cela, pourquoi ne sont-ce pas les entreprises de modèles qui deviennent de plus en plus rentables qui prennent toute la marge ? Pourquoi l'endroit où se fait l'échafaudage, qui devient de moins en moins pertinent à mesure que l'IA devient plus capable, sera-t-il si important ? Et cela concerne Office tel qu'il existe maintenant par rapport à des collègues qui font du travail intellectuel de manière autonome.

Satya Nadella

Je pense que c'est un excellent point. Par exemple, est-ce que toute la valeur migre uniquement vers le modèle ou est-ce qu'elle est partagée entre l'échafaudage et le modèle ? Je pense que le temps nous le dira, mais mon point fondamental est que la structure d'incitation devient claire, prenons le travail d'information ou même le codage. Déjà, l'un des paramètres que je préfère dans GitHub Copilot s'appelle Auto, qui va juste optimiser. En fait, j'achète un abonnement, celui en mode Auto commencera à choisir et à optimiser pour ce que je lui demande de faire et il pourrait même être totalement autonome et il pourrait en quelque sorte arbitrer les jetons disponibles sur plusieurs modèles pour accomplir une tâche. Si c'est le cas — cela signifie que si vous suivez cet argument, la commodité ici sera les modèles et surtout avec les modèles open source, vous pouvez choisir un point de contrôle (checkpoint) et vous pouvez prendre une partie de vos données et vous le voyez. Je pense que nous allons tous commencer — que ce soit de Cursor ou de Microsoft — nous commencerons à voir certains modèles internes qui permettront de décharger la plupart de vos tâches sur eux. Un argument est que si vous gagnez l'échafaudage, qui aujourd'hui traite tous les problèmes de limitation ou l'irrégularité de ces problèmes d'intelligence, si vous gagnez cela, alors vous vous intégrerez verticalement dans le modèle simplement parce que vous aurez la liquidité des données et qu'il y a plus de points de contrôle qui vont être disponibles. C'est l'autre chose. Structurellement, je pense qu'il y aura toujours un modèle open source qui sera assez performant dans le monde et que vous pourrez ensuite utiliser tant que vous avez quelque chose avec quoi l'utiliser, c'est-à-dire des données et un échafaudage. Je peux donc soutenir l'argument selon lequel si vous êtes une entreprise de modèles, vous pourriez avoir la malédiction du vainqueur. Vous avez peut-être fait tout le travail difficile, réalisé une innovation incroyable, sauf qu'il suffit d'une copie pour que cela devienne une commodité et alors la personne qui a les données pour l'ancrage (grounding), l'ingénierie du contexte et la liquidité des données peut alors prendre ce point de contrôle et l'entraîner. Je pense donc que l'argument peut être avancé dans les deux sens.

Dylan Patel

Pour décortiquer ce que vous avez dit, il y a deux visions du monde. L'une est que pour les modèles, il y a tellement de modèles différents, l'open source existe, il y aura des différences entre les modèles qui détermineront qui gagne et qui perd, mais l'échafaudage est ce qui vous permet de gagner. L'autre vision est qu'en fait les modèles sont la propriété intellectuelle (IP) clé et que nous sommes dans une course serrée. On peut le voir dans les graphiques de revenus. Les revenus d'OpenAI ont commencé à monter en flèche une fois qu'ils ont enfin eu un modèle de code avec des capacités similaires à Anthropic, bien que de manières différentes. Il y a une vision selon laquelle les entreprises de modèles sont en fait celles qui récoltent toute la marge. Parce que, si vous regardez sur l'ensemble de cette année, du moins chez Anthropic, leurs marges brutes sur l'inférence sont passées de bien moins de 40 % à plus de 60 % d'ici la fin de l'année. Les marges s'y étendent malgré plus de modèles open source chinois que jamais, la compétitivité d'OpenAI, de Google, de X Grok qui est maintenant compétitif. Toutes ces entreprises sont maintenant compétitives et pourtant, malgré cela, les marges se sont considérablement étendues au niveau de la couche de modèle. Comment pensez-vous à la...

Satya Nadella

C'est une excellente question. Je pense qu'une chose est que peut-être il y a quelques années, les gens disaient : "Oh, je peux juste habiller un modèle et construire une entreprise prospère." Et je pense que cela a probablement été démenti simplement à cause des capacités des modèles et de l'utilisation des outils en particulier. Mais la chose intéressante est qu'il n'y a pas de — quand je regarde Office 365, prenons même cette petite chose que nous avons construite appelée Excel Agent. Excel Agent n'est pas un habillage au niveau de l'interface utilisateur. C'est en fait un modèle qui se trouve dans la couche intermédiaire. Dans ce cas, parce que nous avons toute la propriété intellectuelle de la famille GPT, nous prenons cela et nous l'intégrons au cœur de la couche intermédiaire du système Office pour lui apprendre à la fois ce que signifie comprendre nativement Excel, tout ce qu'il contient, donc ce n'est pas seulement une compréhension au niveau des pixels, j'ai une compréhension complète de tous les artefacts natifs d'Excel, à la fois quand je le vois — parce que si vous y réfléchissez, si je vais lui donner une tâche de raisonnement, je dois même corriger les erreurs de raisonnement que je fais. Et cela signifie que je dois à la fois ne pas seulement voir les pixels, je dois être capable de voir, "Oh, je me suis trompé dans cette formule", et je dois comprendre cela et ensuite — donc dans une certaine mesure, tout cela est fait non pas au niveau de l'habillage de l'interface utilisateur avec un prompt, mais c'est fait dans la couche intermédiaire en lui apprenant tous les outils d'Excel. Je lui donne essentiellement un balisage (markdown) pour lui apprendre les compétences de ce que signifie être un utilisateur Excel sophistiqué. C'est donc une chose étrange qui revient un peu au cerveau de l'IA, à savoir que vous ne construisez pas seulement Excel, vous construisez maintenant de la logique métier dans son sens traditionnel. Vous prenez la logique métier d'Excel au sens traditionnel et vous y enveloppez essentiellement une couche cognitive en utilisant ce modèle qui sait comment utiliser l'outil. En quelque sorte, Excel sera livré avec un analyste intégré et avec toute l'utilisation des outils. C'est le genre de choses qui seront construites par tout le monde. Donc, même pour les entreprises de modèles, elles devront rivaliser. S'ils fixent des prix élevés, devinez quoi ? Si je suis un constructeur d'un outil comme celui-ci, je vous remplacerai. Je pourrais vous utiliser pendant un certain temps et donc tant qu'il y a de la concurrence, il y a toujours un phénomène de "le gagnant rafle tout". S'il doit y avoir un modèle qui est meilleur que tous les autres avec une distance massive, oui, c'est le gagnant qui rafle tout. Tant qu'il y aura une concurrence avec plusieurs modèles, tout comme la concurrence dans l'hyperscale, et qu'il y aura un contrôle par l'open source, il y a assez de place ici pour construire de la valeur au-dessus des modèles. Chez Microsoft, la façon dont je vois les choses est que nous allons être dans le secteur de l'hyperscale qui supportera plusieurs modèles. Nous aurons accès aux modèles d'OpenAI pendant sept années de plus, sur lesquels nous innoverons. Donc, sans redevance, je nous considère essentiellement comme ayant un modèle de classe frontière que nous pouvons utiliser et sur lequel nous pouvons invover avec une pleine flexibilité. Et nous construirons nos propres modèles avec MAI et nous aurons donc toujours un niveau de modèle. Et ensuite nous construirons ces — que ce soit dans la sécurité, dans le travail intellectuel, dans le codage ou dans la science, nous construirons notre propre échafaudage d'application qui sera axé sur le modèle. Ce ne sera pas un habillage sur un modèle, mais le modèle sera enveloppé dans l'application.

AI Agents as the New Enterprise Infrastructure

Dwarkesh Patel

J'ai tellement de questions sur les autres choses que vous avez mentionnées, mais avant de passer à ces sujets, je me demande encore si ce n'est pas une vision trop prospective des capacités de l'IA où vous imaginez des modèles tels qu'ils existent aujourd'hui où vous avez ceci — il prend une capture d'écran de votre écran mais il ne peut pas regarder à l'intérieur de chaque cellule et quelle est la formule. Je pense que le meilleur modèle mental ici est d'imaginer que ces modèles pourront réellement utiliser un ordinateur aussi bien qu'un humain. Et un travailleur intellectuel humain qui utilise Excel peut regarder dans les formules, peut utiliser d'autres logiciels, peut migrer des données entre Office 365 et un autre logiciel si la migration est nécessaire. Donc, si nous nous rapprochons de cela, alors l'intégration avec Excel n'importe plus tant que ça parce que...

Satya Nadella

Ne vous inquiétez pas de l'intégration Excel. Après tout, Excel a été conçu comme un outil pour les analystes. Très bien. Donc, quel que soit cet IA qui est un analyste, il devrait avoir des outils qu'il peut utiliser. L'outil, c'est l'ordinateur. Tout ce que je dis, c'est que je construis un analyste comme étant essentiellement un agent IA qui se trouve être doté d'une connaissance a priori de la façon d'utiliser tous ces outils analytiques.

Dwarkesh Patel

Mais est-ce quelque chose, juste pour m'assurer que nous parlons de la même chose. Est-ce une chose qu'un humain comme moi utilisant Excel en tant que podcasteur, je ne suis pas compétent en Excel et...

Satya Nadella

Ce serait le — prenez un cas complètement autonome. Imaginez simplement — nous devrions maintenant exposer comment je vois l'avenir de l'entreprise. L'avenir de l'entreprise serait le secteur des outils où j'ai un ordinateur, j'utilise Excel et à l'avenir j'aurai même un Copilot et ce Copilot aura aussi des agents. C'est toujours moi qui dirige tout et tout me revient. C'est un monde. Ensuite, le second monde est que l'entreprise alloue littéralement une ressource informatique pour un agent IA et celui-ci travaille de manière totalement autonome. Cet agent totalement autonome aura essentiellement un ensemble incarné de ces mêmes outils qui sont mis à sa disposition. Donc cet outil d'IA qui arrive n'a pas seulement un ordinateur brut parce qu'il sera plus efficace en termes de jetons d'utiliser des outils pour accomplir des tâches. En fait, je regarde cela et je me dis que notre entreprise, qui est aujourd'hui une entreprise d'outils pour l'utilisateur final, deviendra essentiellement une entreprise d'infrastructure pour soutenir le travail des agents. C'est une autre façon d'y penser. Tout ce que nous avons construit sous M365 restera très pertinent. Vous avez besoin d'un endroit pour stocker, d'un endroit pour l'archivage, d'un endroit pour la découverte, d'un endroit pour gérer toutes ces activités même si vous êtes un agent IA. C'est donc une nouvelle infrastructure.

Dwarkesh Patel

Donc, juste pour être sûr de bien comprendre, vous dites qu'une future IA capable d'utiliser réellement un ordinateur, ce sur quoi toutes ces entreprises de modèles travaillent actuellement, pourrait utiliser — même si elle n'est pas partenaire de Microsoft ou sous notre égide — pourrait utiliser les logiciels de Microsoft. Mais vous dites que nous allons leur donner, si vous travaillez avec notre infrastructure, un accès de plus bas niveau qui rend plus efficace pour vous de faire les mêmes choses que vous auriez pu faire autrement de toute façon.

Satya Nadella

À 100 %. Toute la chose — ce qui s'est passé, c'est que nous avions des serveurs, puis il y a eu la virtualisation et ils ont eu beaucoup plus de serveurs. C'est une autre façon de penser à cela, c'est-à-dire ne pensez pas à l'outil comme à la finalité. Quel est tout le substrat sous cet outil que les humains utilisent ? Tout ce substrat est le point de départ pour l'agent IA également, car l'agent IA a besoin d'un ordinateur — c'est un point. En fait, l'une des choses fascinantes que nous voyons avec une croissance significative, c'est que tous ces gars qui créent ces artefacts Office en tant qu'agents autonomes veulent provisionner Windows 365. Ils veulent vraiment pouvoir provisionner un ordinateur pour ces agents. Et c'est là que je pense que nous allons avoir essentiellement une entreprise d'infrastructure informatique pour l'utilisateur final qui, je pense, va continuer de croître parce qu'elle va croître plus vite que le nombre d'utilisateurs. En fait, c'est l'une des autres questions que les gens me posent : "Hé, qu'advient-il de l'activité par utilisateur ?" Au moins, les premiers signes montrent que la façon de penser à l'activité par utilisateur n'est pas seulement par utilisateur, c'est par agent. Et si vous dites que c'est par utilisateur et par agent, la clé est : qu'est-ce qu'il faut provisionner pour chaque agent ? Un ordinateur, un ensemble d'éléments de sécurité autour, une identité autour, et toutes ces choses d'observabilité sont les couches de gestion et tout cela va être intégré là-dedans.

Dylan Patel

La façon de le formuler, du moins la façon dont je le pense actuellement, est que ces entreprises de modèles construisent toutes des environnements pour entraîner leurs modèles à utiliser Excel ou faire des achats sur Amazon, réserver des vols. Mais en même temps, ils entraînent aussi ces modèles à faire de la migration parce que c'est probablement la chose la plus immédiatement précieuse, convertir des systèmes basés sur des mainframes en systèmes cloud standard, convertir des bases de données Excel en de vraies bases de données avec SQL, ou convertir ce qui est fait dans Word et Excel en quelque chose de plus programmatique et plus efficace au sens classique qui peut réellement être fait par des humains aussi, c'est juste que ce n'est pas rentable pour le développeur de logiciels de le faire. Cela semble être ce que tout le monde va faire avec l'IA pendant les prochaines années au moins pour générer massivement de la valeur. Comment Microsoft s'intègre-t-il là-dedans si les modèles peuvent utiliser les outils eux-mêmes pour migrer vers quelque chose ? Et oui, Microsoft a une position de leader dans les bases de données et dans le stockage et dans toutes ces autres catégories, mais l'utilisation d'un écosystème Office par exemple va être nettement moindre, tout comme potentiellement l'utilisation d'un écosystème mainframe pourrait être potentiellement moindre. Or, les mainframes ont crû au cours des deux dernières décennies en fait, même si plus personne n'en parle, ils ont quand même crû.

Satya Nadella

À 100 %. Je suis d'accord avec ça. Au bout du compte, il ne s'agit pas de dire qu'il va y avoir un monde hybride pendant un certain temps, parce que les gens vont utiliser les outils, ils vont travailler avec des agents qui doivent utiliser des outils et d'ailleurs ils doivent communiquer entre eux. Quel est l'artefact que je génère et qu'un humain doit ensuite voir ? Toutes ces choses seront des considérations réelles n'importe où. Les sorties, les entrées — donc je ne pense pas qu'il s'agira simplement de dire, "Oh, j'ai migré." Mais l'essentiel est que je doive vivre dans ce monde hybride. Mais cela ne répond pas entièrement à votre question car il peut y avoir une réelle nouvelle frontière efficace où je n'ai que des agents travaillant avec des agents et complètement optimisés. Et même quand des agents travaillent avec des agents, quelles sont les primitives nécessaires ? Avez-vous besoin d'un système de stockage ? Ce système de stockage doit-il avoir de l'e-discovery ? Devez-vous avoir de l'observabilité ? Devez-vous avoir un système d'identité qui va utiliser plusieurs modèles ayant tous un seul système d'identité ? Ce sont tous les rails sous-jacents fondamentaux que nous avons aujourd'hui pour ce que sont les systèmes Office et c'est ce que je pense que nous aurons à l'avenir également. Vous avez parlé de bases de données. J'adorerais que tout Excel ait un backend de base de données. En fait, j'adorerais que tout cela arrive immédiatement. Et cette base de données est une bonne base de données ; les bases de données seront en fait une chose importante qui va croître. En fait, si je pense au fait que tous les artefacts Office soient mieux structurés, à la capacité de mieux faire les jointures entre le structuré et le non structuré grâce à l'utilisation d'agents, ce qui fera croître l'activité d'infrastructure sous-jacente — il se trouve que la consommation de tout cela est pilotée par des agents. Vous pourriez dire que tout cela n'est que du logiciel généré juste-à-temps par une entreprise de modèles, cela pourrait aussi être vrai. Nous serons également une telle entreprise de modèles et donc nous construirons — donc la compétition pourrait être que nous construirons un modèle plus toute l'infrastructure et que nous le provisionnerons et qu'ensuite il y aura une compétition entre un groupe de ces gens qui peuvent faire cela.

Microsoft's Internal Model and Research Strategy

Dwarkesh Patel

En parlant d'entreprises de modèles, vous dites : "Nous serons aussi l'une des — non seulement nous aurons l'infrastructure, nous aurons le modèle lui-même." À l'heure actuelle, le modèle le plus récent de Microsoft IA qui a été publié il y a deux mois est 36e dans Chatbot Arena et il y a une question de — d'abord dans la mesure où vous êtes d'accord avec cela — il semble être en retard. Pourquoi est-ce le cas ? Surtout compte tenu du fait que vous pourriez théoriquement avoir le droit de simplement bifurquer (fork) le monorepo d'OpenAI ou de distiller sur leurs modèles, surtout si c'est une part importante de votre stratégie que nous ayons besoin d'avoir une entreprise de modèles de premier plan.

Satya Nadella

Nous allons absolument utiliser les modèles d'OpenAI au maximum à travers tous nos produits ; c'est la chose centrale que nous allons continuer à faire pendant les sept prochaines années. Et pas seulement les utiliser, mais y ajouter de la valeur. C'est là que l'analyste dans cet agent Excel et tout cela sont des choses que nous ferons où nous ferons du réglage fin par apprentissage par renforcement (RL fine-tuning), nous ferons des cycles d'entraînement intermédiaire sur la base d'une famille GPT où nous avons des actifs de données uniques et nous construirons des capacités. Le modèle MAI, la façon dont je pense que nous allons y réfléchir, c'est que la bonne nouvelle ici, en fait, avec le nouvel accord, est que nous pouvons être très clairs sur le fait que nous allons construire une équipe de superintelligence de classe mondiale et viser cet objectif avec une grande ambition. Mais en même temps, nous allons aussi utiliser ce temps pour être intelligents sur la façon d'utiliser ces deux choses. Cela signifie que nous serons d'un côté très axés sur le produit et de l'autre très axés sur la recherche. Parce que nous avons accès à la famille GPT, la dernière chose que je veux faire est d'utiliser mes flops d'une manière qui soit purement redondante et qui n'ajoute pas beaucoup de valeur. Je veux pouvoir prendre les flops que nous utilisons pour générer une famille GPT et maximiser sa valeur, tandis que mes flops MAI sont utilisés pour — prenons le modèle d' image que nous avons lancé, qui je pense est numéro neuf dans l'arène des images. Nous l'utilisons à la fois pour l'optimisation des coûts, il est sur Copilot, il est dans Bing, et nous allons l'utiliser. Nous avons un modèle audio dans Copilot, qui a une personnalité et tout le reste ; nous l'avons optimisé pour notre produit. Nous ferons cela. Même sur l'arène LM, nous avons commencé par celui sur le texte, je pense qu'il a débuté à la 13e place. Et d'ailleurs, cela a été fait seulement sur 15 000 H100. C'était un très petit modèle. Et c'était encore une fois pour prouver la capacité de base, le suivi des instructions et tout le reste, pour lequel nous voulions nous assurer de pouvoir égaler ce qui se faisait de mieux. Et cela nous montre donc, compte tenu des lois d'échelle, ce que nous sommes capables de faire si vous y consacriez plus de flops. La prochaine chose que nous ferons est un modèle omni où nous prendrons le travail que nous avons fait dans l'audio, ce que nous avons fait dans l'image et ce que nous avons fait dans le texte. Ce sera la prochaine étape du côté de MAI. Quand je pense à la feuille de route de MAI, nous allons construire une équipe de superintelligence de premier ordre, nous allons continuer à publier et à mettre à disposition en accès libre certains de ces modèles. Ils seront soit utilisés dans nos produits parce qu'ils seront adaptés en termes de latence, de COGS, ou qu'ils auront une capacité spéciale. Et nous ferons de la recherche réelle afin d'être prêts pour les cinq, six, sept, huit prochaines percées qui sont toutes nécessaires dans cette marche vers la superintelligence. Tout en exploitant l'avantage que nous avons d'avoir la famille GPT sur laquelle nous pouvons également travailler.

Dylan Patel

Supposons que nous avancions de sept ans, vous n'avez plus accès aux modèles d'OpenAI. Qu'est-ce qui donne confiance ou que fait Microsoft pour s'assurer d'être leader ou d'avoir un laboratoire d'IA leader ? Aujourd'hui, OpenAI a développé de nombreuses percées, que ce soit l'échelle ou le raisonnement, ou Google a développé toutes les percées comme les transformers. Mais c'est aussi un grand jeu de talents. Vous avez vu Meta dépenser plus de 20 milliards de dollars pour les talents. Vous avez vu Anthropic débaucher toute l'équipe de raisonnement BlueShift de Google l'année dernière. Vous avez vu Meta débaucher une grande équipe de raisonnement et de post-entraînement de Google plus récemment. Ces guerres de talents sont très gourmandes en capital. Ce sont elles qui, on peut le soutenir, si vous dépensez 100 milliards de dollars en infrastructure, vous devriez également dépenser X montant d'argent pour les personnes utilisant l'infrastructure afin qu'elles réalisent plus efficacement ces nouvelles percées. Quelle confiance peut-on avoir dans le fait que Microsoft sera une équipe de classe mondiale capable de réaliser ces percées et, une fois que vous aurez décidé d'ouvrir le robinet à argent — vous êtes un peu économe en capital en ce moment, ce qui est intelligent pour ne pas gaspiller d'argent en faisant un travail redondant — mais une fois que vous aurez décidé que vous en avez besoin, comment peut-on se dire : "Oh, oui, maintenant vous pouvez bondir là où se trouvent les cinq meilleurs modèles ?"

Satya Nadella

Écoutez, nous allons construire une équipe de classe mondiale et nous avons déjà une équipe de classe mondiale qui commence à être assemblée, avec l'arrivée de Mustafa, nous avons Karen, nous avons Amar Subramanya, qui a fait beaucoup de post-entraînement chez Gemini 1.5, Nando, qui a fait beaucoup de travail multimédia chez DeepMind, est là. Nous allons construire une équipe de classe mondiale. En fait, plus tard cette semaine, même Mustafa publiera plus de précisions sur ce que notre laboratoire va faire. La chose que je veux que le monde sache, peut-être, c'est que nous allons construire l'infrastructure qui supportera plusieurs modèles. D'un point de vue hyperscale, nous voulons construire la flotte d'infrastructures la plus étendue capable de supporter tous les modèles dont le monde a besoin, que ce soit en open source ou évidemment d'OpenAI et d'autres. C'est un premier travail. Deuxièmement, dans notre propre capacité de modèles, nous utiliserons absolument le modèle d'OpenAI dans nos produits et nous commencerons à construire nos propres modèles. Dans GitHub Copilot, Anthropic est utilisé. Nous aurons donc même d'autres modèles frontières qui seront intégrés dans nos produits également. Je pense qu'à chaque fois, c'est l'évaluation du produit tel qu'il répond à une tâche ou à un travail particulier qui compte. Et à partir de là, nous reviendrons vers l'intégration verticale nécessaire, sachant que tant que vous servez bien le marché avec le produit, vous pouvez toujours optimiser les coûts.

Continuous Learning and Market Specialization

Dwarkesh Patel

Il y a une question pour l'avenir. Actuellement, nous avons des modèles qui ont cette distinction entre l'entraînement et l'inférence et on pourrait soutenir qu'il y a de moins en moins de différence entre les différents modèles. À l'avenir, si vous attendez vraiment quelque chose comme une intelligence de niveau humain, les humains apprennent sur le tas. Si vous pensez à vos 30 dernières années, qu'est-ce qui rend les jetons Satya si précieux ? C'est la sagesse et l'expérience des 30 dernières années que vous avez acquises chez Microsoft. Et nous aurons éventuellement des modèles, s'ils atteignent le niveau humain, qui auront cette capacité d'apprendre continuellement sur le tas. Et cela générera tellement de valeur pour l'entreprise de modèles qui est en tête, parce que vous avez des copies d'un modèle largement déployées dans l'économie, apprenant comment faire chaque travail individuel. Et contrairement aux humains, ils peuvent amalgamer leurs apprentissages à ce modèle. Il y a donc cette boucle de rétroaction exponentielle d'apprentissage continu, qui ressemble presque à une explosion d'intelligence. Si cela arrive et que Microsoft n'est pas l'entreprise de modèles leader à ce moment-là, est-ce que cela n'aura pas moins d'importance parce que c'est juste ce modèle unique qui sait comment faire chaque travail dans l'économie, et pas les autres ?

Satya Nadella

S'il y a un modèle qui est le seul modèle le plus largement déployé au monde, qu'il voit toutes les données et qu'il a un apprentissage continu, c'est "jeu, set et match" et on ferme boutique. La réalité, du moins telle que je la vois, est que le monde, même aujourd'hui, malgré la dominance de n'importe quel modèle, ce n'est pas le cas. Prenez le codage. Il y a plusieurs modèles. En fait, chaque jour c'est de moins en moins le cas qu'il n'y ait pas un seul modèle qui soit déployé largement. Il y a plusieurs modèles qui sont déployés largement. C'est comme les bases de données ; c'est toujours la même chose : "une seule base de données peut-elle être celle qui est utilisée partout ?" Sauf que non. Il y a plusieurs types de bases de données qui sont déployées pour différents cas d'utilisation. Je pense qu'il va y avoir des effets de réseau d'apprentissage continu ou de liquidité des données pour n'importe quel modèle. Est-ce que cela va arriver dans tous les domaines ? Je ne le pense pas. Est-ce que cela va arriver dans toutes les zones géographiques ? Je ne le pense pas. Est-ce que cela va arriver dans tous les segments ? Je ne le pense pas. Est-ce que cela arrivera dans toutes les catégories en même temps ? Je ne le pense pas. Par conséquent, je pense que l'espace de conception est si vaste qu'il y a plein d'opportunités. Mais votre point fondamental est d'avoir une capacité qui se situe à la couche d'infrastructure, à la couche de modèle et à la couche d'échafaudage, puis d'être capable de composer ces choses non seulement comme une pile verticale, mais d'être capable de composer chaque chose pour son usage. Vous ne pouvez pas construire une infrastructure optimisée pour un seul modèle. Si vous faisiez cela, et si vous preniez du retard ? Toute l'infrastructure que vous avez construite serait un gaspillage. Vous devez construire une infrastructure capable de supporter plusieurs familles et lignées de modèles. Sinon, le capital que vous investissez, qui est optimisé pour une architecture de modèle — cela signifie que vous êtes à une modification près d'une percée de type MoE qui arrive pour quelqu'un d'autre et toute votre topologie de réseau s'effondre, c'est alors une chose effrayante. Par conséquent, vous voulez que l'infrastructure supporte tout ce qui peut arriver dans votre propre famille de modèles et dans d'autres familles de modèles. Et vous devez être ouvert. Si vous êtes sérieux au sujet de l'activité hyperscale, vous devez être sérieux à ce sujet. Si vous êtes sérieux au sujet d'être une entreprise de modèles, vous devez vous dire : "Hé, quelles sont les façons dont les gens peuvent réellement faire des choses au-dessus du modèle pour que je puisse avoir un écosystème d'éditeurs de logiciels indépendants (ISV)" à moins que je ne pense posséder chaque catégorie. Cela ne peut tout simplement pas être. Alors vous n'aurez pas d'activité d'API. Et cela signifiera par définition que vous ne serez jamais une entreprise de plateforme déployée avec succès partout. Par conséquent, la structure de l'industrie est telle qu'elle forcera vraiment les gens à se spécialiser. Et dans cette spécialisation, une entreprise comme Microsoft devrait rivaliser dans chaque couche par ses mérites, mais ne pas penser que tout cela est une route vers "jeu, set et match" où je composerai verticalement toutes ces couches. Cela n'arrive tout simplement pas.

Sponsor: Labelbox

Dwarkesh Patel

Selon les chiffres de Dylan, il y aura un demi-billion de dépenses d'investissement en IA l'année prochaine seulement. Les laboratoires dépensent déjà des milliards de dollars pour débaucher les meilleurs talents de recherche. Mais rien de tout cela n'a d'importance s'il n'y a pas assez de données de haute qualité pour l'entraînement. Sans les bonnes données, même l'infrastructure la plus avancée et les talents de classe mondiale ne se traduiront pas par une valeur finale pour l'utilisateur. C'est là que Labelbox intervient. Labelbox produit des données de haute qualité à une échelle massive, alimentant n'importe quelle capacité que vous souhaitez donner à votre modèle. Peu importe que vous ayez besoin d'un agent de codage nécessitant un retour détaillé sur des trajectoires de plusieurs heures, ou d'un modèle de robotique nécessitant des milliers d'échantillons sur des tâches quotidiennes, ou d'un agent vocal capable d'effectuer également des actions dans le monde réel pour l'utilisateur, comme lui réserver un vol. Il ne s'agit pas seulement de données prêtes à l'emploi. Labelbox peut concevoir et lancer un pipeline de données personnalisé à l'échelle de la production en 48 heures. Et ils peuvent vous obtenir des dizaines de milliers d'exemples ciblés en quelques semaines. Contactez-les sur labelbox.com/dwarkesh. Très bien, retour à Satya.

Hyperscale Strategy and Capital Allocation

Dylan Patel

L'année dernière, Microsoft était en passe d'être de loin le plus grand fournisseur d'infrastructure. Vous avez été les premiers en 23, vous êtes allés sur le terrain, vous avez acquis toutes les ressources en termes de location de centres de données, commencé la construction, sécurisé l'énergie, tout. Vous étiez en passe de battre Amazon en 26 ou 27, mais certainement en 28 vous alliez les battre. Depuis lors, au second semestre de l'année dernière, Microsoft a fait cette grande pause où ils ont abandonné un certain nombre de sites de location qu'ils allaient prendre, que Google, Meta, Amazon dans certains cas, et Oracle ont ensuite récupérés. Nous sommes assis dans l'un des plus grands centres de données au monde, donc évidemment ce n'est pas tout, vous vous développez comme des fous. Mais il y a des sites sur lesquels vous avez juste arrêté de travailler. Pourquoi avez-vous fait cela ?

Satya Nadella

La chose fondamentale — cela revient à ce qu'est l'activité d'hyperscale — l'une des décisions clés que nous avons prises était que si nous allions construire Azure pour être fantastique pour toutes les étapes de l'IA, de l'entraînement à l'entraînement intermédiaire, à la génération de données, à l'inférence, nous avions juste besoin de la fongibilité de la flotte. Toute cette réflexion nous a conduits à ne pas construire énormément de capacité avec un ensemble particulier de générations. Car l'autre chose qu'il faut réaliser, c'est qu'en ayant décuplé tous les 18 mois la capacité d'entraînement pour les différents modèles d'OpenAI, nous avons réalisé que la clé est de rester sur cette voie. Mais la chose la plus importante est d'avoir un équilibre non seulement pour entraîner mais pour pouvoir servir ces modèles partout dans le monde. Parce que le taux de monétisation est ce qui nous permettra de continuer à financer. Et l'infrastructure allait nécessiter que nous supportions plusieurs modèles. Une fois que nous avons dit que c'était le cas, nous avons simplement rectifié le tir vers la voie sur laquelle nous sommes. Si je regarde la voie sur laquelle nous sommes, nous faisons plus de lancements maintenant. Nous achetons également autant de capacité que possible, que ce soit pour construire, pour louer ou même des GPU en tant que service. Mais nous construisons là où nous voyons la demande et les besoins de service et nos besoins d'entraînement. Nous ne voulions pas être simplement un hébergeur pour une seule entreprise et avoir un carnet de commandes massif avec un seul client. Ce n'est pas une entreprise ; vous devriez être intégré verticalement avec cette entreprise. Et étant donné qu'OpenAI allait être une entreprise indépendante prospère, ce qui est fantastique, cela a du sens. Et même Meta peut utiliser une capacité tierce, mais en fin de compte, ils seront tous en propre pour quiconque a une grande échelle. Ils seront leur propre hyperscaler. Donc pour moi, c'était de construire une flotte d'hyperscale et notre propre calcul de recherche. Et c'est ce qu'était l'ajustement. Je me sens très, très bien. L'autre chose est que je ne voulais pas rester bloqué avec une échelle massive d'une seule génération. Nous venons de voir le GB200. Les GB300 arrivent, et d'ici à ce que j'arrive à Vera Rubin, Vera Rubin Ultra, le centre de données va sembler très différent parce que la puissance par baie, la puissance par rangée sera tellement différente. Les exigences de refroidissement seront tellement différente. Et cela signifie que je ne veux pas simplement construire un nombre de gigawatts qui ne sont que pour une génération, une famille. Le rythme compte et la fongibilité et l'emplacement comptent. La diversité des charges de travail compte, la diversité des clients compte, et c'est ce vers quoi nous construisons.

Satya Nadella

L'autre chose que nous avons apprise, c'est que chaque charge de travail d'IA nécessite non seulement l'accélérateur d'IA, mais aussi un tas d'autres choses. Et une grande partie de la structure de marge pour nous sera dans ces autres choses. Par conséquent, nous voulons construire Azure comme étant fantastique pour la longue traîne des charges de travail, car c'est cela l'activité d'hyperscale. Tout en sachant que nous devons être super compétitifs en commençant par le matériel nu (bare metal) pour l'entraînement le plus haut de gamme. Mais cela ne peut pas évincer le reste de l'activité, parce que nous ne sommes pas dans le métier de simplement faire cinq contrats avec cinq clients, en étant leur service de bare metal. Ce n'est pas une activité Microsoft. Cela peut être une activité pour quelqu'un d'autre et c'est une bonne chose. Ce que nous avons dit, c'est que nous sommes dans l'activité d'hyperscale, qui est une activité de longue traîne pour les charges de travail d'IA. Et pour faire cela, nous aurons des capacités de bare metal en tant que service de pointe pour un ensemble de modèles, y compris les nôtres. Et c'est l'équilibre que vous voyez.

Dylan Patel

Une autre question qui revient autour de ce sujet de la fongibilité est d'accord, ce n'est pas là où vous le voulez. Vous préféreriez l'avoir dans un bon centre de population comme Atlanta alors que nous sommes ici. Il y a aussi la question de savoir à quel point cela importe si, à mesure que l'horizon des tâches d'IA s'élargit, 30 secondes pour un prompt de raisonnement ou 30 minutes pour une recherche approfondie, ou si ce seront des heures pour les agents logiciels à un moment donné, et des jours, le temps d'interaction humaine — pourquoi est-ce important que ce soit à l'emplacement A, B ou C ?

Satya Nadella

C'est une excellente question. C'est exactement ça. En fait, c'est l'une des autres raisons pour lesquelles nous voulons réfléchir à ce à quoi ressemble une région Azure et à ce qu'est le réseautage entre les régions Azure. À mesure que les capacités des modèles évoluent et que l'usage de ces jetons, que ce soit de manière synchrone ou asynchrone, évolue — et en fait, vous ne voulez pas être mal positionné — puis en plus de cela, quelles sont les lois sur la résidence des données ? Où dois-je — je veux dire toute l'affaire de l'UE pour nous où nous avons littéralement dû créer une frontière de données de l'UE signifiait essentiellement que vous ne pouvez pas simplement faire un aller-retour d'appel vers n'importe où, même si c'est asynchrone. Et par conséquent, vous avez besoin d'avoir des choses régionales qui sont à haute densité et ensuite les coûts de l'énergie. Mais vous avez 100 % raison de souligner que la topologie que nous construisons devra évoluer : d'une part pour les jetons par dollar par watt, quelle est l'économie, superposer cela avec quel est le modèle d'utilisation en termes de synchrone, asynchrone, mais aussi qu'est-ce que le stockage de calcul, parce que les latences peuvent importer pour certaines choses. Le stockage ferait mieux d'être là. Si j'ai une Cosmos DB proche de ceci pour des données de session ou pour une chose autonome, alors cela doit aussi être quelque part proche. Donc toutes ces considérations sont ce qui façonnera l'activité d'hyperscale.

Dylan Patel

Avant la pause, par rapport à ce que nous avions prévu pour vous d'ici 28, vous alliez être à 12, 13 gigawatts et maintenant nous sommes à neuf et demi environ. Mais quelque chose qui est encore plus pertinent — et je veux juste que vous déclariez concrètement que c'est l'activité dans laquelle vous ne voulez pas être — Oracle passe de 1/5e de votre taille à être plus grand que vous d'ici fin 2027. Et bien que ce ne soit pas une qualité de rendement sur le capital investi au niveau de Microsoft, ils dégagent toujours des marges brutes de 35 %. La question est que ce n'est peut-être pas le métier de Microsoft de faire cela, mais vous avez créé un hyperscaler maintenant en refusant cette activité, en cédant le droit de premier refus, etc.

Satya Nadella

Je ne veux rien enlever au succès qu'Oracle a eu en construisant son activité et je leur souhaite bonne chance. Ce que je vous ai répondu, c'est qu'il n'était pas logique pour nous d'être un hébergeur pour une seule entreprise de modèles avec un horizon temporel de carnet de commandes (RPO) limité. Disons-le ainsi. La chose à laquelle vous devez réfléchir n'est pas ce que vous faites dans les cinq prochaines années, mais ce que vous faites pour les 50 prochaines. Parce que c'est ce que je veux — nous avons pris notre ensemble de décisions. Je me sens très bien par rapport à notre partenariat avec OpenAI et ce que nous faisons. Nous avons un carnet de commandes décent avec ces gars. Nous leur souhaitons beaucoup de succès. En fait, nous sommes même acheteurs de capacité Oracle ; nous leur souhaitons du succès. Mais, à ce stade, je pense que la logique industrielle de ce que nous essayons de faire est assez claire : il ne s'agit pas de courir après — tout d'abord je suis vos trucs, que ce soit AWS ou Google et les nôtres, ce qui est super utile je pense. Mais cela ne signifie pas que je dois courir après cela. Je dois les poursuivre non seulement pour la marge brute qu'ils peuvent représenter sur une période donnée. Quel est ce carnet de commandes que Microsoft peut seul aller débloquer, ce qui fait sens pour nous de débloquer ? Et c'est ce que nous ferons.

The Future of AI Platforms and Bare Metal

Dwarkesh Patel

Je suppose que j'ai une question même en prenant du recul par rapport à cela : d'accord, j'entends votre point selon lequel c'est une meilleure activité, toutes choses égales par ailleurs, d'avoir une longue traîne de clients dont on peut tirer une marge plus élevée plutôt que de fournir du bare metal à quelques laboratoires. Mais alors il y a une question de savoir dans quel sens l'industrie évolue. Et donc si nous croyons que nous sommes sur la voie d'IA de plus en plus intelligentes, alors pourquoi la forme de l'industrie n'est-elle pas que les OpenAI et Anthropic et DeepMind soient la plateforme avec laquelle la longue traîne des entreprises fait réellement des affaires, où elles ont besoin de bare metal, mais elles sont la plateforme ? Quelle est la longue traîne qui utilise directement Azure ? Parce que vous voulez utiliser le type de modèle général.

Satya Nadella

Mais tout cela va être disponible sur Azure. N'importe quelle charge de travail qui dit : "Je veux utiliser un certain modèle open source et un modèle OpenAI" — si vous allez sur Azure Foundry aujourd'hui, vous avez tous ces modèles que vous pouvez provisionner par PTU, obtenir une Cosmos DB, obtenir une SQL DB, obtenir du stockage, obtenir du calcul. C'est à cela que ressemble une vraie charge de travail. Une vraie charge de travail n'est pas seulement un appel d'API à un modèle. Une vraie charge de travail a besoin de toutes ces choses pour construire une application ou instancier une application. En fait, les entreprises de modèles ont besoin de cela pour construire quoi que ce soit ; ce n'est pas simplement comme si j'avais une usine à jetons. Je dois avoir toutes ces choses. C'est cela l'activité d'hyperscale. Et ce n'est pas d'un seul modèle, mais de tous ces modèles. Et donc si vous voulez Grok plus OpenAI plus un modèle open source, venez sur Azure Foundry, provisionnez-les, construisez votre application, voici une base de données. C'est cela l'activité. Il y a une activité séparée qui consiste à vendre simplement des services de bare metal brut aux entreprises de modèles. Et c'est là l'argument sur la part de cette activité dans laquelle vous voulez être ou ne pas être et ce que c'est — c'est un segment très différent de l'activité, dans lequel nous sommes et nous avons aussi des limites quant à la mesure où cela va évincer le reste. Mais c'est au moins ma façon de voir les choses.

Dylan Patel

Il y a deux questions ici : d'abord pourquoi ne pourriez-vous pas faire les deux ? Et l'autre est que, selon nos estimations sur ce qu'est votre capacité en 2028, elle est inférieure de trois gigawatts et demi — bien sûr, vous auriez pu dédier cela à l'entraînement et à la capacité d'inférence d'OpenAI. Mais vous auriez pu aussi dédier cela à, "Hé, ces trois gigawatts et demi font en fait tourner Azure, font tourner Microsoft 365, font tourner GitHub Copilot." Ça ne fait pas — j'aurais pu le construire et ne pas le donner à OpenAI.

Satya Nadella

Ou je pourrais vouloir le construire dans un endroit différent. Je pourrais vouloir le construire aux Émirats Arabes Unis, je pourrais vouloir le construire en Inde, je pourrais vouloir le construire en Europe. L'une des autres choses est, comme je l'ai dit, là où nous avons des contraintes de capacité réelles en ce moment étant donné les besoins réglementaires et les besoins de souveraineté des données, nous devons construire partout dans le monde. La capacité aux États-Unis est super importante et nous allons tout construire. Mais l'une des choses est que quand je regarde vers 2030, j'ai une vision globale de ce qu'est la forme de l'activité de Microsoft par le premier tiers et le tiers externe. Le tiers externe segmenté par les laboratoires frontières et ce qu'ils veulent par rapport à la capacité d'inférence que nous voulons construire pour plusieurs modèles et nos propres besoins de calcul de recherche. Tout cela entre donc dans mon calcul plutôt que de dire, "Je pense que vous soulignez à juste titre la pause." Mais la pause n'a pas été faite parce que nous avons dit que nous ne voulions pas construire cela. Nous avons réalisé que nous voulions construire ce que nous voulions construire légèrement différemment à la fois par type de charge de travail ainsi que par type géographique et aussi par calendrier. Nous continuerons à augmenter nos gigawatts et la question est à quel rythme et dans quel endroit et comment je chevauche la loi de Moore là-dessus, c'est-à-dire est-ce que je veux vraiment sur-construire trois et demi en 27 ou est-ce que je veux étaler cela sur 27, 28 en sachant que même l'un des plus grands enseignements que nous avons eu avec Nvidia est que leur rythme a augmenté en termes de migrations. C'était un facteur important. Je ne voulais pas rester bloqué pendant quatre ans, cinq ans d'amortissement sur une génération et je voulais essentiellement acheter — en fait le conseil de Jensen pour moi était deux choses. La première est de se mettre sur une exécution à la vitesse de la lumière. C'est pourquoi je pense que même l'exécution dans ce centre de données d'Atlanta, en 90 jours entre le moment où nous l'avons et le passage à une charge de travail réelle. C'est une réelle exécution à la vitesse de la lumière de leur part. Et donc je voulais devenir bon là-dedans. Et ainsi je construis chaque génération en changeant d'échelle. Et puis tous les cinq ans vous avez quelque chose de beaucoup plus équilibré de sorte que cela devient littéralement comme un flux pour une opération industrielle à grande échelle comme celle-ci où soudain vous n'êtes pas déséquilibré où vous avez beaucoup construit à un moment donné et puis vous faites un hiatus massif parce que vous êtes coincé avec tout cela dans un seul endroit qui peut être génial pour l'entraînement, peut ne pas être génial pour l'inférence parce que je ne peux pas servir même si c'est tout asynchrone, car l'Europe ne va pas me laisser faire un aller-retour au Texas. C'est tout l'ensemble des choses.

Dylan Patel

Comment puis-je rationaliser cette déclaration avec ce que vous avez fait au cours des dernières semaines ? Vous avez annoncé des accords avec Iris Energy, avec Nebius, et Lambda Labs, et il y en a quelques autres à venir aussi. Vous allez sur le terrain pour sécuriser de la capacité que vous louez auprès des néo-clouds plutôt que de l'avoir construite vous-mêmes. Quel était le...

Satya Nadella

Je pense que c'est bien pour nous parce que nous avons maintenant, quand vous avez une visibilité sur la demande qui peut être servie là où les gens la construisent, c'est génial. En fait, nous prendrons même des baux, nous prendrons du construit sur mesure, nous prendrons même des GPU en tant que service là où nous n'avons pas de capacité mais où nous en avons besoin et que quelqu'un d'autre en a. Et je souhaiterais même la bienvenue à chaque néo-cloud pour faire simplement partie de notre place de marché. Parce qu'encore une fois, s'ils apportent leur capacité sur notre place de marché, ce client qui passe par Azure utilisera le néo-cloud, ce qui est une grande victoire pour eux, et utilisera le calcul, le stockage, les bases de données, tout le reste d'Azure. Donc je ne pense pas du tout à cela comme juste un, "Hé, je devrais juste tout gober moi-même."

Internal Silicon and TCO Optimization

Dwarkesh Patel

Vous avez mentionné comment vous amortissez cet actif qui est sur cinq, six ans et c'est la majorité des 75 % du coût total de possession (TCO) d'un centre de données. Et Jensen prend une marge de 75 % là-dessus. Donc ce que tous les hyperscalers essaient de faire est de développer leur propre accélérateur afin de pouvoir réduire ce coût écrasant de l'équipement pour augmenter leurs marges.

Dylan Patel

Et quand on regarde où ils en sont, Google est loin devant tout le monde ; ils le font depuis le plus longtemps. Ils vont fabriquer quelque chose comme cinq à sept millions de puces de leurs propres TPU. Vous regardez Amazon, ils essaient d'en fabriquer trois à cinq millions. Mais quand nous regardons ce que Microsoft commande de ses propres puces, c'est bien en dessous de ce chiffre. Vous avez un programme depuis tout aussi longtemps. Que se passe-t-il avec votre puce interne ?

Satya Nadella

Le plus grand concurrent pour n'importe quel nouvel accélérateur est même la génération précédente de Nvidia. Dans une flotte, ce que je vais regarder est le TCO global. Donc la barre que j'ai même pour notre propre — et d'ailleurs, je regardais juste les données pour Maia 200, qui a l'air génial. Sauf que l'une des choses que nous avons apprises même du côté du calcul — à savoir que nous avions beaucoup d'Intel, puis nous avons introduit AMD, et puis nous avons introduit Cobalt. Et c'est ainsi que nous avons changé d'échelle. Et nous avons donc de bonnes preuves de l'existence, au moins dans le calcul de base, sur la façon de construire votre propre silicium et de gérer ensuite une flotte où les trois sont en jeu dans un certain équilibre. Parce que même Google achète du Nvidia et Amazon aussi. Et c'est logique parce que Nvidia innove et c'est le truc polyvalent, tous les modèles tournent dessus, et la demande des clients est là. Parce que si vous construisez votre propre truc vertical, vous feriez mieux d'avoir votre propre modèle, qui va soit l'utiliser pour l'entraînement soit pour l'inférence, et vous devez générer votre propre demande pour cela ou subventionner la demande pour cela. Par conséquent, vous voulez vous assurer de changer d'échelle de manière appropriée. La façon dont nous allons le faire est d'avoir une boucle fermée entre nos propres modèles MAI et notre silicium, parce que je sens que c'est ce qui vous donne le droit de naissance de faire réellement votre propre silicium, là où vous avez littéralement conçu la microarchitecture avec ce que vous faites et ensuite vous gardez le rythme avec vos propres modèles. Dans notre cas, la bonne nouvelle ici est qu'OpenAI a un programme auquel nous avons accès. Et donc penser que Microsoft n'aura pas quelque chose qui change d'échelle...

Dylan Patel

Quel niveau d'accès avez-vous à cela ?

Satya Nadella

Tout. Vous obtenez juste l'IP pour tout cela. La seule IP que vous n'avez pas est le matériel grand public. C'est tout.

Dylan Patel

Oh, d'accord. Intéressant.

Satya Nadella

Nous leur avons donné un tas d'IP également pour les aider à démarrer. C'est l'une des raisons pour lesquelles ils ont eu un massif — parce que nous avons construit tous ces superordinateurs ensemble, ou nous les avons construits pour eux et ils en ont bénéficié, à juste titre. Et maintenant, alors qu'ils innovent même au niveau du système, nous avons accès à tout cela. Nous voulons d'abord instancier ce qu'ils construisent pour eux, mais ensuite nous l'étendrons. Penser que nous n'avons pas — donc au contraire, la façon dont je pense par rapport à votre question est que Microsoft veut être un partenaire d'exécution à la vitesse de la lumière fantastique pour Nvidia. Parce que très franchement, cette flotte est la vie elle-même. Je ne suis pas inquiet — évidemment Jensen s'en sort super bien avec ses marges, mais le TCO a de nombreuses dimensions et je veux être excellent dans ce TCO. En plus de cela, je veux être capable de travailler avec la lignée d'OpenAI et la lignée de MAI et la conception du système, sachant que nous avons les droits d'IP sur les deux bouts.

OpenAI Partnership and API Exclusivity

Dwarkesh Patel

En parlant de droits, l'une des choses — vous avez eu une interview il y a quelques jours où vous avez dit que nous avons des droits sur l'exclusivité des appels d'API sans état (stateless) qu'OpenAI fait. Et nous étions confus de savoir s'il y a un état quelconque. Je veux dire, vous mentionniez il y a une seconde que toutes ces charges de travail compliquées qui arrivent vont nécessiter de la mémoire et des bases de données et du stockage et ainsi de suite. Et est-ce que ce n'est pas sans état maintenant si ChatGPT stocke des choses sur la session ?

Satya Nadella

Mais c'est la raison pour laquelle. La chose, la décision stratégique que nous avons prise et aussi en tenant compte de la flexibilité dont OpenAI avait besoin pour pouvoir se procurer du calcul pour essentiellement — pensez à OpenAI ayant une activité de PaaS et une activité de SaaS. L'activité de SaaS est ChatGPT, leur activité de PaaS est leur API. Cette API est exclusive à Azure. L'activité de SaaS, ils peuvent la faire tourner n'importe où.

Dwarkesh Patel

Et ils peuvent s'associer avec qui ils veulent pour construire des produits SaaS ?

Satya Nadella

Donc s'ils veulent s'associer et que ce partenaire veut utiliser une API sans état, alors Azure est l'endroit où ils peuvent obtenir l'API sans état.

Dylan Patel

Il semble qu'il y ait un moyen pour eux de construire le produit ensemble et c'est une chose avec état.

Satya Nadella

Même cela, ils devront venir sur Azure. D'accord. Donc, cela est fait dans l'esprit de ce que nous avons valorisé dans le cadre de notre partenariat et nous nous sommes assurés tout en étant de bons partenaires pour OpenAI étant donné toute la flexibilité dont ils ont besoin.

Dylan Patel

Par exemple, Salesforce veut intégrer OpenAI, ce n'est pas via une API, ils travaillent réellement ensemble, entraînent un modèle ensemble, le déploient sur Amazon maintenant. Est-ce autorisé ? Ou doivent-ils utiliser...

Satya Nadella

Pour tout accord client comme celui-là, ils devront venir le faire tourner. Il y a quelques rares exceptions pour le gouvernement américain que nous avons faites, mais à part ça ils devront venir sur Azure.

Sponsor: CodeRabbit

Dwarkesh Patel

Comme Satya l'a expliqué, à mesure que les agents d'IA deviennent plus capables, vous allez avoir besoin de plus en plus d'observabilité sur ce qu'ils font. Vous allez devoir les attraper quand ils font des erreurs, vous allez avoir besoin de résumés de haut niveau de ce qu'ils font, et vous allez avoir besoin d'une image de la façon dont tout ce qu'ils font s'emboîte. C'est exactement ce que propose CodeRabbit. Vous faites simplement une pull request normale et CodeRabbit révise automatiquement la PR. Il génère un résumé des changements pour que vous puissiez comprendre exactement ce que l'auteur de la PR avait l'intention de faire, et il utilise le contexte de votre base de code complète pour fournir des retours ligne par ligne sur la façon dont les choses pourraient être améliorées. C'est utile que vous révisiez une PR d'un collègue ou d'un agent. Dans les deux cas, CodeRabbit rédigera ses réflexions et signalera tout problème afin que votre coéquipier ou votre agent puisse aller le corriger. J'ai remarqué que lorsque je code avec des agents, CodeRabbit attrape beaucoup d'erreurs que les modèles font par défaut. Par exemple, les modèles ont la mauvaise habitude d'utiliser d'anciennes versions de bibliothèques. Ainsi, dans une session, j'ai vu CodeRabbit attraper un appel à un ancien modèle, trouver quelle était la nouvelle version, puis suggérer cette amélioration. Allez sur coderabbit.ai/dwarkesh pour en savoir plus.

Capital Intensity and Software Knowledge

Dwarkesh Patel

En prenant du recul, une question que j'ai est que, lorsque nous marchions d'avant en arrière dans l'usine, l'une des choses dont vous parliez est Microsoft — vous pouvez y penser comme une entreprise de logiciels, mais maintenant cela devient réellement une entreprise industrielle. Il y a toutes ces dépenses d'investissement, il y a toute cette construction, et si vous regardez juste les deux dernières années, vos dépenses d'investissement ont triplé, et peut-être que si on extrapole cela vers l'avenir, cela devient juste cette énorme explosion industrielle.

Dylan Patel

D'autres hyperscalers contractent des emprunts. Meta a fait un emprunt de 20 milliards de dollars en Louisiane, ils ont fait un emprunt d'entreprise. Il semble clair que le flux de trésorerie disponible de tout le monde va tomber à zéro. Ce pour quoi je suis sûr qu'Amy va vous réprimander si vous essayez même de faire cela. Mais que se passe-t-il ?

Satya Nadella

Je pense que le changement structurel est ce à quoi vous faites référence, ce qui je pense est massif. Le décris comme le fait que nous sommes maintenant une entreprise à forte intensité de capital et une entreprise à forte intensité de connaissances. Et nous devons utiliser nos connaissances pour augmenter le ROIC sur la dépense de capital. Les gars du matériel ont fait un excellent travail de marketing de la loi de Moore, ce qui je pense est incroyable et c'est génial. Mais si vous regardez même certaines des statistiques que j'ai même faites dans mon appel de résultats, qui sont pour une famille GPT donnée, les améliorations logicielles de débit en termes de jetons par dollar par watt que nous sommes capables d'obtenir trimestre après trimestre, année après année, sont massives. C'est 5x, 10x, peut-être 40x dans certains de ces cas, juste à cause de la façon dont vous pouvez optimiser. C'est l'intensité de la connaissance qui vient apporter l'efficacité du capital. À un certain niveau, c'est ce que nous devons maîtriser. Qu'est-ce que cela signifie ? Certaines personnes m'ont demandé quelle était la différence entre un hébergeur classique à l'ancienne et un hyperscaler. C'était le logiciel. Oui, c'est à forte intensité de capital, mais tant que vous avez le savoir-faire des systèmes, la capacité logicielle d'optimiser par charge de travail, par flotte — c'est pourquoi je pense que quand on dit fongibilité, il y a tellement de logiciel là-dedans. Ce n'est pas seulement au sujet de la flotte ; c'est la capacité d'évincer une charge de travail et ensuite de planifier une autre charge de travail. Puis-je gérer cet algorithme de planification ? C'est le genre de choses dans lesquelles nous devons être de classe mondiale. Nous resterons donc une entreprise de logiciels. Mais oui, c'est une activité différente. Et nous allons gérer — je pense qu'au bout du compte, le flux de trésorerie que Microsoft possède nous permet d'avoir ces deux bras fonctionnant bien.

R&D Allocation and the Path to AGI

Dwarkesh Patel

Il semble qu'à court terme vous accordiez plus de crédit au fait que les choses prennent du temps, qu'elles soient plus irrégulières. Mais à long terme vous pensez que les gens qui parlent d'AGI et d'ASI ont raison, comme Sam aura raison finalement. Et j'ai une question plus large sur ce qu'il est raisonnable pour un hyperscaler de faire étant donné que vous devez investir massivement dans cette chose qui s'amortit sur cinq ans. Donc si vous avez des échéances à 2040 pour le genre de chose que quelqu'un comme Sam anticipe dans trois ans, qu'est-ce qu'une chose raisonnable pour vous de faire dans ce monde ?

Satya Nadella

Il doit y avoir une allocation à ce que j'appellerai le calcul de recherche. Cela doit être fait comme vous faisiez de la R&D. C'est donc la meilleure façon de le comptabiliser. Vous devriez le considérer simplement comme une dépense de R&D et vous devriez dire, "Hé, qu'est-ce que le calcul de recherche et comment voulez-vous changer d'échelle ?" Et disons que c'est un changement d'échelle d'un ordre de grandeur sur une certaine période. Choisissez votre truc. Est-ce deux ans ? Est-ce 16 mois ? C'est donc une pièce, qui est l'enjeu de base, c'est de la dépense de R&D. Ensuite le reste est entièrement piloté par la demande ; en fin de compte vous devrez construire en avance sur la demande, mais vous feriez mieux d'avoir un plan de demande qui ne parte pas complètement à la dérive.

Dwarkesh Patel

Est-ce que vous croyez — donc ces laboratoires projettent maintenant des revenus de 100 milliards en 2027, 2028. Et ils projettent que les revenus continuent de croître à ce rythme de 3x, 2x par an.

Satya Nadella

Vous voyez, il y a beaucoup de choses sur le marché. Il y a toutes sortes d'incitations en ce moment. Et à juste titre. Qu'attendez-vous d'un laboratoire indépendant qui essaie de lever des fonds ? Ils doivent sortir des chiffres de sorte qu'ils puissent réellement aller lever des fonds afin de pouvoir payer leurs factures de calcul. Et c'est une bonne chose. Quelqu'un va prendre un certain risque et s'y mettre. Et ils ont montré de la traction. Ce n'est pas comme si c'était tout du risque sans voir le fait qu'ils ont été performants, que ce soit OpenAI, que ce soit Anthropic. Donc je me sens bien par rapport à ce qu'ils ont fait et nous avons un carnet de commandes massif avec ces gars. Donc tout cela est bien. Mais au global, en fin de compte, il y a deux choses simples. L'une est qu'il faut allouer pour la R&D. Vous avez évoqué même le talent. Vous devez — le talent pour l'IA est à un prix élevé. Vous devez dépenser là. Vous devez dépenser sur le calcul. Dans un certain sens, les ratios chercheur sur GPU doivent être élevés. C'est ce qu'il faut pour être une entreprise de R&D de pointe dans ce monde. Et c'est quelque chose qui doit changer d'échelle. Et vous devez avoir un bilan qui vous permet de changer d'échelle bien avant que ce ne soit la sagesse conventionnelle. C'est donc une chose. Mais l'autre est tout au sujet de savoir comment prévoir.

Geopolitics, Sovereignty, and Global Trust

Dylan Patel

Alors que nous regardons à travers le monde, l'Amérique a dominé de nombreuses piles technologiques. Les États-Unis possèdent Windows via Microsoft, qui est déployé même en Chine ; c'est le principal système d'exploitation. Bien sûr il y a Linux qui est open source, mais Windows est déployé partout en Chine sur les ordinateurs personnels. Vous regardez Word, c'est déployé partout. Vous regardez toutes ces technologies variées, c'est déployé partout. La chose qui est tout à fait unique et Microsoft et d'autres entreprises ont grandi ailleurs ; elles ont construit des centres de données en Europe et en Inde et dans tout ce reste de l'Asie du Sud-Est, en Amérique latine et en Afrique, tous ces différents endroits où vous construisez de la capacité. Mais cela semble tout à fait différent. Aujourd'hui l'aspect politique de la technologie, du calcul — l'administration américaine ne se souciait pas de la bulle Internet. Il semble que l'administration américaine ainsi que chaque autre administration dans le monde se soucient beaucoup de l'IA. Et la question est — nous sommes dans un monde bipolaire au moins avec les États-Unis et la Chine, mais l'Europe et l'Inde et tous ces autres pays disent, "No, en fait nous allons avoir une IA souveraine également." Comment Microsoft navigue-t-il la différence des années 90 où il y a un seul pays au monde qui compte, ce sont les États-Unis et nous faisons, nos entreprises vendent partout et donc Microsoft en bénéficie massivement, par rapport à un monde où il est bipolaire, où Microsoft ne peut pas simplement nécessairement avoir le droit de gagner toute l'Europe ou l'Inde ou Singapour ? Il y a réellement des efforts d'IA souveraine. Quelle est votre réflexion ici et comment y pensez-vous ?

Satya Nadella

...vers un autre modèle qu'il soit open source ou d'un autre pays. Le risque de concentration et la souveraineté, qui est une réelle agence — ce sont les deux choses qui je pense piloteront la structure du marché.

Dylan Patel

La chose à ce sujet est que cela n'existe pas pour les semi-conducteurs. Tous les réfrigérateurs et les voitures ont des puces fabriquées à Taïwan.

Satya Nadella

Cela n'existait pas jusqu'à maintenant. Tout le monde est maintenant du genre regardez —

Dylan Patel

Même alors, l'Amérique — si Taïwan est coupé il n'y a plus de voitures, il n'y a plus de réfrigérateurs. TSMC Arizona ne remplace aucune fraction réelle de la production. La souveraineté est un peu une arnaque. Il est utile de l'avoir, c'est important de l'avoir, mais ce n'est pas une réelle souveraineté. Nous sommes une économie mondiale.

Dylan Patel

Je pense que c'est comme si Dylan disait que nous n'avons rien appris sur ce que signifie la résilience et sur ce qu'il faut faire. N'importe quel État-nation y compris les États-Unis à ce stade fera ce qu'il faut pour être plus autosuffisant sur certaines de ces chaînes d'approvisionnement critiques. Moi, en tant qu'entreprise multinationale, je dois penser à cela comme à une exigence de premier ordre. Si je ne le fais pas, alors je ne respecte pas ce qui est dans l'intérêt politique de ce pays à long terme. Je ne dis pas qu'ils ne prendront pas de décisions pratiques à court terme. La mondialisation ne peut pas simplement être rembobinée ; tous ces investissements en capital ne peuvent pas être faits au rythme auquel — mais en même temps vous devez — si vous y réfléchissez réellement, si quelqu'un se présentait à Washington et disait, "Hé, vous savez quoi, nous n'allons pas construire d'usines de semi-conducteurs," il va être expulsé des États-Unis. Et la même chose sera vraie dans chaque autre pays aussi. Par conséquent je pense que nous devons en tant qu'entreprises respecter quelles sont les leçons apprises. Vous pourriez dire que la pandémie nous a réveillés, mais néanmoins les gens disent, "Écoutez, la mondialisation était fantastique ; elle a aidé les chaînes d'approvisionnement à être mondialisées et à être super efficaces, mais il y a une chose appelée la résilience et nous voulons de la résilience." Par conséquent, cette fonctionnalité sera construite. À quel rythme — je pense que c'est le point que vous soulevez — cela ne peut pas être comme si vous pouviez claquer des doigts et dire que toutes les usines TSMC sont maintenant toutes en Arizona et avec toute la capacité elles ne le seront pas. Mais y a-t-il un plan ? Il y aura un plan. Et devrions-nous respecter cela ? Absolument. Je sens que c'est cela le monde. Je veux rencontrer le monde là où il est et ce qu'il veut faire à l'avenir par opposition à dire que nous avons un point de vue qui ne respecte pas votre vision.

Dwarkesh Patel

Donc juste pour être sûr de bien comprendre, l'idée ici est que chaque pays voudra une sorte de résidence des données, de confidentialité, etc. et Microsoft est particulièrement privilégié ici parce que vous avez des relations avec ces pays, vous avez de l'expertise dans la mise en place de ces genres de centres de données souverains, et donc Microsoft est uniquement apte pour un monde avec plus d'exigences de souveraineté.

Satya Nadella

Je ne veux pas décrire cela comme si d'une certaine manière nous étions uniquement privilégiés. Je dirais simplement que je pense à cela comme à une exigence commerciale pour laquelle nous avons fait tout le travail difficile toutes ces décennies et nous prévoyons de le faire. Ma réponse à la question précédente de Dylan était que je prends le — que ce soit aux États-Unis, quand la Maison Blanche et l'USG disent, "Hé, nous voulons que vous allouiez plus de vos lancements de plaquettes (wafer starts) à des usines aux États-Unis," nous prenons cela au sérieux, ou que ce soit le centre de données et la frontière de l'UE nous prenons cela au sérieux. Pour moi, respecter ce que je pense être des raisons légitimes pour lesquelles les pays se soucient de la souveraineté et construire pour cela en tant que logiciel et installation physique est ce que nous allons faire.

Dylan Patel

Et alors que nous allons vers le monde bipolaire — États-Unis, Chine — il y a beaucoup autour de la technologie américaine qui ne — ce n'est pas juste vous contre Amazon ou vous contre Anthropic ou vous contre Google. Il y a toute une panoplie de concurrence. Comment l'Amérique reconstruit-elle la confiance ? Que faites-vous pour reconstruire la confiance pour dire que les entreprises américaines seront le principal fournisseur pour vous, et comment pensez-vous à la concurrence avec les entreprises chinoises montantes que ce soit ByteDance et Alibaba ou DeepSeek et Moonshot ?

Satya Nadella

Et juste pour ajouter à la question, une inquiétude est que nous parlons de comment l'IA devient cette course industrielle aux dépenses d'investissement où vous devez juste construire rapidement à travers toute la chaîne d'approvisionnement. Quand vous entendez cela, au moins jusqu'à maintenant vous pensez juste à la Chine. C'est comme leur avantage comparatif. Et surtout si nous n'allons pas faire de "moonshot" vers l'ASI l'année prochaine mais que ce seront ces décennies de construction et d'infrastructure, comment gérez-vous la concurrence chinoise ? Sont-ils privilégiés dans ce monde ?

Satya Nadella

C'est une excellente question. En fait vous venez juste de souligner pourquoi je pense que la confiance dans la technologie américaine est probablement la caractéristique la plus importante. Ce n'est même pas la capacité du modèle ; peut-être est-ce — puis-je vous faire confiance, vous l'entreprise, puis-je faire confiance à votre pays et à ses institutions pour être un fournisseur à long terme ? Cela pourrait être la chose qui gagne le monde.

Dwarkesh Patel

Je pense que c'est une bonne note pour terminer. Satya, merci d'avoir fait cela. Merci beaucoup. Merci. Oui, quel plaisir. C'est génial ; vous formez une sacrée équipe tous les deux.

Conclusion and Closing Remarks

Dwarkesh Patel

Hé tout le monde, j'espère que vous avez apprécié cet épisode. Si c'est le cas, la chose la plus utile que vous puissiez faire est simplement de le partager avec d'autres personnes qui, selon vous, pourraient l'apprécier. Il est également utile que vous laissiez une note ou un commentaire sur la plateforme sur laquelle vous nous écoutez. Si vous êtes intéressé par le parrainage de ce podcast, vous pouvez nous contacter à dwarkesh.com/advertise. Sinon, je vous verrai dans le prochain.