Le Partenariat OpenAI-Microsoft et l'Avenir de l'IA
31 octobre 2025
Technologie & IA
Introduction et Vie Personnelle
Je pense que cela a été un partenariat incroyable à travers chaque phase. Nous n'avions aucune idée de l'endroit où tout cela allait mener quand nous avons commencé, comme l'a dit Satya, mais je pense que c'est l'un des plus grands partenariats technologiques de tous les temps. Et certainement sans Microsoft et en particulier la conviction précoce de Satya, nous n'aurions pas pu faire cela.
Quelle semaine. Ravi de vous voir tous les deux. Sam, comment va le bébé ?
Le bébé va très bien. C'est la meilleure chose. Chaque cliché est vrai et c'est la meilleure chose au monde.
Hé Satya, avec tout ton temps...
Et le sourire sur le visage de Sam chaque fois qu'il parle de son bébé est tellement différent. C'est ça et le calcul, je suppose, quand il parle du calcul et de son bébé.
Eh bien Satya, lui as-tu donné des conseils de papa avec tout ce temps que vous avez passé ensemble ?
J'ai dit : profites-en tout simplement. C'est tellement génial que nous ayons eu nos enfants si jeunes et j'aimerais pouvoir recommencer. C'est le moment le plus précieux et à mesure qu'ils grandissent, c'est tout simplement merveilleux. Je suis si heureux que Sam soit...
Je suis heureux de le faire plus vieux, mais je pense parfois que j'aimerais avoir l'énergie de mes 25 ans. Cette partie-là est plus difficile.
Aucun doute là-dessus. Quel est l'âge moyen chez OpenAI, Sam ? Une idée ? Jeune ?
Ce n'est pas incroyablement jeune. Pas comme la plupart des startups de la Silicon Valley. Moyenne au début de la trentaine.
Est-ce que la tendance des bébés est positive ou négative ?
La tendance des bébés est positive.
Le Partenariat et la Restructuration d'OpenAI
C'est bien. Vous tous, quelle grande semaine. Je pensais commencer par le GTC de NVIDIA, qui vient d'atteindre 5 billions de dollars. Google, Meta, Microsoft, Satya, vous avez eu vos résultats hier. Nous avons entendu systématiquement : pas assez de puissance de calcul. Nous avons eu des baisses de taux mercredi, le PIB avoisine les 4 %. Et puis je disais juste à Sam, le président a conclu ces accords massifs en Malaisie, en Corée du Sud, au Japon, et il semble qu'avec la Chine aussi. Des accords qui fournissent vraiment la puissance financière pour réindustrialiser l'Amérique. 80 milliards de dollars pour la nouvelle fission nucléaire, toutes les choses dont vous avez besoin pour construire plus de puissance de calcul. Mais ce qui n'est certainement pas passé inaperçu dans tout cela, c'est que vous avez fait une annonce importante mardi qui a clarifié votre partenariat. Félicitations pour cela. Je pensais que nous pourrions commencer par là. Je voulais vraiment décortiquer l'accord en langage simple pour m'assurer de bien comprendre, ainsi que les autres. Nous allons commencer par votre investissement, Satya. Microsoft a commencé à investir en 2019 et a investi environ 13 à 14 milliards de dollars dans OpenAI. Pour cela, vous obtenez 27 % de la propriété de l'entreprise sur une base entièrement diluée. Je pense que c'était environ un tiers et vous avez subi une certaine dilution au cours de l'année dernière avec tous les investissements. Est-ce que cela semble exact en termes de propriété ?
Oui, tout à fait. Avant notre participation, Brad, ce qui est assez unique avec OpenAI, c'est le fait que dans le cadre du processus de restructuration d'OpenAI, l'une des plus grandes organisations à but non lucratif est créée. Chez Microsoft, nous sommes très fiers d'être associés à deux des plus grandes organisations à but non lucratif, la Fondation Gates et maintenant la Fondation OpenAI. C'est la grande nouvelle. Nous étions ravis. Ce n'est pas ce que nous pensions. Quand nous avons investi notre premier milliard de dollars, nous ne pensions pas que ce serait l'investissement multiplié par cent dont je parlerais aux investisseurs en capital-risque. Mais nous y sommes. Nous sommes ravis d'être un investisseur et un soutien de la première heure, et c'est un témoignage de ce que Sam et son équipe ont accompli. Ils ont eu la vision très tôt de ce que cette technologie pouvait faire, ils ont foncé et ont exécuté cela de main de maître.
Je pense que cela a été un partenariat incroyable à travers chaque phase. Nous n'avions aucune idée de l'endroit où tout cela allait mener quand nous avons commencé, comme l'a dit Satya, mais je pense que c'est l'un des plus grands partenariats technologiques de tous les temps. Certainement, sans Microsoft et en particulier la conviction précoce de Satya, nous n'aurions pas pu faire cela. Je ne pense pas qu'il y ait eu beaucoup d'autres personnes prêtes à prendre ce genre de pari vu l'état du monde à l'époque. Nous ne savions pas du tout comment la technologie évoluerait, nous avions juste beaucoup de conviction dans cette idée de pousser l'apprentissage profond et la confiance que si nous pouvions faire cela, nous trouverions des moyens de créer des produits merveilleux, de générer beaucoup de valeur et de créer aussi ce que nous pensons être la plus grande organisation à but non lucratif de l'histoire. Elle va faire des choses incroyablement formidables. J'aime vraiment cette structure car elle permet à l'organisation à but non lucratif de prendre de la valeur tandis que la PBC est capable d'obtenir le capital dont elle a besoin pour continuer à se développer. Je ne pense pas qu'il y ait eu beaucoup d'autres personnes prêtes à prendre ce genre de pari vu l'état du monde à l'époque. Nous ne savions pas du tout comment la technologie évoluerait, nous avions juste beaucoup de conviction dans cette idée de pousser l'apprentissage profond et la confiance que si nous pouvions faire cela, nous trouverions des moyens de créer des produits merveilleux, de générer beaucoup de valeur et de créer aussi ce que nous pensons être la plus grande organisation à but non lucratif de l'histoire. Elle va faire des choses incroyablement formidables. J'aime vraiment cette structure car elle permet à l'organisation à but non lucratif de prendre de la valeur tandis que la PBC est capable d'obtenir le capital dont elle a besoin pour continuer à se développer. Je ne pense pas que l'organisation à but non lucratif puisse avoir autant de valeur si nous n'avions pas conçu cette structure et si nous n'avions pas de partenaires autour de la table enthousiasmés par ce mode de fonctionnement. Cela fait plus de six ans que nous avons commencé ce partenariat, avec une quantité folle de réalisations pour six ans, et beaucoup, beaucoup plus à venir. J'espère que Satya gagnera un billion de dollars sur cet investissement.
Santé, Résilience et Mission à But Non Lucratif
Dans le cadre de la restructuration, vous en avez parlé, vous avez cette organisation à but non lucratif au-dessus et une société d'intérêt public en dessous. L'organisation à but non lucratif est déjà capitalisée avec 130 milliards de dollars d'actions OpenAI. C'est l'une des plus grandes au monde. Le procureur général de Californie a déclaré qu'il ne s'y opposerait pas. Vous avez déjà ces 130 milliards de dollars dédiés à s'assurer que l'IA générale profite à toute l'humanité. Vous avez annoncé que vous alliez diriger les premiers 25 milliards de dollars vers la santé ainsi que la sécurité et la résilience de l'IA. Félicitations à vous deux. C'est une contribution incroyable à l'avenir de l'IA. Sam, parlez-nous de l'importance du choix concernant la santé et la résilience. Comment s'assurer d'obtenir le maximum de bénéfices sans que cela ne soit alourdi, comme nous l'avons vu avec tant d'organisations à but non lucratif, par ses propres biais politiques ?
La meilleure façon de créer de la valeur pour le monde est ce que nous faisons déjà, à savoir créer ces outils incroyables et laisser les gens les utiliser. Je pense que le capitalisme est formidable, les entreprises sont formidables, des gens font un travail incroyable pour mettre l'IA avancée entre les mains de beaucoup de personnes et d'entreprises. Il y a certains domaines où les forces du marché ne fonctionnent pas tout à fait pour ce qui est dans le meilleur intérêt des gens, et il faut faire les choses différemment. Il y a aussi de nouvelles choses avec cette technologie qui n'existaient pas auparavant, comme le potentiel d'utiliser l'IA pour la découverte automatisée. Quand nous avons réfléchi aux domaines sur lesquels nous voulions nous concentrer, il est clair que si nous pouvons guérir des maladies et rendre cette information largement disponible, ce serait une chose merveilleuse pour le monde. Sur la résilience de l'IA, certaines choses pourraient devenir étranges et elles ne seront pas toutes traitées par des entreprises faisant leur travail. Alors que le monde doit naviguer à travers cette transition, si nous pouvons financer des travaux pour aider à cela, comme la cyberdéfense, la recherche sur la sécurité de l'IA ou des études économiques, cela aide la société à traverser cette transition en douceur. Nous sommes confiants quant à la grandeur de ce qu'il y aura de l'autre côté, mais il y aura des turbulences en cours de route.
Distribution des Modèles et Exclusivité Azure
Continuons à décortiquer l'accord. Concernant les modèles et l'exclusivité, OpenAI peut distribuer ses modèles de pointe sur Azure, mais je ne pense pas que vous puissiez les distribuer sur d'autres grands clouds de premier plan jusqu'en 2032. Cela se terminerait plus tôt si l'IA générale est vérifiée. Mais vous pouvez distribuer vos modèles open source, Sora, Agents, Codex, les appareils portables et tout le reste sur d'autres plateformes. Sam, je suppose que cela signifie pas de ChatGPT ou de GPT-6 sur Amazon ou Google.
Nous voulons faire beaucoup de choses ensemble pour créer de la valeur pour Microsoft, et nous voulons qu'ils fassent beaucoup de choses pour créer de la valeur pour nous. Nous gardons ce que Satya ha appelé les API sans état exclusivement sur Azure jusqu'en 2030, et tout le reste, nous allons le distribuer ailleurs, et c'est évidemment aussi dans l'intérêt de Microsoft. Nous placerons beaucoup de produits à beaucoup d'endroits, et puis cette chose spécifique, nous la ferons sur Azure et les gens pourront l'obtenir là-bas ou via nous, et c'est très bien.
Partage des Revenus et Définition de l'AGI
Et puis le partage des revenus, il y a toujours un partage des revenus qui est payé par OpenAI à Microsoft sur tous vos revenus qui court également jusqu'en 2032, ou jusqu'à ce que l'IA générale soit vérifiée. Supposons pour l'argumentation que le partage des revenus soit de 15 %. Cela signifierait que si vous aviez 20 milliards de dollars de revenus, vous paieriez 3 milliards de dollars à Microsoft et cela compterait comme revenu pour Azure. Satya, est-ce que cela semble exact ?
Oui, nous avons un partage des revenus et cela ira soit jusqu'à l'IA générale, soit jusqu'à la fin du terme. Je ne sais pas exactement où nous le comptabilisons, si cela va dans Azure ou ailleurs. C'est une question pour Amy.
Étant donné que l'exclusivité et le partage des revenus se terminent plus tôt dans le cas où l'IA générale est vérifiée, il semble que l'IA générale devienne un enjeu de taille. Si j'ai bien compris, si OpenAI revendiquait l'IA générale, cela irait devant un panel d'experts et vous choisiriez un jury qui prendrait une décision relativement rapide pour savoir si l'IA générale a été atteinte ou non. Satya, vous avez dit lors de l'appel sur les résultats d'hier que personne n'est même proche d'atteindre l'IA générale et que vous ne vous attendez pas à ce que cela arrive de sitôt. Vous avez parlé de cette intelligence pointue et dentelée. Sam, je vous ai entendu paraître peut-être plus optimiste quant au moment où nous pourrions atteindre l'IA générale. Craignez-vous qu'au cours des deux ou trois prochaines années, nous devions faire appel au jury pour décider si nous avons atteint l'IA générale ?
Je me rends compte que vous essayez de créer un peu de drame entre nous. Mettre en place un processus pour cela est une bonne chose à faire. Je m'attends à ce que la technologie prenne plusieurs virages surprenants et nous continuerons d'être de bons partenaires l'un pour l'autre et de déterminer ce qui est logique.
C'est bien dit. Le processus que nous avons mis en place est bon et je crois fermement que les capacités d'intelligence vont continuer à s'améliorer. Notre véritable objectif est de mettre cela entre les mains des personnes et des organisations afin qu'elles puissent en tirer le maximum de bénéfices. C'était la mission originale d'OpenAI qui m'a attiré vers Sam et l'équipe, et c'est ce que nous prévoyons de poursuivre.
Brad, si nous avions une superintelligence demain, nous voudrions toujours l'aide de Microsoft pour mettre ce produit entre les mains des gens.
Croissance, Revenus et Besoins en Calcul
Bien sûr. Cela a tout à fait du sens pour moi. Microsoft est l'une des plus grandes plateformes de distribution au monde. Mais changeons de sujet. OpenAI est l'une des entreprises à la croissance la plus rapide de l'histoire. Satya, vous avez dit sur ce podcast il y a un an que chaque nouveau changement de phase créait un nouveau Google, et que le Google de ce changement de phase est OpenAI. Rien de tout cela n'aurait été possible si vous n'aviez pas fait ces énormes paris. Cela dit, les revenus d'OpenAI seraient toujours de 13 milliards de dollars en 2025 selon les rapports. Sam, lors de votre diffusion en direct cette semaine, vous avez parlé de cet engagement massif envers le calcul : 1,4 billion de dollars au cours des quatre ou cinq prochaines années. La question cruciale qui pèse sur le marché est la suivante : comment une entreprise avec 13 milliards de dollars de revenus peut-elle prendre des engagements de dépenses de 1,4 billion de dollars ?
Tout d'abord, nous générons bien plus de revenus que cela. Deuxièmement, Brad, si tu veux vendre tes actions, je te trouverai un acheteur très rapidement. Il y a beaucoup de gens qui aimeraient acheter des actions OpenAI. Les gens qui parlent avec une inquiétude haletante de nos besoins de calcul seraient ravis d'acheter des actions. Nous pourrions vendre tes actions ou celles de n'importe qui d'autre très rapidement à certains de ceux qui font le plus de bruit. Nous prévoyons une croissance exponentielle des revenus. Non seulement ChatGPT continuera de croître, mais nous pourrons devenir l'un des clouds d'IA importants et notre activité d'appareils grand public sera une chose significative et importante. Nous planifions soigneusement, nous comprenons où les capacités technologiques vont mener et comment les produits que nous pouvons construire autour de cela peuvent générer des revenus. Nous pourrions échouer. C'est le pari que nous faisons et nous prenons un risque. Un risque certain est que si nous n'avons pas la puissance de calcul, nous ne pourrons pas générer les revenus ou fabriquer les modèles à cette échelle.
Il n'y a pas un seul plan d'affaires que j'ai vu d'OpenAI qu'ils n'ont pas surpassé. En termes de croissance et de business, l'exécution a été incroyable. Tout le monde parle du succès de l'utilisation, mais globalement, l'exécution commerciale a été incroyable.
J'ai entendu Greg Brockman dire sur CNBC il y a quelques semaines que si nous pouvions multiplier par 10 notre puissance de calcul, nous aurions certainement beaucoup plus de revenus. Nous avons entendu cela de votre part aussi hier soir Satya, que vous étiez limité par le calcul et que la croissance aurait été plus élevée si vous en aviez eu davantage. Aide-nous à contextualiser Sam, à quel point te sens-tu limité par le calcul aujourd'hui et penses-tu arriver un jour au point où tu ne le seras plus ?
La meilleure façon d'y penser est comme l'énergie. On peut parler de la demande d'énergie à un certain prix, mais on ne peut pas parler de demande sans évoquer différents niveaux de demande à différents niveaux de prix. Si le prix du calcul par unité d'intelligence chutait d'un facteur 100 demain, vous verriez l'utilisation augmenter de bien plus que 100. Il y aurait un nouveau type de demande. À mesure que les modèles deviennent plus intelligents et que l'on peut les utiliser pour guérir le cancer ou découvrir de nouvelles physiques, alors peut-être qu'il y aura une immense volonté de payer un tarif beaucoup plus élevé. Je parierais que ce sera le cas. Ce n'est pas un problème super bien spécifié.
Énergie, Chaîne d'Approvisionnement et Surplus de Calcul
La seule chose dont Sam a parlé et qui est la bonne façon de voir les choses, c'est que si l'intelligence est un log du calcul, alors on essaie de s'assurer de rester efficace. Cela signifie que les jetons par dollar par watt et la valeur économique que la société en tire sont ce que nous devrions maximiser tout en réduisant les coûts. C'est là qu'intervient le paradoxe de Jevons, où l'on continue de réduire et de commoditiser l'intelligence pour qu'elle devienne le véritable moteur de la croissance du PIB partout.
Malheureusement, c'est quelque chose de plus proche de log de l'intelligence égale log du calcul, mais nous pourrions trouver de meilleures lois d'échelle et nous pourrions encore trouver comment battre cela.
Nous avons entendu hier de la part de Microsoft et de Google que leurs activités de cloud auraient cru plus rapidement s'ils avaient eu plus de GPU. J'ai demandé à Jensen sur ce podcast s'il y avait une chance qu'au cours des cinq prochaines années nous ayons un surplus de calcul. Il a répondu que c'est une chance virtuellement inexistante. Je suppose que vous seriez tous les deux d'accord avec Jensen pour dire qu'au cours des deux ou trois prochaines années, il est presque impossible d'avoir un surplus de calcul.
Les cycles de demande et d'offre dans ce cas particulier sont difficiles à prédire. Le plus gros problème que nous avons maintenant n'est pas un surplus de calcul mais l'énergie et la capacité de construire assez vite à proximité de l'énergie. Si vous ne pouvez pas faire cela, vous pourriez en fait avoir un tas de puces en inventaire que je ne peux pas brancher. C'est mon problème aujourd'hui. Ce n'est pas un problème de fourniture de puces, c'est le fait que je n'ai pas de serveurs prêts à être branchés. La manière dont les contraintes de la chaîne d'approvisionnement émergent est difficile à prédire car la demande est difficile à prédire. C'est une chose de parler d'un segment dans un pays, mais il s'agit de le diffuser partout dans le monde. Il y aura des contraintes et la façon dont nous les surmonterons sera la chose la plus importante. Ce ne sera certainement pas un chemin linéaire.
Il y aura un surplus, c'est certain, que ce soit dans deux ou trois ans ou dans cinq ou six. Cela arrivera à un moment donné, probablement à plusieurs reprises en cours de route. Il y a quelque chose de profond dans la psychologie humaine concernant les bulles, et aussi comme l'a dit Satya, une chaîne d'approvisionnement si complexe où des choses étranges sont construites. Le paysage technologique change de manière radicale. Si une forme d'énergie très bon marché devient disponible prochainement à grande échelle, beaucoup de gens vont être extrêmement pénalisés avec leurs contrats existants. Si nous pouvons continuer cette réduction incroyable du coût par unité d'intelligence, disons 40x par an, c'est un exposant très effrayant du point de vue du déploiement des infrastructures. Nous faisons le pari qu'il y aura beaucoup plus de demande à mesure que cela deviendra moins cher, mais je crains que nous continuions avec ces percées et que tout le monde puisse faire tourner une IA générale personnelle sur son ordinateur portable. Certaines personnes vont vraiment se brûler les ailes comme cela est arrivé dans chaque autre cycle d'infrastructure technologique.
Je pense que c'est très bien dit. Il faut maintenir ces deux vérités simultanées. C'est ce qui s'est passé en 2000, 2001, et pourtant Internet est devenu beaucoup plus grand et a produit des résultats bien plus importants pour la société que quiconque ne l'estimait à cette époque.
La chose que Sam a dite n'est pas assez discutée : ce sont les optimisations qu'OpenAI a faites sur la pile d'inférence pour un GPU donné. On parle de l'amélioration de la loi de Moore d'un côté, mais les améliorations logicielles sont bien plus exponentielles que cela.
Un jour, nous fabriquerons un appareil grand public incroyable capable de faire tourner un modèle de type GPT-5 ou GPT-6 localement avec une faible consommation d'énergie. C'est difficile à concevoir.
Ce sera incroyable et c'est le genre de chose qui effraie certaines des personnes qui construisent ces grandes piles de calcul centralisées. Satya, vous avez beaucoup parlé de la distribution, à la fois vers la périphérie (edge) et de la capacité d'inférence distribuée à travers le monde.
Ma façon d'y penser concerne davantage la construction d'une flotte fongible. Quand je regarde l'activité d'infrastructure cloud, l'une des clés est d'avoir une usine à jetons (tokens) efficace et une utilisation élevée. Il y a deux choses simples à réaliser, et pour avoir une utilisation élevée, il faut avoir plusieurs charges de travail programmables, même sur l'entraînement. Il y a le pré-entraînement, l'entraînement intermédiaire, le post-entraînement et le RL, et on veut pouvoir faire tout cela. La fongibilité de la flotte est primordiale pour un fournisseur de cloud.
Perspectives d'Introduction en Bourse (IPO)
D'accord, donc Sam, vous avez mentionné que Reuters rapportait hier qu'OpenAI pourrait envisager d'entrer en bourse fin 2026 ou en 2027.
Non. Nous n'avons rien d'aussi spécifique. Je suppose que cela arrivera un jour, mais je ne sais pas pourquoi les gens écrivent ces rapports. Nous n'avons pas de date en tête ni de décision prise à ce sujet. Je suppose simplement que c'est là que les choses finiront par aller.
C'est bon à savoir. Mais il me semble que si vous dépassez les 100 milliards de dollars de revenus en 2028 ou 2029, vous seriez en position...
Quoi ? Et pourquoi pas en 2027 ?
Oui, 2027. Encore mieux. Vous êtes en position de faire une introduction en bourse et le billion de dollars rumeur. Si vous entriez en bourse à 10 fois 100 milliards de dollars de revenus, cela vous placerait à un billion de dollars. Si vous introduisiez 10 à 20 % de la société, cela lèverait 100 à 200 milliards de dollars, ce qui semble être une bonne voie pour financer une grande partie de la croissance dont nous venons de parler.
Je préférerais de loin financer l'entreprise par la croissance des revenus, c'est ce que j'aimerais que nous fassions. Mais si nous avons besoin de lever des capitaux...
Aucun doute là-dessus. Je pense que c'est une entreprise tellement importante et il y a tellement de gens qui utilisent ChatGPT, et je pense que donner aux investisseurs particuliers l'opportunité d'acheter l'une des entreprises les plus importantes et les plus grandes...
Ce serait la chose la plus attrayante pour moi. Ce serait vraiment bien.
Régulation et Préemption Fédérale
L'une des choses dont j'ai parlé avec vous deux est la préemption fédérale afin que nous n'ayons pas cette mosaïque de 50 lois d'États différentes. Cela a été rejeté parce que l'IA est mal comprise à Washington et qu'il y a beaucoup de catastrophisme. Maintenant, nous avons des lois d'État comme la loi sur l'IA du Colorado qui crée une nouvelle classe de plaideurs. Sam, à quel point crains-tu que cette mosaïque d'IA par État pose de réels défis à notre capacité à continuer d'accélérer et à être compétitifs dans le monde ?
Je ne sais pas comment nous sommes censés nous conformer à cette loi du Colorado. J'aimerais qu'ils nous le disent. Je suis très inquiet d'une mosaïque de 50 États. Je pense que c'est une grosse erreur. Il y a une raison pour laquelle nous ne faisons pas cela habituellement pour ce genre de choses. Ce serait dommage.
Le problème fondamental de cette approche fragmentée est qu'entre OpenAI et Microsoft, nous trouverons un moyen de naviguer là-dedans. Le problème, c'est pour quiconque lance une startup. Cela va à l'encontre de l'intention initiale. La sécurité est très importante, s'assurer que les préoccupations des gens sont traitées, mais il y a un moyen de le faire au niveau fédéral. Si les États-Unis ne le font pas, l'UE le fera et cela causera ses propres problèmes. Si les États-Unis mènent, c'est mieux en tant que cadre réglementaire unique.
C'est certain.
Et pour être clair, il ne s'agit pas de prôner l'absence de régulation. Il s'agit simplement de dire : ayons une régulation convenue au niveau fédéral plutôt que 50 lois d'États concurrentes qui torpillent l'industrie des startups de l'IA. Mon espoir est que cette fois-ci, nous nous coordonnions entre l'UE et les États-Unis. Ce serait le rêve pour n'importe quelle startup européenne.
Je ne pense pas que cela va arriver Satya.
Quoi donc ? Ce serait génial. Je ne parierais pas là-dessus si j'étais toi.
Non, mais je pense vraiment que si quelqu'un en Europe réfléchit à la manière dont il peut participer à cette économie de l'IA avec ses entreprises, cela devrait être la préoccupation principale. J'espère qu'il y aura une approche éclairée, mais je suis d'accord qu'aujourd'hui je ne parierais pas là-dessus.
Visions pour 2026 : Agents et Découverte Scientifique
Je pense qu'avec Sacks comme responsable de l'IA, vous avez un président qui pourrait se battre pour cela en termes de coordination de la politique de l'IA. Nous verrons bien. La préemption fédérale aux États-Unis est cruciale. Nous sommes entrés un peu dans les détails, alors je veux prendre du recul. Alors que vous commencez à envisager une puissance de calcul illimitée, GPT-6 et au-delà, la robotique, les appareils physiques, la recherche scientifique, en regardant vers 2026, qu'est-ce qui, selon vous, nous surprendra le plus ?
Vous avez touché beaucoup de points clés ici. Codex a été une chose cool à observer cette année et alors que ces tâches passent de plusieurs heures à plusieurs jours, ce qui devrait arriver l'année prochaine, les gens pourront créer des logiciels à un rythme sans précédent. Je suis très excité par cela. Je pense que nous verrons cela transformer ce dont les gens sont capables. J'espère de petites découvertes scientifiques en 2026. Si nous pouvons obtenir ces toutes petites, nous en aurons de plus grandes dans les années futures. C'est cela la superintelligence dans un certain sens. Si cela élargit la somme totale des connaissances humaines, c'est un enjeu énorme.
La combinaison de la capacité du modèle et de l'interface utilisateur que l'intelligence a rencontrée a décollé avec ChatGPT. Je pense que c'est ce que les agents de codage sont sur le point de nous aider à réaliser. Quand un agent de codage part pendant une longue période, revient et que je suis replacé là où je dois diriger. L'une des métaphores sur lesquelles nous travaillons est la macro-délégation et le micro-pilotage. Ce serait une nouvelle façon pour l'interface homme-machine.
C'est une raison pour laquelle je suis très enthousiaste à l'idée que nous fassions de nouveaux formats d'appareils informatiques car les ordinateurs n'ont pas été très bien construits pour ce genre de flux de travail. Une interface comme ChatGPT n'est pas adaptée pour cela. Cette idée que vous pouvez avoir un appareil qui est toujours avec vous mais capable de partir faire des choses et d'obtenir un micro-pilotage de votre part quand il en a besoin avec une conscience contextuelle de toute votre vie et de votre flux, je pense que ce serait cool.
Et ce dont aucun de vous n'a parlé, c'est le cas d'utilisation pour le consommateur. Je pense au fait d'avoir un assistant personnel quasiment gratuit pour des milliards de personnes dans le monde pour améliorer leur vie, qu'il s'agisse de commander des couches ou de réserver leur hôtel. Parfois, c'est le quotidien qui a le plus d'impact. À mesure que nous passons des réponses à la mémoire et aux actions, puis à la capacité de s'interfacer avec cela via une oreillette, je pense que c'est assez extraordinaire.
Je pense que c'est ce que Sam suggérait.
Oui, probablement. Je dois vous laisser malheureusement.
Sam, c'était un plaisir de te voir. Merci de nous avoir rejoint. Félicitations encore pour cette grande étape franchie et on se reparle bientôt.
Merci de m'avoir laissé passer.
Salut Sam, prends soin de toi.
Au revoir.
Retour sur l'Investissement Historique de 2019
Sam le sait bien, nous sommes certainement acheteurs et non vendeurs. Mais parfois, la conviction vient des 10 000 heures que nous avons passées à y réfléchir. La réalité est que nous devons emmener le reste du monde avec nous et le reste du monde ne passe pas 10 000 heures à réfléchir à cela. Ils voient des choses qui semblent trop ambitieuses et s'inquiètent de savoir si nous pouvons les réaliser ou non. Vous avez donc présenté cette idée au conseil d'administration en 2019 d'investir un milliard de dollars dans OpenAI. Était-ce une évidence dans la salle du conseil ? Avez-vous dû dépenser du capital politique pour y parvenir ? Dites-moi comment était ce moment car je pense que c'était un moment charnière non seulement pour Microsoft mais pour le monde.
C'est intéressant quand on regarde en arrière. Nous étions impliqués en 2016 quand OpenAI a commencé, et Azure a même été le premier sponsor. Ils faisaient beaucoup plus d'apprentissage par renforcement à cette époque. Microsoft depuis 1995 était obsédé par le langage naturel. Quand Sam, en 2019, a commencé à parler de texte, de langage naturel, de transformeurs et de lois d'échelle, c'est là que je me suis dit, wow, c'est intéressant. La direction du voyage était désormais claire et présentait beaucoup de points communs avec nos intérêts. En ce sens, c'était une évidence. Il y a eu un débat. Bill était sceptique jusqu'à ce qu'il voie la démo de GPT-4. Quand il l'a vue, il a dit que c'était la meilleure démo qu'il ait vue après celle de Xerox PARC. En voyant le Codex précoce dans GitHub Copilot et en voyant les complétions de code fonctionner, c'est là que j'ai senti que je pouvais passer de 1 à 10. Le passage de 0 à 1 était controversé, mais le passage de 1 à 10 est ce qui a vraiment rendu toute cette ère possible. La portée collective de monétisation de GitHub Copilot, ChatGPT et Microsoft 365 Copilot constitue le plus grand ensemble de produits d'IA existants et cela nous a soutenus.
Et je pense que peu de gens savent que votre CTO Kevin Scott vit ici dans la Silicon Valley. Pour contextualiser, Microsoft avait raté la recherche et le mobile et avait failli rater le cloud. Vous étiez déterminé à avoir des yeux et des oreilles ici pour ne pas rater la prochaine grande révolution. Je suppose donc que Kevin a joué un rôle important derrière DeepSeek et OpenAI.
Oui, Kevin avait de la conviction. Je surveille toujours les personnes sceptiques qui changent d'avis car c'est un signal. Je suis curieux de savoir pourquoi elles changent et la conviction de Kevin que cela valait la peine d'être poursuivi est l'une des grandes choses qui a moteur de tout cela. Dans un certain sens, cela défie l'idée qu'il doit y avoir un algorithme pour craquer cela au lieu de simplement des lois d'échelle et injecter du calcul. Mais la conviction de Kevin a été la clé.
Valeur Stratégique et Accès à la Propriété Intellectuelle
Cet investissement vaut maintenant 130 milliards de dollars et pourrait en valoir un billion un jour comme le dit Sam. Mais cela sous-estime réellement la valeur du partenariat. Vous avez de la valeur dans le partage des revenus, le profit que vous tirez de l'engagement de calcul Azure et les ventes énormes provenant de la distribution exclusive de l'API. Dites-nous comment vous envisagez la valeur à travers ces domaines, en particulier comment cette exclusivité a attiré vers Azure des clients qui auraient pu être sur AWS.
Outre les parts au capital, l'élément stratégique qui demeure pour l'avenir est cette exclusivité de l'API sans état sur Azure. Cela aide à la fois OpenAI et nous car lorsqu'une entreprise essaie de construire une application, elle veut une API sans état. Elle veut pouvoir la combiner avec du calcul et du stockage et construire une charge de travail complète. C'est ainsi que nous irons sur le marché dans notre activité d'infrastructure. L'autre aspect de la capture de valeur est l'incorporation de cette propriété intellectuelle. Avoir un accès libre de redevances pendant encore sept ans nous donne beaucoup de flexibilité. Si vous êtes actionnaire de MSFT, considérez cela comme le fait d'avoir un modèle de pointe gratuitement que nous pouvons déployer dans GitHub, M365 ou notre Copilot grand public. Ensuite, nous ajoutons nos propres données et nous le post-entraînons. Nous nous sentons très bien quant à la création de valeur sur Azure du côté de l'infrastructure ainsi que dans nos domaines à haute valeur ajoutée comme la santé, le travail intellectuel et le codage.
Vous avez consolidé les pertes d'OpenAI. Vous venez de publier vos résultats hier. Pensez-vous que les investisseurs attribuent une valeur négative à cause des pertes, alors que je pense à tous ces bénéfices et à la valeur des fonds propres que vous possédez ? Pensez-vous que le marché comprend mal la valeur d'OpenAI en tant que composant de Microsoft ?
L'approche que Amy va adopter est la transparence totale. Si vous avez investi 13,5 milliards de dollars, vous pouvez perdre 13,5 milliards de dollars, mais vous ne pouvez pas perdre plus que cela. Mais la vraie histoire, ce sont toutes les autres choses qui se passent. Azure croîtrait-il si nous n'avions pas eu le partenariat avec OpenAI ? Le nombre de clients qui sont venus d'autres clouds pour la première fois est une chose dont nous avons bénéficié. Concernant Microsoft 365, nous avons trouvé la prochaine grande étape avec Copilot. C'est plus grand que n'importe quelle suite que nous ayons faite dans le travail d'information, domaine dans lequel nous sommes depuis des décennies. Nous nous sentons très confiants quant à l'opportunité de créer de la valeur pour nos actionnaires. Nous serons totalement transparents pour que les gens puissent voir au-delà des pertes.
Demande d'Infrastructure et Croissance d'Azure
Il y a un an, on lisait dans les titres que Microsoft réduisait ses investissements dans l'infrastructure d'IA. Amy a dit lors de l'appel hier soir que vous avez manqué de puissance et d'infrastructure pendant plusieurs trimestres et que la demande ne cesse d'augmenter. Avez-vous été trop conservateur, sachant ce que vous savez maintenant, et quelle est la feuille de route à partir d'ici ?
Ce que nous avons réalisé, c'est que le concept de construire une flotte fongible pour toutes les parties du cycle de vie de l'IA était essentiel. Vous voulez vous assurer de moderniser continuellement et de répartir la flotte partout. Parfois, vous devrez peut-être dire non à une certaine demande, y compris une partie de la demande d'OpenAI, parce que le déploiement doit avoir du sens pour l'infrastructure à long terme d'Azure. Cela nous donne de la flexibilité avec d'autres clients. Notre activité à haute marge est Copilot, Security Copilot et GitHub Copilot. Nous voulons nous assurer d'avoir une approche équilibrée des rendements. Certains investisseurs sont focalisés sur le chiffre de croissance d'Azure, mais nous avons un large portefeuille.
Azure a cru de 39 % au cours du trimestre sur un rythme annuel stupéfiant de 93 milliards de dollars. Mais Azure aurait-il pu croître de 41 ou 42 % si vous aviez eu plus de puissance de calcul à offrir ?
Absolument. Cela ne fait aucun doute. Donc l'enjeu interne est d'équilibrer ce que nous pensons être dans l'intérêt à long terme de nos actionnaires et aussi de bien servir nos clients. Nous voulons évidemment beaucoup d'OpenAI, mais nous voulons aussi d'autres clients. Nous façonnons la demande de manière à ce qu'elle corresponde à l'offre de façon optimale avec une vision à long terme.
Vous avez parlé hier soir de 400 milliards de dollars d'obligations de performance restantes. Vous avez dit que votre besoin de construire des capacités juste pour servir ce carnet de commandes est très élevé. À quel point ce carnet de commandes est-il diversifié et à quel point êtes-vous confiant que ces 400 milliards de dollars se transformeront en revenus au cours des deux prochaines années ?
Ces 400 milliards de dollars ont une durée courte de deux ans en moyenne. C'est l'une des raisons pour lesquelles nous engageons ces dépenses en capital avec la certitude que nous devons simplement résorber ce carnet de commandes. C'est assez diversifié, tant sur le 1P que sur le 3P. Notre propre demande est assez élevée pour nos produits directs. Nous voyons toutes les autres entreprises construire de réelles charges de travail qui se développent. Nous nous sentons très bien quant à la construction. Cela n'inclut pas la demande supplémentaire que nous commençons déjà à voir.
Compétition, Marges et Échelle du Cloud
Il y a beaucoup de nouveaux entrants dans cette course au déploiement du calcul. Normalement, on pense que cela va éroder les marges, mais vous avez réussi à construire tout cela tout en maintenant des marges opérationnelles saines chez Azure. Comment rivalisez-vous dans ce monde où les gens s'endettent et acceptent des marges plus faibles, tout en équilibrant profit et risque ?
La bonne nouvelle pour nous a été de concourir en tant qu'hyperscaler au quotidien. Il y a une concurrence féroce entre nous, Amazon et Google. À grande échelle, rien n'est une commodité. Nous devons faire en sorte que notre structure de coûts, l'efficacité de notre chaîne d'approvisionnement et nos efficacités logicielles continuent de se cumuler pour garantir les marges. Le partenariat avec OpenAI nous a apporté de l'échelle. Quand vous avez la plus grande charge de travail qui existe tournant sur votre cloud, vous apprenez plus vite ce que signifie opérer à grande échelle, et votre structure de coûts baisse plus rapidement. Cela nous rend compétitifs sur les prix. Notre allocation de capital est destinée au cloud, qu'il s'agisse de Xbox Cloud Gaming, de Microsoft 365 ou d'Azure. C'est une seule dépense en capital. La moyenne pondérée doit correspondre aux marges opérationnelles dont nous avons besoin en tant qu'entreprise. Nous sommes dans ces différentes activités uniquement pour démultiplier les rendements sur l'investissement dans le cloud et l'IA.
J'adore cette phrase : rien n'est une commodité à grande échelle. On a beaucoup écrit sur les revenus circulaires, notamment les crédits Azure de Microsoft à OpenAI qui ont été comptabilisés comme revenus. Vous inquiétez-vous de la durabilité des revenus de l'IA que nous voyons dans le monde quand vous pensez à ces accords qui se chevauchent ?
Notre investissement n'a pas été comptabilisé comme revenu. C'est la raison pour laquelle nous avons le pourcentage de capital. Les revenus d'Azure étaient les revenus de consommation de ChatGPT et des API qu'ils ont lancées. Le financement par les fournisseurs a toujours existé, mais nous n'avons pas eu à faire cela. Nous avons investi dans OpenAI et avons obtenu une participation au capital pour du calcul, ou nous leur avons vendu du calcul à un excellent prix pour les aider à démarrer. La circularité sera finalement testée par la demande. Tant qu'il y aura une demande pour le produit final, cela fonctionnera. Jusqu'à présent, cela a été le cas.
L'Évolution du SaaS et l'Ère des Agents
Je veux réfléchir aux logiciels et aux agents. L'année dernière, vous avez fait un peu de bruit en disant qu'une grande partie des logiciels d'application n'était qu'une fine couche reposant sur une base de données CRUD. Comment l'IA affecte-t-elle aujourd'hui les taux de croissance de vos produits logiciels de base ? Que faites-vous pour vous assurer que le logiciel n'est pas perturbé mais plutôt suralimenté par l'IA ?
L'architecture des applications SaaS change parce que le niveau des agents remplace l'ancien niveau de logique métier. La façon dont nous construisions les applications SaaS par le passé consistait à avoir les données, le niveau logique et l'interface utilisateur étroitement couplés. L'IA exige que vous puissiez les découpler. L'ingénierie du contexte va être très importante. Prenez Office 365 ; c'est un faible ARPU, une utilisation élevée. Les gens l'utilisent tout le temps, créant beaucoup de données qui vont dans le graphe. Cela me donne une réelle confiance dans le fait que je peux répondre à ce niveau d'IA en exposant toutes mes données. Grâce à l'IA, nous voyons des sommets historiques en termes de données allant dans le graphe ou le dépôt. Plus de code est généré, plus de PowerPoint, plus de conversations de chat. Tout cela est nécessaire pour l'ancrage. La prochaine génération d'applications SaaS devra structurer cela et utiliser l'IA comme un accélérateur. Quiconque peut structurer cela puis utiliser cette IA comme accélérateur en bénéficiera. M365 Copilot est plus cher que n'importe quoi d'autre que nous vendons et il est déployé plus rapidement. Le codage n'est plus un outil, c'est davantage un substitut aux salaires.
Jusqu'à très récemment, les clouds faisaient tourner principalement des logiciels précompilés. La majeure partie de la valeur revenait à la couche logicielle. Mais à l'avenir, ces interfaces n'auront de valeur que si elles sont intelligentes. Le logiciel doit pouvoir réfléchir et agir. Dans ce monde, il semble qu'une plus grande partie de la valeur reviendra à l'usine d'IA et aux modèles. Expliquez-moi pourquoi ce raisonnement est faux.
Il y a deux choses nécessaires pour stimuler la valeur de l'IA. L'une est l'usine à jetons (tokens). L'hyperscaler détient le savoir-faire pour faire fonctionner cela avec une utilisation maximale et des usines à jetons. Vous voulez faire tourner une flotte hétérogène optimisée pour le débit de jetons et l'efficacité. La chose suivante est ce que j'appelle l'usine à agents. Une application SaaS dans le monde moderne vise un résultat commercial. Elle sait comment utiliser les jetons le plus efficacement possible pour créer de la valeur commerciale. GitHub Copilot en est un excellent exemple. Il choisit, en fonction de l'invite, quel modèle utiliser. Les nouvelles applications SaaS sont des applications intelligentes optimisées pour un ensemble d'évaluations et de résultats. Il y a un réel coût marginal au logiciel cette fois-ci et les modèles économiques doivent s'adapter. Vous devez effectuer ces optimisations pour l'usine d'agents et l'usine de jetons séparément.
Économie de la Recherche vs Économie du Chat
Vous avez une grosse activité de recherche et il s'avère que c'est l'une des activités les plus rentables car le coût pour effectuer une recherche est une fraction de centime. Mais la requête comparable aujourd'hui quand on utilise un chatbot semble différente. Arriverez-vous un jour à un point où l'interaction par chat aura une économie unitaire aussi rentable que la recherche ?
La recherche était magique en termes de son unité publicitaire et de ses coûts car l'index était un coût fixe que l'on pouvait amortir. Avec le chat, vous devez brûler beaucoup plus de cycles de GPU. L'économie est différente. Une grande partie de l'économie précoce du chat a reposé sur le modèle freemium et l'abonnement. Nous n'avons pas encore découvert s'il s'agit de commerce agentique ou quelle que soit l'unité publicitaire. Mais j'utilise la recherche pour des requêtes de navigation spécifiques. Je l'utilisais pour le commerce, mais cela se déplace vers Copilot. Il va y avoir une remise en question de l'économie de la consommation dans cette catégorie.
Quand on déplace l'économie de la recherche et qu'elle converge vers quelque chose qui ressemble à un agent personnel, cela pourrait finir par être beaucoup plus important en termes de valeur totale livrée, mais l'économie unitaire est différente. Pendant ces perturbations, il faut avoir le sens de l'économie de la catégorie. Dans l'espace grand public, il y a une quantité finie de temps. Si la monétisation repose sur l'interaction humaine, le côté agentique pour le consommateur pourrait être différent. Dans l'entreprise, ce n'est pas un marché où le gagnant rafle tout et c'est plus favorable à l'interaction agentique. La réalité est que les agents sont les nouveaux sièges. La monétisation en entreprise est beaucoup plus claire, la monétisation grand public est un peu plus floue.
Productivité, Emploi et Transformation du Travail
Nous avons vu une vague de licenciements récemment. Pensez-vous qu'une partie de cela soit due à l'IA ? Pensez-vous que l'IA va être un créateur net d'emplois ? Voyez-vous cela comme un aspect positif à long terme pour la productivité de Microsoft ? J'appelle cela l'âge d'or de l'expansion des marges.
Je suis fermement convaincu que la courbe de productivité va s'infléchir. Il va y avoir plus d'autonomie pour vous au niveau des tâches pour mener à bien un travail grâce à la puissance de ces outils entre vos mains. Il y a une nouvelle façon d'apprendre à travailler avec des agents. De la même manière que les feuilles de calcul Excel ont changé notre façon de faire des prévisions, maintenant toute planification ou exécution commence par l'IA. Un nouvel artefact est créé et un nouveau flux de travail est créé. C'est de là que viennent les gains de productivité. Les organisations qui sauront maîtriser cela seront les plus grands bénéficiaires.
Combien d'employés aurez-vous de plus dans cinq ans ? Si vous augmentez les revenus de deux fois, aurez-vous deux fois plus d'employés ?
J'en vois des exemples chaque jour. Notre responsable des opérations réseau devait gérer la fibre pour un centre de données. C'est un actif réel traitant avec 400 opérateurs de fibre différents. Elle s'est construit toute une série d'agents pour automatiser le pipeline DevOps. C'est un exemple d'une équipe avec des outils d'IA capable d'obtenir plus de productivité. Nous augmenterons les effectifs, mais les effectifs que nous augmenterons le seront avec beaucoup plus de levier que les effectifs que nous avions avant l'IA. On arrive à un point où tout le monde apprend à repenser sa façon de travailler. C'est le processus de désapprentissage et d'apprentissage qui prendra environ l'année prochaine. Ensuite, la croissance des effectifs se fera avec un levier maximal.
Réindustrialisation de l'Amérique et Conclusion
Je pense que nous sommes à l'aube d'une croissance incroyable de la productivité économique. La plupart des entreprises n'en sont même pas à la première étape de la refonte de ces flux de travail. Au cours des deux ou trois prochaines années, c'est là que beaucoup de gains vont commencer à apparaître. Pour ces entreprises, elles pourront simplement faire croître leurs coûts moins vite que leurs revenus.
Dans le développement de logiciels, davantage d'ingénieurs logiciels contribueront à notre société car le carnet de commandes informatique dans n'importe quelle organisation est vaste. Les agents logiciels vont nous aider à nous attaquer à ce carnet de commandes informatique. Les niveaux d'abstraction auxquels le travail intellectuel se produit vont changer. Nous nous adapterons à ce flux de travail. Cela s'ajustera ensuite en termes de demande pour les produits de cette industrie.
Je vais terminer sur la réindustrialisation de l'Amérique. Si l'on additionne les 4 billions de dollars de CapEx que les grandes entreprises technologiques américaines investissent au cours des prochaines années, c'est environ 10 fois la taille du projet Manhattan. Que voyez-vous concernant cette réindustrialisation et quel est votre niveau d'optimisme pour les années à venir ?
Je suis très optimiste. Ce qui entre dans la construction d'un centre de données et la chaîne d'approvisionnement locale constitue la réindustrialisation des États-Unis. Il y a beaucoup de choses que nous allons vouloir commencer à construire. Cela ne signifie pas que nous n'aurons pas d'accords commerciaux qui font sens pour les États-Unis, mais la réindustrialisation pour la nouvelle économie est très importante pour nous. Il est important de reconnaître que nous, en tant qu'hyperscalers des États-Unis, investissons également dans le monde entier. Les États-Unis sont le plus gros investisseur d'usines à jetons au monde. Non seulement nous attirons des capitaux étrangers pour investir dans notre pays, mais nous aidons ailleurs avec nos investissements en capital, apportant la meilleure technologie américaine au monde. Ces deux aspects sont de bon augure pour les États-Unis à long terme.
Je vous suis reconnaissant pour votre leadership. Sam aide à mener la charge chez OpenAI pour l'Amérique. Je vois un niveau de coordination entre Washington et la Silicon Valley, entre la Big Tech et la réindustrialisation de l'Amérique, qui me donne un espoir incroyable. Merci d'avoir pris le temps. Nous sommes de grands fans. Merci, Satya.
Merci beaucoup, Brad. Merci.