L'avenir de l'IA et d'Anthropic : Entretien avec Dario Amodei
3 décembre 2025
Intelligence Artificielle
Introduction et parcours
Veuillez accueillir Andrew Ross Sorkin et son invité, PDG et cofondateur d'Anthropic, Dario Amodei.
Bonjour à tous. J'espère que vous avez tous passé un excellent déjeuner. Nous avons un après-midi chargé qui commence avec Dario Amodei ici présent. Il est l'une des personnes les plus influentes dans le monde de l'intelligence artificielle. Il est le cofondateur et PDG d'Anthropic, bien sûr, connue pour son modèle Claude. C'est l'une des entreprises technologiques à la croissance la plus rapide de l'histoire et elle est soutenue de manière unique par les trois géants de la technologie : Amazon, Microsoft et Google. C'est nouveau, du moins pour l'un d'entre eux. Il travaille dans ce domaine depuis plus longtemps que la plupart des gens. Il a travaillé chez Baidu, puis Google, et a été l'un des premiers employés d'OpenAI, où il a dirigé le développement de ChatGPT-2 et 3. La raison pour laquelle nous avons voulu lui parler cette année plus que tout, c'est parce qu'il a été sans doute la personne la plus franche et la plus directe au sujet de l'IA lorsqu'il s'agit de sa réflexion sur les emplois, les pertes d'emplois, la vente de puces à la Chine, la politique dans notre pays et la direction que prend tout cela. Bienvenue à vous. Merci d'être ici.
Merci de me recevoir.
Nous avons beaucoup de sujets à aborder, notamment la question de savoir si nous sommes dans une bulle de l'IA. Je vous promets que nous y viendrons. Je commencerai par ceci. J'ai mentionné que vous étiez chercheur chez Baidu en 2014. Si je m'étais assis avec vous à l'époque et que je vous avais dit que nous serions ensemble en 2025 pour parler d'IA, quelle aurait été votre attente par rapport à ce qui se serait passé ?
Évolution de l'IA depuis 2014
Je vais vous dire ce qui me surprend et ce qui ne me surprend pas. Je ne suis pas tellement surpris par les impacts économiques de la technologie ou la valeur qu'elle crée. Le fait que je passe devant n'importe quel panneau publicitaire à New York et que tout tourne avant tout autour de l'IA n'est pas surprenant.
Vous saviez en 2014 que cela serait concret aujourd'hui ?
Sous une forme ou une autre, cela serait concret, ce serait central pour l'économie, la sécurité nationale et la recherche scientifique. Je ne pense pas avoir imaginé que je dirigerais l'une des entreprises du secteur. Cela m'aurait beaucoup surpris. Je ne considérais pas cela comme mon rôle à l'époque. La manière exacte dont les choses se sont passées, tout l'argot étrange que nous avons développé autour des modèles de langage, et toute la financiarisation de tout cela ont du sens si l'on pense aux implications des modèles devenant aussi intelligents et puissants qu'ils le sont et s'étendant de la manière dont moi et certains de mes collègues l'avions prédit. Mais je ne pense pas que je l'aurais déduit à partir de principes fondamentaux.
Bulle technologique et réalité économique
Allons directement à la question que j'avais dit que je poserais au début, car c'est peut-être le moment, en pensant à la direction que cela prend. Je ne pensais pas que vous diriez que vous pensiez que c'est là que nous en serions en 2025, car je pense que même à l'époque, les gens pensaient que le chemin serait beaucoup plus long. Si vous avez raison, regardez-vous la puissance économique investie dans cette industrie en ce moment ? Cela représente potentiellement presque toute la croissance du PIB des États-Unis actuellement, littéralement. Sommes-nous dans une sorte de bulle ? Sommes-nous en train de trop dépenser ? Est-ce que les calculs de tout cela sont logiques ?
C'est vraiment compliqué, et je veux séparer le côté technologique du côté économique. Sur le plan technologique, je me sens confiant. Je suis l'une des personnes les plus optimistes, et je pense que les chiffres concordent. Sur le plan économique, je crains que même si la technologie est puissante et tient ses promesses, certains acteurs de l'écosystème pourraient commettre une erreur de timing, ce qui entraînerait des conséquences fâcheuses. Du côté technologique, la raison pour laquelle je ne suis pas surpris par la technologie pure est que moi-même et certains de ceux qui sont devenus mes cofondateurs avons été les premiers à documenter les lois d'échelle de l'IA. Vous mettez plus de puissance de calcul et plus de données dans l'IA, et avec de petites modifications, comme les modèles de raisonnement et le calcul en temps de test, ils s'améliorent. J'observe cette tendance depuis 12 ans, depuis que j'ai rejoint le domaine. Le plus frappant est qu'en entraînant ces modèles de cette manière très simple, ils s'améliorent dans chaque tâche possible. Ils s'améliorent en codage, en sciences, en biomédecine, en droit, en finance, en matériaux et en fabrication. C'est une liste de toutes les sources de valeur de notre économie. Anthropic travaille tellement du côté des entreprises que nous sommes un bon baromètre. Nous regardons notre chiffre d'affaires. Il a été multiplié par 10 chaque année au cours des trois dernières années. De 0 à 100 millions en 2023, de 100 millions à un milliard en 2024, et il se situera entre 8 et 10 milliards à la fin de cette année. La technologie progresse et la valeur économique suit. Cette tendance va ralentir, mais elle restera très rapide. Je suis convaincu qu'à terme, la valeur économique sera là.
Gestion des risques et investissements massifs
Mais il y a des entreprises qui dépensent 100 milliards de dollars par an, voire plus. Vous allez en dépenser 50. Regardez ce que Sam Altman prévoit de dépenser. Ce sont des chiffres extraordinaires. Y a-t-il un moyen concret de justifier cela ou est-ce plutôt un pressentiment à ce stade ?
Cela nous amène à la deuxième partie. Je vais décrire de la manière la plus transparente possible ce que je considère comme un véritable dilemme découlant de l'incertitude quant à la rapidité de la croissance de la valeur économique et aux délais de construction des centres de données qui la soutiennent. Il y a une véritable incertitude et un véritable dilemme, que nous essayons de gérer en tant qu'entreprise de la manière la plus responsable possible. Ensuite, je pense qu'il y a des acteurs qui font du "YOLO", qui poussent le curseur du risque trop loin, et cela m'inquiète beaucoup.
Qui fait du "YOLO" ?
C'est une question à laquelle je ne vais pas répondre. Sur la première...
On y reviendra.
Mettez-vous à la place d'Anthropic. Mettez-vous à ma place. Vous avez vu cette courbe de revenus qui est multipliée par 10 par an pendant trois ans. Que va-t-il se passer l'année prochaine ? Si j'extrapole le modèle, on passerait de 10 à 100 milliards. Je n'y crois pas à cette échelle, même si c'est arrivé ces trois dernières années. Mais c'est l'une des limites extrêmes du possible. Si j'essaie de le faire de manière ascendante, ce sera peut-être 20 ou 30 milliards. Il y a ce que j'appelle en interne ce cône d'incertitude où je ne sais pas si, dans un an, ce sera 20 milliards ou 50 milliards. J'essaie de prévoir la fourchette basse, mais c'est très déconcertant. La construction des centres de données a un long délai d'un an ou deux. Je dois décider maintenant de la quantité de puissance de calcul que je dois acheter pour servir les modèles début 2027. Il y a deux dangers couplés. L'un est que si je n'achète pas assez de calcul, je ne pourrai pas servir tous les clients et je devrai les envoyer chez mes concurrents. Si j'achète trop de calcul, je risque de ne pas avoir assez de revenus pour le payer et, dans le cas extrême, il y a un risque de faillite. La marge de manœuvre dans ce cône est déterminée par mes marges. Si j'ai des marges de 80 %, je peux acheter pour 20 milliards de dollars de calcul et cela pourrait servir 100 milliards de dollars de revenus. Mais comme le cône est si large, il est difficile d'éviter de faire une erreur. Actuellement, nous sommes une entreprise relativement responsable. Je pense que parce que nous nous concentrons sur les entreprises, nous avons un meilleur modèle économique, de meilleures marges, et nous sommes responsables. Mais si vous avez un modèle économique différent, comme un modèle grand public, et que vous êtes une personne qui, par tempérament, veut faire du "YOLO" ou aime simplement les gros chiffres, alors vous pourriez pousser ce curseur trop loin. Il existe un risque sous-jacent réel lorsque le calendrier de la valeur économique est incertain. Comme les entreprises sont en concurrence les unes avec les autres et que nous devons rivaliser avec des adversaires autoritaires, il y a beaucoup de pression pour faire avancer les choses. Je pense qu'il y a une part de risque irréductible ici, mais en même temps, je pense que certains acteurs ne gèrent pas bien ce risque.
Rentabilité et modèles de croissance
Laissez-moi vous poser une question à ce sujet. Vous avez dit que vous atteindriez le seuil de rentabilité d'ici 2028, même avec les plans de dépenses. Sam Altman dit qu'il le fera d'ici 2030. Il devrait passer d'une perte de 74 milliards de dollars en deux ans à la rentabilité deux ans plus tard. Est-ce que cela vous semble logique ?
Je ne connais pas les finances internes des autres entreprises. Je reviendrai simplement à notre propre calcul et au cône d'incertitude où nous disons essentiellement que nous voulons acheter suffisamment de puissance de calcul pour être confiants même dans un scénario de faible percentile. Il y a une extrémité de la courbe où les choses se passent si mal que nous ne pouvons pas payer ; c'est toujours un risque extrême. Mais nous essayons de bien gérer ce risque tout en achetant une quantité de calcul qui nous permet d'être compétitifs. Nous sommes très efficaces dans l'entraînement et l'inférence, nous avons de bonnes marges, et je pense que nous pouvons gérer cela. Les chances sont de notre côté.
Financement par les fournisseurs et infrastructure
Que devons-nous penser de ce que les gens décrivent maintenant comme des accords circulaires ? Autrefois, nous appelions cela le financement par le fournisseur, mais dans ce contexte, vous avez une situation où NVIDIA a effectivement pris des participations dans des entreprises et ces entreprises vont acheter des puces NVIDIA.
Oui. Nous avons conclu certains de ces accords, pas à la même échelle que d'autres acteurs. Je peux vous expliquer une version stylisée de ce à quoi ressemblent souvent ces accords et pourquoi ils peuvent avoir du sens. Si vous voulez acheter un gigawatt de puissance de calcul, tout construire coûte environ 50 milliards de dollars de dépenses en capital. Si l'on considère une durée de vie utile de cinq ans, cela représente 10 milliards de dollars par an. Si vous êtes une entreprise qui génère 8 à 10 milliards de dollars de revenus et qui est en pleine croissance, vous devez prendre la décision maintenant, mais vous n'avez pas 50 milliards de dollars sur vous. Un accord que vous pouvez conclure avec un acteur important est qu'il investisse 10 milliards de dollars pour vous permettre de payer la première année, puis vous payez au fur et à mesure car, au vu de la croissance, ce n'est pas un pari fou. Nous sommes déjà presque à 10 milliards de dollars de revenus par an. Donc, il faut un an pour construire le centre de données et il est financé pour un an. Je ne pense pas qu'il y ait quoi que ce soit de mal à cela en principe. Si vous commencez à accumuler ces sommes jusqu'à des montants énormes où vous devez gagner 200 milliards de dollars par an d'ici 2027, vous pouvez vous surexposer. Tout est une question de taille.
Obsolescence du matériel et efficacité
L'une des questions clés derrière les calculs est le calendrier d'amortissement de ces puces. Lorsque vous achetez une nouvelle puce, va-t-elle fonctionner efficacement pendant trois ou quatre ans ou pendant huit ou dix ans ? Selon l'endroit où les calculs se situent réellement, tout cela tient la route ou non. Quel est selon vous le calendrier ?
De notre point de vue, nous faisons des hypothèses très prudentes ici. Le problème n'est pas la durée de vie des puces ; les puces continuent de fonctionner pendant longtemps. Le problème, c'est que de nouvelles puces sortent, plus rapides et moins chères. Vous pourriez en avoir besoin si vos concurrents les possèdent, et la valeur des anciennes puces diminue quelque peu. Cela peut arriver un an après l'achat des puces car plusieurs entreprises sortent de nouvelles puces. Nous tenons compte du fait que les anciennes puces auront moins de valeur avec le temps, et we supposons une poursuite agressive de la courbe d'efficacité des puces. Nous pensons que nous nous en sortirons dans presque tous les cas. Je ne peux pas parler pour les autres entreprises, mais je pourrais imaginer que certains autres acteurs fassent des hypothèses très orientées vers l'optimisme.
Concurrence et spécialisation B2B
Juste pour que nous soyons clairs, il n'y a que deux d'entre vous qui ne sont pas rattachés à l'un des trois grands.
Je ne sais pas de qui vous parlez. Je n'en ai aucune idée.
Laissez-moi vous poser cette question sur les modèles eux-mêmes. L'une des choses qui se sont produites la semaine dernière, c'est qu'il y a eu un effondrement complet dans la Valley à propos de ce qui se passe. Le nouveau modèle de Sundar Pichai a suscité beaucoup d'enthousiasme pour ce qu'il fait chez Google. Il y a aussi une note de Sam Altman parlant d'un "code rouge". Comment classeriez-vous ces modèles et quelle importance leur accordez-vous à un moment donné ?
C'est l'un des cas où je suis simplement très reconnaissant qu'Anthropic emprunte une voie différente. D'une part, je pense...
Cette voie étant celle de l'entreprise, faire...
Cette voie étant celle de l'entreprise. Les deux acteurs que vous avez mentionnés sont principalement axés sur le grand public. Ils essaient de faire un peu de travail en entreprise, mais ils se battent sur le marché grand public. C'est la raison du "code rouge" et des combats intenses. Google a un monopole sur la recherche qu'il essaie de défendre, et le cœur de ce que fait OpenAI est dans le grand public. Pour les deux, servir les entreprises est secondaire. Ce que nous avons constaté, c'est qu'au fil du temps, nous avons de plus en plus optimisé nos modèles pour les besoins des entreprises. Le codage est ce qui a progressé le plus vite, mais nous commençons à aller au-delà, vers la finance, le biomédical, la vente au détail, l'énergie et la fabrication. Ces guerres de modèles existent, mais nos modèles sont vraiment bons. Opus 4.5, que nous avons sorti la semaine dernière, est sans conteste le meilleur modèle pour le codage. Il est important que nous continuions à avoir cette supériorité, mais nous allons dans une direction différente. Nous avons une position privilégiée où nous pouvons simplement continuer à croître et à développer nos modèles et nous n'avons pas besoin de faire de "code rouge".
Mais quel est le rempart autour de l'une de ces entreprises ? Si Google réussit autant qu'il le souhaite, ou OpenAI ou Meta, ils pensent qu'un jour, si nous parvenons à l'AGI, tous ces modèles pourront faire ce que n'importe lequel d'entre eux fait. Y a-t-il un rempart ? Est-ce la mémoire persistante ? J'utilise ChatGPT pour certaines choses et il me connaît maintenant. Or pensez-vous que les gens passent simplement d'un modèle à l'autre selon celui qui a la dernière nouveauté ?
Je ne peux parler que du côté des entreprises. Il est surprenant de voir à quel point la personnalité et les capacités des modèles sont différentes si vous construisez pour les entreprises par rapport aux consommateurs. Vous vous concentrez moins sur l'engagement et plus sur le codage, les activités intellectuelles et la capacité scientifique. Je ne pense pas qu'il soit vrai que si nous parvenions à l'AGI, ils convergeraient tous vers le même point. Dans cet auditoire, personne n'est la copie d'un autre parce que nous sommes tous spécialisés. La spécialisation existe parallèlement à l'intelligence générale. Les entreprises nouent des relations avec vous et s'habituent à utiliser certains modèles. Même notre activité API est fidélisante. Les entreprises ont du mal à passer d'un modèle à un autre parce qu'elles ont des clients en aval qui aiment le modèle actuel. Il est en fait assez difficile de changer. Il y a vraiment ici une activité durable.
Le chemin vers l'AGI
Une question rapide sur l'AGI : pensez-vous que la manière dont les transformeurs fonctionnent aujourd'hui et la puissance de calcul seule permettront d'arriver à l'AGI, ou pensez-vous qu'il y a un autre ingrédient qui doit être inclus pour que ces systèmes pensent réellement par eux-mêmes ?
Je pense que le passage à l'échelle nous y mènera. De temps en temps, il y aura une petite modification, juste quelque chose qui se passe dans le laboratoire. J'observe ces lois d'échelle depuis 10 ans.
Quel est votre calendrier maintenant ?
Il n'y a pas de point particulier. Je n'ai jamais aimé les termes AGI ou superintelligence artificielle parce que je ne sais pas ce qu'ils veulent dire. Il s'agit simplement d'une exponentielle. Tout comme avec la loi de Moore, les modèles vont devenir de plus en plus capables dans tous les domaines. Tous les quelques mois, nous sortons un nouveau modèle qui s'améliore en codage et en science. Aujourd'hui, des modèles remportent régulièrement des olympiades de mathématiques au lycée et passent au niveau universitaire. Pour la première fois, des employés d'Anthropic disent qu'ils n'ouvrent plus d'éditeur pour écrire du code ; ils laissent Claude écrire le premier jet. Le rythme va simplement se poursuivre. Les modèles vont devenir plus capables intellectuellement et le chiffre d'affaires va continuer à ajouter des zéros.
Géopolitique et sécurité nationale
Laissez-moi poser quelques questions de politique. Vous avez été direct sur l'idée que nous ne devrions pas vendre les puces NVIDIA les plus avancées à la Chine. Jensen Huang n'était pas très content de vous lorsque vous avez fait ces commentaires. Avez-vous un nouvel avis là-dessus ?
Mon point de vue n'a pas changé. J'ai un immense respect pour Jensen et NVIDIA, mais c'est une question de politique sur la meilleure façon de défendre notre sécurité nationale. Si nous revenons à ma vision de modèles devenant plus intelligents, ils finiront par ressembler à un pays de génies dans un centre de données. Une fois que nous en serons là, réfléchissez à ce que cela pourrait faire si c'est implanté dans un pays autoritaire. Je crains qu'ils ne puissent nous surpasser et avoir un État de surveillance parfait. J'ai toujours estimé que nous devions avoir l'avantage ici et qu'il s'agissait d'une question de sécurité nationale. Je pense que nous construisons une capacité unique qui a des implications uniques en matière de sécurité nationale et les démocraties doivent y arriver en premier. C'est un impératif. Si nous vendons ces puces à la Chine, il est plus probable qu'ils y arrivent en premier. C'est du bon sens.
Surveillance et démocratie
Pensez-vous que cela puisse arriver ici ? Nous avons reçu Alex Karp plus tôt et il y a eu beaucoup d'inquiétudes concernant la surveillance dans une démocratie. Il y a eu une période où vous avez qualifié le président de seigneur de guerre féodal. Que pensez-vous de l'Amérique d'aujourd'hui et de l'idée que l'IA et la surveillance puissent converger ?
La tendance à ramener cela à des personnalités spécifiques n'est pas utile. Nous devrions réfléchir au niveau politique et avoir des principes. Le principe que je donnerais est que cela peut arriver n'importe où. Nous devrions nous inquiéter de la concentration du pouvoir dans les démocraties et nous assurer que la technologie est gouvernée d'une manière qui permet aux gens de participer et leur donne des droits fondamentaux. Je pense que nous devrions utiliser ces modèles de manière agressive pour la sécurité nationale de toutes les manières possibles, sauf celles qui nous feraient ressembler davantage à nos adversaires autoritaires. Nous devons les battre, mais nous ne devons pas devenir comme eux.
Réglementation et politique
Vous avez exprimé vos inquiétudes concernant la question des puces, mais aussi sur ce qui pourrait arriver aux emplois et à la réglementation de cette technologie. David Sacks dit qu'Anthropic mène une stratégie sophistiquée de capture réglementaire basée sur l'alarmisme.
Encore une fois, je ne pense pas que cela doive porter sur des individus spécifiques. Il s'agit de politique. J'ai écrit des articles sur l'IA depuis 2016, avant même d'avoir une entreprise. Presque toutes les réglementations sur l'IA que nous avons soutenues prévoient des exemptions pour les petits acteurs. Le principal projet de loi sur l'IA que nous avons soutenu, le SB 53, ne s'applique même pas aux startups dont le chiffre d'affaires est inférieur à 500 millions de dollars. Nous avons été très prudents à ce sujet. Les gens devraient se concentrer sur la politique. Ces accusations ne correspondent pas à la réalité des projets de loi que nous avons réellement soutenus.
Impact sur l'emploi et restructuration sociale
Mais il y a ces deux mondes maintenant. Andreessen Horowitz et d'autres ont un super PAC, et vous en construisez un autre pour aborder la réglementation de manière complètement différente. Que voyez-vous qu'ils ne voient pas ?
Je crains que certains voient cette technologie comme analogue à l'internet, où le marché trouvera la solution. Ceux qui sont les plus proches de la construction de l'IA ne le ressentent pas ainsi. Si vous interrogez les chercheurs actuels, ils sont enthousiastes mais aussi inquiets des risques pour la sécurité nationale, de l'alignement et des impacts économiques. Par exemple, l'idée d'un moratoire sur toute réglementation étatique a échoué parce que le citoyen moyen comprend qu'il s'agit d'une technologie puissante. Je suis optimiste quant aux avantages ; j'ai écrit un essai où je disais que l'IA pourrait prolonger la durée de vie humaine à 150 ans et porter la croissance économique à 10 % par an. Si la richesse se concentre, il y aura un gros gâteau que le gouvernement devra aider à distribuer. À long terme, la structure d'une société dotée d'une IA puissante devra être différente. John Maynard Keynes suggérait que ses petits-enfants n'auraient à travailler que 15 heures par semaine. Nous pouvons avoir un monde où le travail pour beaucoup de gens n'a plus besoin d'avoir la place centrale qu'il occupe. Je pense que la société doit se restructurer et trouver comment fonctionner à l'ère post-AGI.
Voici alors la question sur le côté négatif. L'un des inconvénients, ce sont les emplois. Je veux savoir ce que vous pensez qu'il faudrait faire à ce sujet.
Je mets en garde contre ces choses parce que la mise en garde est la première étape vers leur résolution. J'y ai réfléchi au sein d'Anthropic, où Claude commence à écrire une grande partie de notre code. Certaines solutions peuvent venir du secteur privé. Chaque client peut accroître son efficacité en confiant aux IA ce que les humains faisaient auparavant, comme le traitement des demandes d'indemnisation d'assurance. Mais on peut aussi créer beaucoup de nouvelle valeur. Dans les cas où l'IA effectue 90 % du travail, les humains peuvent avoir un effet de levier 10 fois supérieur. Si nous encourageons les entreprises à créer plus de valeur, peut-être que plus d'emplois pourront être créés qu'il n'en sera perdu.
C'est le niveau un. Le niveau deux est l'implication du gouvernement. Je ne vois pas les programmes de reconversion comme une panacée, mais nous allons en avoir besoin. Sur le plan fiscal, le gouvernement va devoir intervenir. Notre rapport indique que les modèles actuels pourraient augmenter la productivité de 1,6 % par an. C'est presque un doublement de la productivité. Nous allons atteindre 5 % ou 10 % par an. Si la richesse se concentre, il y a vraiment un gros gâteau. Le niveau trois est la structure à long terme de la société. Nous pourrions avoir un monde où le travail n'a plus besoin d'être central et où les gens trouvent un sens ailleurs. Je ne suggère rien de dirigiste, mais la société doit se restructurer pour fonctionner à l'ère post-AGI. Nous allons devoir faire ces trois choses au fil des ans.
Conclusion
Dario, j'espère que vous reviendrez pour que nous puissions poursuivre la discussion au fur et à mesure que nous découvrons la suite. Je tiens à vous remercier pour cette conversation fantastique.
Merci, Andrew. Merci beaucoup.