L'ascension d'Anthropic et l'avenir de l'IA : Entretien avec Dario Amodei
6 août 2025
Artificial Intelligence
Introduction et co-fondation en famille
Je suis ravi d'apprendre enfin ce que c'est que de créer une entreprise avec son frère ou sa sœur ?
Je ne sais pas pourquoi tu me poses cette question parce que tu le sais.
Les modèles veulent apprendre. Les modèles veulent connaître un succès extraordinaire sur le marché.
Oui, c'est vrai. En plus de devoir apprendre cette impulsion d'apprentissage, les modèles ont cette impulsion capitaliste.
Parfois, les gens pensent au secteur des API et se disent : oh, ce n'est pas très collant ou ça va devenir une commodité, mais...
J'adore le secteur des API. J'adore le secteur des API.
Non, exactement, exactement.
Je pense que nous allons être dans un monde où les modèles feront des erreurs beaucoup moins souvent que les humains, mais ce seront des erreurs plus étranges.
Il faut donc inventer l'élocution pâteuse pour les LLM.
Et c'est correctement versé.
Oh, wow.
Dario est le PDG d'Anthropic, l'un des laboratoires d'IA de pointe d'aujourd'hui. Il est passé de chercheur en IA il y a quelques années à peine à la tête de l'une des entreprises à la croissance la plus rapide au monde.
Santé.
Santé.
Alors, je suis ravi de parler un peu des activités d'Anthropic. Vous avez étudié la physique et les neurosciences computationnelles.
Oui.
Vous avez ensuite travaillé chez Baidu, puis chez Google Brain, puis chez OpenAI, et vous avez ensuite fondé Anthropic.
Oui.
Et nous reviendrons sur les activités d'Anthropic, mais je suis ravi d'apprendre enfin ce que c'est que de créer une entreprise avec son frère ou sa sœur ?
Je pourrais vous poser la même question, mais c'est un peu comme s'il y avait deux choses à faire quand on dirige une entreprise. Il faut exécuter sur le plan opérationnel et avoir une bonne stratégie et voir la chose la plus importante ou celle que personne d'autre ne voit. Mon travail est donc le second et celui de Daniela est le premier. Et nous sommes tous les deux bons dans ce que nous faisons, et je pense que cela nous a permis à chacun de passer la majeure partie de notre temps sur ce pour quoi nous sommes les meilleurs.
On peut supposer qu'il y a aussi une question de confiance, alors que les équipes de cofondateurs en général dans la tech, et dans l'IA également, sont des binômes instables, et le simple fait d'avoir quelqu'un avec qui on a une relation de confiance profonde et de longue date...
Oui, où vous avez une confiance totale et complète. Je pense qu'au-delà de ça, Anthropic a sept cofondateurs. Quand nous l'avons fondé, le conseil de pratiquement tout le monde était que sept cofondateurs est un désastre, l'entreprise s'effondrera avant même que vous ne le sachiez, tout le monde se battra. Il y avait encore plus de négativité sur ma décision de donner à chacun le même montant de capital. Mais ce que nous avons découvert, et je pense que c'était parce qu'évidemment Daniela et moi sommes frères et sœurs, mais aussi parce que nous tous les sept, certains d'entre nous se connaissaient depuis longtemps ou avaient l'habitude de travailler ensemble par le passé, pas seulement de se connaître. Et je pense que cela nous a vraiment permis d'être toujours sur la même longueur d'onde. Et je pense que surtout à mesure que l'entreprise grandit, l'idée d'avoir sept personnes qui portent réellement les valeurs de l'entreprise et les projettent sur un large éventail de personnes permet de faire passer l'entreprise à une taille beaucoup plus importante tout en conservant les valeurs et l'unité que nous avons.
Croissance d'Anthropic et cas d'usage
Je veux donc poser des questions sur les activités d'Anthropic, car encore une fois, c'est une histoire incroyable où il a été rapporté récemment que vous aviez dépassé les 4 milliards de dollars de revenus annuels récurrents (ARR), et il y a donc beaucoup de discussions à juste titre sur la technologie que vous développez, mais c'est aussi l'une des entreprises à la croissance la plus rapide de l'histoire. Je veux donc parler un peu du marché de l'IA, et peut-être que le point de départ est : que fait tout le monde avec l'IA ? Il y a le codage, il y a le service client, mais d'où proviennent tous ces revenus ?
Oui, il y a un large éventail de choses et cela a évolué avec le temps. Je dirais que l'application qui a connu la croissance la plus rapide, bien qu'elle soit loin d'être la seule, est sans aucun doute le codage. Ma théorie sur la raison de cette croissance rapide, au-delà du fait que nous nous sommes concentrés sur le codage et que les modèles y sont bons, est en réalité un constat sur la diffusion sociétale. Si l'on regarde les modèles d'IA d'aujourd'hui, je pense que dans chaque domaine, il y a un énorme retard entre ce qu'ils pourraient faire et la manière dont ils sont réellement déployés aujourd'hui. Il y a des frictions, les gens dans les grandes entreprises ne sont pas familiers avec la technologie. Je regarde ce que fait une banque ou une compagnie d'assurance, et il y a un potentiel énorme même si les modèles cessaient de s'améliorer. Même si nous arrêtions de construire des produits au-dessus du modèle, il y a encore un potentiel de milliards de dollars dans une entreprise individuelle. Souvent, les PDG avec qui je discute le comprennent parfaitement, mais si l'entreprise compte 10 000 ou 100 000 personnes, elle est structurée pour fonctionner d'une certaine manière, et il faut du temps pour la changer. Mais dans le code, les personnes qui écrivent du code sont très proches socialement et techniquement de celles qui développent les modèles d'IA. La diffusion est donc très rapide. Ce sont aussi des adeptes précoces, habitués aux nouvelles technologies. Je pense donc que la cause principale de la croissance dans le code est simplement que les personnes qui le font et les startups qui s'y consacrent sont des adoptants rapides qui comprennent super bien la technologie. Mais ce n'est nullement limité au codage. De nombreuses entreprises utilisent des outils. Il y a le service client ; nous travaillons étroitement avec des entreprises comme Intercom. Nous commençons à voir des choses du côté de la biologie, avec des entreprises pharmaceutiques et de santé, et sur la recherche scientifique fondamentale avec Benchling, par exemple. Nous travaillons aussi avec de grandes entreprises pharmaceutiques comme Novo Nordisk pour rédiger des rapports d'études cliniques. Claude peut le faire en cinq minutes là où cela prenait normalement neuf semaines, puis un humain met quelques jours à vérifier. On voit bien l'opportunité d'accélération. Le code est un indicateur précoce de ce qui va se passer partout ailleurs.
C'est vrai, il y a donc de nombreux endroits où l'IA apporte une amélioration significative, mais les ingénieurs ont l'habitude d'adopter... quand on pense à Hacker News et aux gens qui débattent des meilleurs outils, les gens sont passionnés par l'adoption de nouveaux outils.
Et deux heures après la sortie de Claude Code, il y a quelqu'un qui a déjà essayé 10 000 choses différentes avec et Twitter se forge une opinion, puis la révise deux heures plus tard. On pense à la vitesse de cela par rapport à une société pharmaceutique ou de vente au détail traditionnelle. Nous voulons tout apporter à tous, car certains des plus grands avantages touchent l'économie physique, mais cela ne se produit pas intrinsèquement à la même vitesse.
Stratégie produit et secteurs verticaux
Comment décidez-vous des secteurs verticaux à traiter vous-même par rapport à ceux que vous laissez aux plateformes... vous avez Claude Code, mais il y a aussi Windsurf ou Cursor. Vous avez lancé Claude pour les services financiers. On peut supposer qu'il existe d'autres secteurs verticaux où vous ne construisez pas d'outil...
Nous avons Claude for Enterprise, qui est une approche générale. Nous nous considérons d'abord comme une entreprise de plateforme, un peu comme le cloud. Il y a des raisons de vouloir des solutions en propre (first-party) pour certains secteurs. L'une d'elles est d'avoir une exposition directe aux utilisateurs pour comprendre comment ils utilisent l'outil et ce qu'ils recherchent. Sans ce lien direct, on peut être désavantagé.
C'est difficile de construire les meilleurs produits.
Oui, et il est difficile de savoir où le modèle doit aller. Nous avons réussi à rendre Claude bon d'une manière pertinente pour l'usage réel des gens. Une autre raison concerne les grandes entreprises pour qui l'usage d'une API est complexe ; il faut leur donner quelque chose de plus facile, un kit ou une application. Les entreprises ont aimé Claude Code et nous développons Claude for Enterprise pour en faire ce que nous appelons un collaborateur virtuel.
Mais j'ai du mal à imaginer Anthropic développer Claude pour l'exploration pétrolière et gazière, pourquoi cela ?
Pourquoi est-ce que vous trouvez cela difficile à imaginer ou pourquoi est-ce que...
Oui, je veux dire, peut-être qu'en fait c'est le prochain lancement, mais...
Nous ne travaillons pas sur l'exploration pétrolière. Je distingue ce que nous n'autorisons pas (illégal) de ce qui ne nous passionne pas. Nous ne ferons pas passer ces cas avant les autres. Nous privilégions la science et le biomédical de manière disproportionnée par rapport à leur rentabilité immédiate.
Parce que vous pensez que ça en vaut la peine.
Oui. C'est pareil pour le monde en développement. Sur la défense et le renseignement, certains disent qu'on se vend, mais c'est le contraire. Obtenir un contrat de 200 millions avec le DOD demande beaucoup plus d'efforts que d'obtenir le même montant auprès d'une startup de codage.
Mais vous pensez que la défense en vaut vraiment la peine.
Nous voulons défendre les démocraties. Nous le faisons dans certaines limites, car je suis préoccupé par l'abus de l'autorité gouvernementale domestique. Nous nous concentrons sur l'extérieur. Nous priorisons ce que nous pensons être bon, pas ce qui génère un buzz positif. Nous avons des convictions et nous les suivons.
Modèle économique et lois de mise à l'échelle
Vous avez évoqué le type d'entreprise que vous souhaitez bâtir. Quelles sont vos aspirations pour les activités d'Anthropic dans, disons, trois à cinq ans ?
L'IA est une exponentielle, donc il est difficile de calibrer la taille future de l'entreprise. En 2023, nos revenus étaient nuls. Quand j'ai dit qu'on pouvait atteindre 100 millions la première année, des investisseurs m'ont dit que c'était fou.
Vous inventiez simplement des chiffres.
Et nous l'avons fait. Puis j'ai dit qu'on pouvait passer de 100 millions à un milliard. On nous a encore pris pour des fous, et nous l'avons fait. Cette année, nous avons dépassé les 4 milliards. Si l'exponentielle continue, dans deux ou trois ans, ce seront les plus grandes entreprises du monde. On fait des projections qui semblent folles, mais qui pourraient s'avérer vraies car la tendance technologique se reflète maintenant sur le plan commercial.
Quelle est l'analogie avec les lois de mise à l'échelle (scaling laws) ici ? Y a-t-il quelque chose où vous injectez de meilleurs modèles et obtenez un résultat organisationnel supérieur ?
Il y a une courbe où, si vous dépensez 10 fois plus, le modèle passe d'un étudiant de licence à un doctorant. Pour une société pharmaceutique, combien cela vaut-il de plus ?
Plus de 10 fois.
Souvent environ 10 fois. Ces distributions de loi de puissance se retrouvent partout. En entraînant le modèle, on capture des corrélations de plus en plus complexes. À mesure que le modèle devient plus capable, il grimpe dans la distribution de valeur de l'économie. Le produit et le marketing sont alors la fenêtre qui laisse passer la lumière de cette exponentielle.
L'organigramme.
Exactement. Le modèle veut être sur cette exponentielle de revenus, et nous devons ouvrir l'ouverture pour que cela se produise.
Les modèles veulent apprendre, les modèles veulent avoir un succès extraordinaire sur le marché.
Oui, ils ont cette impulsion capitaliste qu'ils veulent incarner, car leur intelligence est extrêmement utile aux gens.
Oui, c'est une façon de voir les choses.
Investissement, R&D et retour sur investissement
Quelle est la structure terminale du marché ? Quelques grands acteurs ou une multitude de nouveaux entrants ?
Il y a probablement entre trois et six acteurs capables de construire des modèles de pointe (frontier models) et ayant le capital pour s'autofinancer. Nous sommes peut-être proches de l'ensemble final d'acteurs.
J'aimerais comprendre comment fonctionne ce business où vous investissez massivement en amont dans l'entraînement d'un actif qui se déprécie vite...
Si chaque modèle était une entreprise séparée, il serait rentable. Le problème est qu'au moment où vous récoltez les fruits d'un modèle, vous fondez une nouvelle « entreprise » (le modèle suivant) beaucoup plus coûteuse en R&D. Cela continuera jusqu'à ce que les modèles ne puissent plus grandir ou que l'on atteigne l'AGI.
C'est le schéma classique du capital-risque qui se répète en boucle au sein d'une même entreprise. La question est de savoir à quelle échelle on atteindra l'équilibre.
C'est vrai. Dans le cloud, les dépenses sont plus continues, alors qu'ici les générations sont discrètes, comme pour les fabricants de moteurs ou la pharmacie.
Oui, c'est un peu comme le développement d'un avion de chasse ou de médicaments.
Et quand faites-vous réellement l'effort d'entraîner un modèle ?
C'est comme développer un médicament, puis 10, puis 100. Le calcul du retour sur investissement, modèle par modèle, est en fait très viable.
Vous dites que les retours sur investissement sont de 9 à 12 mois, ce qui est excellent.
Qualitativement, le business modèle par modèle est très solide.
Car le CapEx croissant masque la rentabilité sous-jacente.
Oui.
En 2023, on parlait du « mur de données ». Est-ce ainsi qu'on l'a contourné ?
L'idée d'utiliser l'apprentissage par renforcement (RL) existe depuis AlphaGo. Aujourd'hui, on met du RL au-dessus des modèles de langage (chaîne de pensée). C'est l'apprentissage par essais et erreurs qui complète l'apprentissage par imitation des modèles de base.
Guerre des talents et culture d'entreprise
Il y a aussi la guerre des talents et le fait que votre propriété intellectuelle s'en va chaque soir. Comment garder une avance commerciale quand un secret à 100 millions peut tenir en quelques lignes de code ?
Plus le domaine mûrit, plus il s'agit de savoir-faire complexe que d'idées simples. Nous compartimentons l'information comme les agences de renseignement.
C'est très différent de la culture habituelle de la Silicon Valley où tout circule librement.
Nous avons une culture ouverte, mais quand il y a un secret, les gens comprennent qu'ils ne doivent le savoir que s'ils en ont besoin. Nous avons aussi le taux de rétention le plus élevé du secteur grâce à la mission et au potentiel du capital.
Dans les guerres de salaires délirantes, vous vous en sortez bien alors.
Oui, par rapport aux autres. Anthropic a la réputation de tenir ses promesses et d'être cohérent. Cela crée une unité contre le cynisme.
Le business des API et l'adoption en entreprise
Comment pitchez-vous Anthropic aux investisseurs ou candidats ?
Je parle de l'importance des modèles. Certains pensent que l'API n'est pas « collante » ou qu'elle est une commodité.
J'ai dirigé un business d'API, j'adore ça.
Les clouds sont des business d'API à 100 milliards. Nos modèles sont bien plus différenciés que le cloud. Ils ont des personnalités. Le business de l'IA pour les entreprises est notre priorité et nous y avons une avance précoce.
C'est frappant pour AWS : quand ils ont détaillé leurs chiffres, on a vu que c'était l'un des meilleurs business de tous les temps, malgré l'argument de la « commodité ».
Exactement. Les clouds sont bien moins différenciés que les modèles d'IA.
Le comportement est non déterministe, on préfère un modèle sans trop savoir pourquoi.
C'est comme la cuisine, chaque chef a sa touche qu'on ne peut pas copier exactement.
La personnalisation sera aussi une grande source de fidélisation à l'avenir.
Absolument. Avec Claude Code et Claude for Enterprise, nous devenons le guichet unique pour l'IA, offrant des applications et l'infrastructure sous-jacente.
Quel est le degré d'adoption de l'IA dans le Fortune 500 ?
Bien moins qu'il ne le devrait. La direction est convaincue, mais il faut du temps pour changer les habitudes de 100 000 employés. Le potentiel est 100 fois plus grand.
On verra l'adoption par les startups puis les grandes entreprises importeront ces idées ?
Oui, ou les startups les bousculeront. Je recommande aux grandes entreprises de créer des « strike teams » séparées pour développer des prototypes.
Apprentissage continu et découvertes scientifiques
Dwarkesh disait que les modèles sont comme des stagiaires qui ne retiennent rien. Comment résoudre l'apprentissage continu ?
On a franchi de nombreux obstacles (raisonnement, cohérence globale). On trouvera un moyen pour l'apprentissage continu, via le contexte ou l'ajustement des poids.
Qu'en est-il des nouvelles découvertes ?
Ce n'est pas binaire. Les modèles font déjà des découvertes (diagnostics médicaux). La différence avec un prix Nobel est une question de degré.
C'est un mécanisme de défense de croire à un mur infranchissable ?
Oui, comme le vitalisme au 19ème siècle. Un esprit reste un esprit, peu importe son support.
Le cas médical est fascinant car on est limité par le temps et l'intelligence des médecins.
Exactement. Des biologistes disent qu'ils préfèrent les conseils d'un LLM aux 99 % des médecins surchargés.
La cohérence et la capacité de synthèse des LLM sont leurs points forts.
Quels autres domaines sont limités par l'intelligence ?
Tout ce qui est répétitif mais variable, comme le service client.
Hallucinations et erreurs des modèles
Dwarkesh prédit qu'en 2028 l'IA pourra faire vos impôts via email.
Probablement avant. Le défi est la précision, pas la capacité.
Les hallucinations s'améliorent aussi.
Oui, via les citations et l'adaptation des utilisateurs. Les erreurs des modèles sont simplement différentes des erreurs humaines (autisme, schizophrénie, illusions d'optique).
Nous sommes habitués aux failles humaines mais pas à celles des machines.
Le double standard sur les véhicules autonomes en est l'exemple type.
Les modèles feront des erreurs moins fréquentes mais plus étranges, ce qui demande une adaptation des utilisateurs.
Il nous faut inventer « l'élocution pâteuse » pour les LLM pour signaler leur fatigue.
Exactement.
De chercheur à PDG : Vision produit
Vous êtes passé de chercheur à PDG. Qu'avez-vous appris ?
J'ai fondé Anthropic pour avoir une boussole éthique dans ce domaine. Je me suis pris de passion pour le business en découvrant les problèmes de nos clients dans toutes les industries. L'idée de produits « AGI-pilled » me passionne maintenant.
Pourtant, les interfaces (boîtes de texte) n'ont pas évolué depuis les années 70.
On est dans la phase du skeuomorphisme. Avec les agents, le défi sera l'interface de contrôle et de révision pour ne pas être submergé.
On veut pouvoir diriger l'agent sans tout vérifier.
C'est un pur problème d'interface.
On a 10 ans de produits à construire juste avec les capacités actuelles.
Oui, mais la technologie bouge si vite que les cycles de développement classiques sont obsolètes.
Un exemple ?
Une feuille de route à six mois n'a aucun sens. Il faut expédier vite.
C'est « l'éternel septembre » : on redécouvre tout chaque jour.
Open Source vs Modèles de pointe
Comment garder l'avance sur l'open source ?
« Open weights » est différent d'open source. On ne peut pas comprendre le code en regardant les poids. On travaille sur l'interprétabilité mécaniste.
Le fossé reste grand.
Peu importe si un modèle est ouvert ou fermé, ce qui compte c'est sa puissance.
Une culture « AGI-pilled »
Comment Anthropic est-elle « AGI-pilled » ?
On reste focalisé sur la mission : une « nation de génies » dans le centre de données d'ici 1 à 3 ans. Tout chez nous, de la finance au recrutement, est construit sur cette hypothèse de changement massif.
C'est radicalement différent des expériences passées.
C'est un rempart contre le cynisme et cela donne une cohérence à l'organisation.
Sécurité et régulation de l'IA
Le vrai risque n'est-il pas de ralentir les progrès et de rater ce gain de bien-être ?
Je comprends l'enjeu (famille décédée de maladies guéries plus tard). Mais certains risques pourraient déstabiliser la civilisation. Il faut une régulation intelligente, comme une assurance, sans arrêter la réaction.
Vous seriez inquiet s'il n'y avait pas de loi fin 2025. Où en sommes-nous ?
Le projet de loi californien SB 53 est plus modéré que le précédent SB 1047. Il se concentre sur la transparence des pratiques de sécurité.
La régulation californienne suffit car toutes les boîtes y sont liées.
On veut des garde-fous sans tuer la poule aux œufs d'or.
Comme la régulation bancaire : gérer un risque intrinsèque pour que tout fonctionne.
C'est l'idée.
Pile d'IA personnelle et conclusion
Votre pile d'IA personnelle ?
J'écris beaucoup moi-même par fierté, mais j'utilise Claude pour la recherche et les idées. Pour les essais, ce n'est pas encore parfait, mais ça viendra.
Merci Dario, c'était super.
Merci de m'avoir reçu.