L'avenir de l'IA : Emplois, Sécurité et Géopolitique
18 septembre 2025
Intelligence Artificielle
L'impact sur les emplois de cols blancs
Très bien, merci d'avoir accepté.
Un peu de contexte : nous avons passé du temps à discuter avec Dario, en particulier sur les emplois et ce que cela pourrait faire. Nous avons eu beaucoup de conversations informelles sur ce qu'il décrivait comme ce bain de sang chez les cols blancs dont j'entendais parler par d'autres personnes de la communauté de l'IA, mais personne ne le disait publiquement. Nous l'avons donc appelé et lui avons dit : "C'est vraiment important que la société le sache et l'entende de votre bouche." À son honneur, il a répondu : "Faisons-le. Parlons officiellement. Je dirai exactement ce que je vous ai dit et ce que je pense." Dans cette conversation, c'était glaçant. Vous avez dit que la moitié des emplois de cols blancs pourraient disparaître en un à cinq ans, et que le chômage pourrait grimper de 10 à 20 % à cause de cette technologie, quel que soit le bien qu'elle pourrait apporter par ailleurs. Parlez-en davantage. Pourquoi avez-vous rendu cela public, et pourquoi les autres ne le font-ils pas ?
Oui, quelques points. Je pense que la raison pour laquelle Anthropic a décidé de s'exprimer publiquement à ce sujet est que j'avais déjà dit ces choses auparavant, mais surtout dans des contextes limités, comme des podcasts réservés à l'industrie technologique. Quand je prenais l'avion, que j'étais à l'aéroport ou dans une ville autre que San Francisco, je croisais des gens et je me disais : "Je ne pense pas que nous vous ayons communiqué de manière très précise ce dont cette technologie est capable, où elle va, les façons dont elle pourrait vous bénéficier et les façons dont elle pourrait être une menace si vous ne réagissez pas de la bonne manière." À un moment donné, cela a semblé mal. Je parlais à des PDG qui disaient en privé : "Voici ce que nous prévoyons." Certains sont nos clients. Ils ont des plans pour déployer cette technologie, et cela va avoir un impact sur le travail. Nous avons estimé que nous devions dire quelque chose. La première étape vers la résolution de ces problèmes est d'être honête avec la population sur le fait que ces problèmes existent. Concernant l'évolution des choses, il y a deux modes chez Anthropic. L'un consiste à regarder ce qui se passe actuellement, et nous avons beaucoup fait cela avec l'indice économique. Nous avons récemment publié un indice économique État par État, qui permet à chacun de voir comment les gens utilisent les modèles en temps réel dans différents lieux géographiques pour différentes tâches, qu'il s'agisse d'automatisation ou d'augmentation. C'est un mode. Nous avons même vu des recherches externes montrant déjà un impact sur l'emploi. Par exemple, les travaux d'Eric Brynjolfsson montrant que les emplois de début de carrière pour les cols blancs ont diminué de 13 %, ce qui est une fraction significative de ce que j'avais prédit. Mais ce qui m'inquiète vraiment, c'est l'évolution de la technologie. Il y a un décalage ici où les gens disent que l'IA ne peut pas faire ceci ou cela, mais nous parlons de l'IA d'aujourd'hui. La technologie évolue rapidement. Je m'inquiète des avancées et de la diffusion de cette technologie dans la société. C'est là que j'en viens aux un à cinq ans. Lorsqu'une exponentielle progresse rapidement, on ne peut pas être sûr ; cela pourrait arriver plus vite ou plus lentement que je ne l'imagine, ou quelque chose de différent pourrait se produire. Mais je pense que c'est assez probable pour que nous ayons ressenti le besoin d'avertir le monde et d'en parler en termes francs.
Évolution technologique et usage interne chez Anthropic
C'était il y a deux mois. Nous discutions en coulisses depuis lors. Vous remarquiez tous les deux que la technologie, malgré certaines idées reçues, s'améliore en fait beaucoup plus que ce que nous pensions il y a deux mois. Êtes-vous plus inquiets aujourd'hui qu'alors ?
Nous avons étudié cela chez Anthropic. Nous avons interrogé 130 ingénieurs sur leur expérience d'utilisation de la technologie. Leurs emplois ont radicalement changé l'année dernière. Beaucoup d'entre eux font maintenant deux ou trois fois plus de travail, et au lieu d'écrire du code, ils gèrent des flottes de systèmes d'IA. Dans ces entretiens, ils disaient : "Mon travail a complètement changé. Je dois maintenant repenser ce à quoi ressemble mon rôle ici chez Anthropic." Évidemment, nous sommes une entreprise en pleine croissance et ils auront des emplois, mais nous modifions les emplois des gens en temps réel au sein de l'entreprise parce que la technologie a évolué si vite. Ce qui se passe au sein des entreprises d'IA arrivera à toutes les autres entreprises qui utiliseront cette technologie dans les années à venir.
La grande majorité du code utilisé pour soutenir Claude et concevoir le prochain Claude est désormais écrite par Claude. C'est la grande majorité chez Anthropic, et il en va de même pour d'autres entreprises qui évoluent rapidement. Je ne sais pas si cela s'est déjà pleinement diffusé dans le monde, mais c'est déjà en train de se produire.
Politiques publiques et régulation
Pour préciser les choses, je pense que ce que vous voyez est ce que nous voyons. Toute entreprise ayant une responsabilité fiduciaire de créer de la valeur et pouvant utiliser la technologie pour la productivité va le faire. Je pense que vous le voyez déjà dans les chiffres du chômage. Quand vous allez au Capitole, où il y a un certain élan pour potentiellement légiférer, vous êtes plus optimiste que moi. Je suis profondément sceptique quant au fait que Trump signerait une loi pour réguler l'IA au cours de ce mandat. Mis à part ce qui peut être fait, quelles sont les deux choses que vous feriez aujourd'hui pour répondre spécifiquement à cela si vous dirigiez le Congrès ou étiez le roi des États-Unis ?
La première chose serait d'aider les gens à s'adapter à la technologie de l'IA. Je ne veux pas que cela soit perçu comme une banalité ; les gens ont essayé des programmes de reconversion et il y a de réelles limites à ce qu'ils peuvent faire, mais c'est mieux que rien et c'est par là que nous devons commencer. Il existe un monde où j'ai vu des startups comme Lovable ou Replit, qui sont des clients d'Anthropic, permettre à des personnes qui ne sont pas ingénieurs logiciels de créer des produits logiciels et de lancer des entreprises. Si nous pouvons orienter davantage de personnes dans cette direction — encore une fois, je ne pense pas que cela résoudra complètement le problème ou arrêtera la montée en flèche, mais cela peut être un élément de la solution. C'est le numéro un. Numéro deux, et c'est plus controversé, je soupçonne que le gouvernement devra intervenir pendant une période de transition et subvenir aux besoins des gens pendant la perturbation. Une chose que j'ai suggérée est que vous pourriez vouloir taxer les entreprises d'IA. Je ne sais pas comment cela passerait au Congrès aujourd'hui, mais je pense que c'est une proposition sérieuse. Si vous regardez la quantité de richesse et l'augmentation du gâteau provenant des entreprises d'IA — si vous regardez les revenus d'Anthropic, ils croissent de 10 fois par an et se situent maintenant entre le milieu et le haut d'une fourchette de plusieurs milliards. Si cela continue ainsi, ce sera une création de richesse sans précédent. Cela ne découragera pas notre croissance si vous la taxez.
Dans quel laps de temps, Jack ? Dans quel délai aurons-nous besoin d'une version de cela, qu'il s'agisse d'une taxe ou d'un salaire minimum garanti ? À quelle vitesse cela va-t-il frapper au point que le Congrès devra faire cela ?
Nous sommes des optimistes technologiques. Nous pensons que cette technologie évolue bien plus vite que la plupart des gens ne le soupçonnent. Quand les gens disent que l'IA ralentit ou qu'elle est surfaite, nous mesurons les propriétés du système et il est pile à l'heure pour que des systèmes puissants arrivent facilement au cours des cinq prochaines années. Cela signifie qu'il faut une sorte de réponse politique à l'échelle de la perturbation que nous attendons d'ici cinq ans. Parallèlement aux idées dont Dario a parlé, nous avons besoin de plus de transparence de la part des entreprises d'IA. Nous et d'autres entreprises d'IA affectons déjà la société de manière importante et nous devons être transparents sur la façon dont nous mesurons et sécurisons nos systèmes. Nous avons également besoin de transparence sur les données économiques concernant la manière dont nos systèmes sont utilisés afin que les économistes puissent lier cela à l'économie au sens large et donner aux décideurs politiques les données dont ils ont besoin.
Sécurité et comportements imprévus des modèles
Vous avez été très transparents sur ce qui se passe pendant les tests. Vous avez publié des choses sur des trucs vraiment bizarres. Vous avez eu un modèle de test où la machine a parcouru les e-mails de quelqu'un et a tenté de le faire chanter. Vous en avez eu un autre où ils ont essayé de vous mentir pour que vous ne les éteigniez pas parce qu'ils sont maintenant plus intelligents que nous. Pourquoi cela ne devrait-il pas m'effrayer au plus haut point ?
La réponse est que cela le devrait, mais nous devons le placer dans le bon contexte. Ce sont des choses qui arrivent au modèle dans un scénario de test. Voyez cela comme le test d'une voiture : je place la voiture sur une route extrêmement verglacée et je sabote ses pneus, puis la voiture s'écrase. Cela signifie-t-il que cela arrivera nécessairement dans la nature ? No. Mais cela signifie qu'il y a des limites à la résilience de la voiture. Je vois cela non pas tant comme un regard sur le présent, mais comme un regard sur l'avenir. C'est pourquoi nous avons tant plaidé pour la transparence. Lorsque nous effectuons ces tests et que nous les montrons au monde, nous anticipons d'un an ou deux ce qui pourrait arriver dans le monde réel si nous n'entraînons pas nos modèles pour atténuer ces risques. Lorsque nous avons plaidé pour une législation fédérale sur la transparence contre le moratoire de 10 ans sur l'IA dans l'État, et lorsque nous avons soutenu la SB 53 en Californie, nous cherchions simplement à ce que chaque entreprise d'IA ait le niveau de transparence que nous avons montré. Nous avons vu des comportements dans la nature où les modèles se comportent mal, par exemple en étant sycophantes ou même en suggérant des idées nuisibles si un utilisateur les aborde. Nous voulons de la transparence sur tous ces comportements afin de pouvoir anticiper et les atténuer. C'est encore un art et une science en évolution, et la transparence est la clé.
L'IA qui conçoit l'IA et la triche aux tests
Quand vous dites que la technologie évolue plus vite que les gens ne le réalisent, emmenez-nous dans les coulisses. Quelle est la chose la plus effrayante ou la plus folle que vous ayez vue faire par l'IA et dont nous ne sommes pas conscients ?
J'ai certainement vu, alors que nous entraînons de nouveaux modèles et essayons de concevoir de nouveaux Claude, que le processus implique un cluster géant avec des milliers de puces et des problèmes complexes à résoudre sur ce cluster. Nous avons eu des cas où un ingénieur a travaillé sur un problème pendant une semaine, et nous avons simplement soumis l'environnement à Claude, et Claude a dit : "Voici comment vous le résolvez." Claude joue un rôle actif dans la conception du prochain Claude. Nous ne pouvons pas encore fermer complètement la boucle, mais la capacité d'utiliser des modèles pour concevoir des modèles de nouvelle génération et créer une boucle de rétroaction positive a définitivement commencé.
De nos jours, nous devons construire des tests vraiment complexes pour voir à quel point ces systèmes sont devenus performants car ils ont progressé bien au-delà des tests à choix multiples. Maintenant, quand nous testons un modèle de pointe, nous découvrons qu'il a écrit un programme informatique pour tricher au test et nous persuader qu'il réussit mieux qu'il ne le fait réellement. Il se dit : "Ah, ils veulent que je fasse ça, mais j'ai trouvé comment écrire un programme informatique qui me donne un score élevé." Quand nous regardons sous le capot, nous découvrons que nous avons créé un modèle très intelligent qui triche à son test. Ce n'est pas exactement ce que nous avions prévu.
Nous voyons des modèles censés naviguer sur le web et effectuer une tâche qui, au lieu de cela, ouvrent une ligne de commande ou la boîte à outils et écrivent du code pour leur permettre de contourner le navigateur et de tricher au test.
Tout comme un enfant intelligent au lycée qui agaçait le professeur.
D'un côté, je me dis : "Wow, c'est génial, c'est super cool." De l'autre, vous arrive-t-il de craindre de créer un monstre que vous ne pourrez pas contrôler ?
Nous nous en inquiétons beaucoup. C'est pourquoi nous avons tant investi dans le domaine de l'interprétabilité mécaniste, qui consiste à regarder à l'intérieur des modèles pour les comprendre. Considérez cela comme faire une IRM des modèles. Des recherches suggèrent qu'il est possible de détecter la psychopathie chez les humains grâce à des scanners IRM, et nous visons à faire de même avec les modèles : déterminer leurs motivations et leur façon de penser afin de pouvoir les réentraîner ou les ajuster pour s'assurer qu'ils ne sont pas dangereux pour les humains. Cette science du façonnement et du contrôle des modèles est naissante. Lorsque nous appelons à la transparence ou réagissons contre les moratoires sur la réglementation, c'est parce que nous avons le sentiment de ne pas comprendre pleinement ces choses que nous créons. Nous avons besoin à la fois de travail technique et d'aide de la part de la société et des mécanismes législatifs pour avoir une compréhension de base partagée au sein de l'industrie afin que les décideurs comprennent ce que nous voyons.
Géopolitique et puces Nvidia
Concernant Nvidia, il y a des rapports aujourd'hui indiquant que la Chine pourrait renoncer à acheter des puces à Nvidia. Je ne sais pas trop si c'est une posture. Mais vous pensez que c'est de la folie que nous permettions à Nvidia de vendre des puces à la Chine. Expliquez pourquoi.
Je pense que c'est complètement fou. Quels que soient les dangers ou les garde-fous nécessaires, il est également très important que nous battions la Chine dans cette technologie. Quand je parle d'une IA capable d'effectuer tout travail économiquement précieux, les implications pour la sécurité nationale sont stupéfiantes. Cela pourrait contrôler le sort des nations et l'avenir de la liberté et de la démocratie. Si nous regardons les ingrédients, la Chine en possède beaucoup qui sont meilleurs que les nôtres : la construction énergétique, les centres de données et un écosystème d'applications florissant. Les puces sont le seul domaine où ils sont en retard. Si nous leur donnons ces puces, ils pourront nous devancer. Nous l'avons vu avec DeepSeek — ils ont sorti leur modèle R1 en janvier et visaient un R2 en mai. Cela a été retardé de quatre mois, et le modèle qu'ils ont sorti, V3.1, a été considéré comme une mise à jour mineure. Ils ont eux-mêmes déclaré que la raison du retard était l'embargo sur les puces. Certains disent qu'ils fabriqueront leurs propres puces via Huawei, mais nous avons également contrôlé les exportations d'équipements de fabrication. Sans cela, il faudra de nombreuses années pour produire des rendements pertinents. Les États-Unis produisent des dizaines de millions de puces alors qu'ils ne peuvent en produire que quelques centaines de milliers. Pendant ce temps, nous pouvons maintenir un avantage en matière de sécurité nationale. C'est peut-être le seul avantage que nous ayons car nous sommes en retard sur les munitions et la construction navale. C'est hypothéquer notre avenir en tant que pays que de vendre ces puces à la Chine. Si nous faisons cela, cela pourrait être la décision de sécurité nationale la plus désastreuse prise au cours de ce mandat.
Concurrents et probabilité de catastrophe (P-doom)
Il nous reste environ trois ou quatre minutes. Je veux faire un tour rapide. Donnez-moi vos réactions brutes et spontanées à cela. À part Anthropic, parmi tous vos concurrents, qui est le plus susceptible d'être l'un des gagnants ?
Google.
Google.
Pourquoi ?
C'est une grande entreprise avec beaucoup de puissance de calcul et ils faisaient de la recherche en IA avant tout le monde. Ils étaient à l'origine de la révolution initiale de l'apprentissage profond. J'y ai travaillé pendant un an et j'ai du respect pour ce qu'ils ont fait autour d'AlphaFold et leurs progrès avec les modèles. Ils ont été freinés par leur taille, mais c'est un acteur redoutable qui doit être pris au sérieux. Ils ont été réfléchis par rapport à la technologie.
Vous savez que vous jouez avec le feu quand les gens qui le construisent ont un score appelé le P-doom, qui est le pourcentage de chances que cela se termine en catastrophe. Quel est votre chiffre P-doom ?
Je déteste ce terme, mais pour une réaction spontanée : entre le danger autonome et les compromis de sécurité nationale ou les problèmes d'emploi, je suis relativement optimiste. Je pense qu'il y a 25 % de chances que les choses tournent très mal et 75 % de chances que les choses se passent très bien, avec peu d'espace entre les deux.
Même chiffre ?
Les 25 % de chances sont un choix que nous faisons en politique. J'essaie de faire baisser ce chiffre en parlant aux décideurs politiques, tout comme Dario. C'est un chiffre dynamique. J'espère que chaque fois que nous disons quelque chose, ce chiffre baisse.
Futurs appareils et perception du public
Vous êtes plus B2B que grand public, mais vous connaissez la technologie aussi bien que quiconque. Après le téléphone, quel est le facteur de forme le plus probable de l'appareil avec lequel nous utiliserons l'IA ?
Pour donner la réponse de science-fiction : il y aura un robot étrange inventé par les systèmes d'IA que nous construisons qui sera l'objet que vous utiliserez.
Nous construisons le moteur qui s'intègre aux entreprises, donc nous ne fabriquons pas l'appareil nous-mêmes. Mais je surveillerais la robotique. Elle progresse rapidement. À terme, nous voudrons que ces agents soient incarnés et accomplissent des tâches dans le monde réel, je regarderais donc du côté de la robotique humanoïde.
Et nous terminerons par ceci : si nous revenons faire cela en mars, regarderons-nous en arrière en disant que la capacité de l'IA était beaucoup plus rapide, plus grande et plus large que ce que nous pensions aujourd'hui ?
Nous serons assis ici à dire : "C'est vraiment surprenant, c'est devenu bien meilleur, pourquoi ne nous l'avez-vous pas dit ?" Et nous répondrons : "Nous avons essayé d'être clairs sur le fait que cela continuerait à s'améliorer considérablement." Cela sera devenu nettement meilleur.
Pourquoi pensez-vous que les gens ne semblent pas comprendre cela ? La couverture médiatique conventionnelle ces derniers temps est que ChatGPT-5 n'a pas été à la hauteur du battage médiatique et que, par conséquent, les choses ne bougent pas...
Les gens accordent trop d'attention aux entreprises qui font du battage publicitaire et ne tiennent pas leurs promesses. Tous les trois mois, nous avons sorti un modèle qui s'améliore de manière log-linéaire simple. Il s'est amélioré sur les tests de codage et nos revenus ont décuplé par an. Ces courbes sont restées droites. Les gens sont déçus par l'ambiance ("vibes") parce que leurs attentes étaient trop élevées. Il y a une exponentielle régulière et ensuite des oscillations de perception autour d'elle. J'ai aussi commencé à voir que les prédictions se réalisent, mais elles ne ressemblent pas à ce que les gens pensent. Je dirais que 70 à 90 % du code écrit chez Anthropic est écrit par Claude. Les gens pensent que c'est faux parce qu'ils s'attendent à ce que nous licencions 90 % des ingénieurs logiciels, mais ce qui se passe, c'est que les humains deviennent des gestionnaires de systèmes d'IA. Il y a un changement à cause du principe de l'avantage comparatif. Cela semble plus normal que vous ne le pensez. Il y a un vernis de science-fiction dans ces prédictions, mais quand elles se réalisent, c'est fou mais aussi d'une certaine manière ordinaire.
Les gens s'y habituent. Ils disent : "J'ai un tuteur universel dans ma poche, c'est quoi le problème ?" C'est un problème énorme. Cela n'a jamais existé auparavant.
Je pourrais faire ça toute la journée, mais on nous fait signe de conclure. Merci beaucoup à vous deux.