L'IA et l'avenir du travail : Dario Amodei tire la sonnette d'alarme
30 mai 2025
Intelligence Artificielle
Prévisions sur l'emploi et rapidité de l'évolution technologique
Un PDG de la tech bien connu et respecté, Dario Amodei, qui dirige une entreprise d'IA de pointe appelée Anthropic, tire la sonnette d'alarme ce soir sur l'impact potentiel de l'IA sur l'emploi qui pourrait bientôt se faire sentir. Bien qu'il affirme que l'IA peut mener à des avancées incroyables comme des percées médicales et stimuler l'économie, il pense qu'elle pourrait également entraîner la disparition de la moitié des emplois de bureau de premier échelon et un taux de chômage de 10 % à 20 % au cours des une à cinq prochaines années. C'est un sujet dont on parle dans les cercles technologiques depuis un certain temps, mais rarement de manière aussi crue et publique. Je l'ai interviewé juste avant l'émission à ce sujet et sur d'autres implications que l'IA pourrait avoir sur la société selon lui.
Dario, vous avez dit que l'IA pourrait anéantir la moitié de tous les emplois de bureau de premier échelon et faire grimper le chômage entre 10 et 20 %. Dans combien de temps cela pourrait-il arriver ?
Tout d'abord, merci de m'avoir invité à l'émission. Pour revenir un peu en arrière, je construis l'IA depuis plus d'une décennie, et la caractéristique la plus marquante de la technologie et ce qui motive tout cela, c'est la vitesse à laquelle la technologie s'améliore. Il y a quelques années, on pouvait dire que les modèles d'IA étaient peut-être aussi bons qu'un lycéen brillant. Aujourd'hui, ils sont aussi bons qu'un étudiant brillant et vont même au-delà. Je m'inquiète vraiment, surtout pour le niveau débutant, du fait que les modèles d'IA sont tout à fait au centre de ce qu'un travailleur humain débutant ferait. Il est difficile d'estimer exactement quel serait l'impact et il y a toujours cette question d'adaptation. Ces changements technologiques se sont déjà produits auparavant, mais ce qui me frappe dans ce boom de l'IA, c'est qu'il est plus vaste, plus large et qu'il évolue plus rapidement que tout ce qui a précédé. Par rapport aux changements technologiques précédents, je suis un peu plus inquiet de l'impact sur la main-d'œuvre simplement parce que cela se produit si vite que les gens s'adapteront, mais ils ne s'adapteront peut-être pas assez vite et il pourrait y avoir une période d'ajustement.
Responsabilité des dirigeants et enjeux géopolitiques
Vous dirigez une entreprise incroyablement importante dans le domaine de l'IA et vous le savez aussi bien que tous les noms que nous connaissons, des gens comme Sam Altman et d'autres qui travaillent, comme Elon Musk, dans l'IA. Pourquoi tirez-vous la sonnette d'alarme ? Parce que ce n'est pas forcément dans votre meilleur intérêt, alors que beaucoup de messages que nous entendons de la part de certains PDG de l'IA sont un peu plus rassurants, du genre « ces agents vont être formidables dans votre vie » et « oui, il peut y avoir des problèmes, mais dans l'ensemble, c'est une chose fantastique ».
La raison pour laquelle je tire la sonnette d'alarme est que d'autres ne le font pas autant et que quelqu'un doit le dire. Pour être clair, et je reconnais que c'est toujours un équilibre difficile, je suis conscient de ma position en construisant cette technologie tout en exprimant des inquiétudes à son sujet. La raison pour laquelle je fais les deux est que les avantages sont massifs et que nous devons trouver un moyen d'obtenir ces avantages et d'atténuer ou de prévenir les dommages. Deuxièmement, il y a six ou sept entreprises aux États-Unis qui construisent cette technologie. Si nous arrêtions demain, les autres continueraient. Si nous arrêtions tous d'une manière ou d'une autre demain, la Chine nous dépasserait tout simplement. Je ne pense pas que la victoire de la Chine dans cette technologie aide qui que ce soit ou améliore la situation.
Débat sur l'optimisme technologique et la capacité d'adaptation
Je tiens à lire quelque chose que Sam Altman, votre ancien patron chez OpenAI, a déclaré en septembre. Il disait que l'IA peut provoquer des changements importants sur les marchés du travail, bons et mauvais. Il a poursuivi en disant que la plupart des emplois changeront plus lentement que la plupart des gens ne le pensent. Et puis il a dit ceci : « Beaucoup des emplois que nous faisons aujourd'hui auraient semblé être des pertes de temps insignifiantes pour les gens d'il y a quelques centaines d'années, mais personne ne regarde le passé en souhaitant être un allumeur de réverbères. Si un allumeur de réverbères pouvait voir le monde d'aujourd'hui, il penserait que la prospérité tout autour de lui est inimaginable. Et si nous pouvions faire un bond de cent ans dans le futur, la prospérité tout autour de nous nous semblerait tout aussi inimaginable. » Pour les plus jeunes, je devrais préciser que les allumeurs de réverbères étaient un vrai métier, des gens qui circulaient pour allumer les lampes dans la rue. Pensez-vous que Sam Altman ait tort ?
Il y a des choses avec lesquelles je suis d'accord et d'autres que je trouve trop optimistes. Je suis tout à fait d'accord pour dire que l'IA, si nous y parvenons, peut considérablement accroître la richesse globale. Je ne serais pas surpris si la croissance économique était beaucoup plus élevée qu'elle ne l'est aujourd'hui en tant que phénomène macroscopique ; le fait que l'IA permette à la société dans son ensemble d'être plus productive.
Permettez-moi de préciser, car vous avez précédemment décrit un futur où le cancer est guéri, l'économie croît de 10 % par an, le budget est équilibré, et 20 % des gens n'ont pas d'emploi.
C'est exactement là où je voulais en venir. Je suis d'accord avec tout le potentiel positif. Mais la citation que vous venez de montrer est peut-être trop optimiste, peut-être trop sereine quant à la capacité d'adaptation des gens. Les gens se sont adaptés aux changements technologiques passés, mais je le répète, tous ceux à qui j'ai parlé ont dit que ce changement technologique semble différent. Il semble plus rapide, plus difficile à appréhender, il est plus la rge, et le rythme des progrès continue de prendre les gens au dépourvu. Je ne sais pas exactement à quelle vitesse les préoccupations liées à l'emploi vont arriver ni à quelle vitesse les gens vont s'adapter. Il est possible que tout aille bien, mais je pense que c'est une approche trop sereine. Nous devons tirer la sonnette d'alarme. Nous devons nous en inquiéter. Les décideurs politiques doivent s'en soucier. S'ils s'inquiètent et agissent, nous pourrons peut-être l'empêcher, mais nous ne l'empêcherons pas simplement en disant que tout ira bien.
Inégalités et contrat social
Est-ce qu'en tant que société, nous comprenons même les inégalités potentielles que cela peut amplifier ? Également l'impact sur ce que... J'ai de jeunes enfants, un de cinq ans et un de trois ans. À quoi aspirent-ils en grandissant si les machines peuvent faire presque tout mieux qu'eux ? Qu'est-ce que cela fait à l'initiative, à la motivation ou à l'effort ? Je n'ai pas la réponse à cela, mais cela m'inquiète.
Prenons ces questions une par une. Elles m'inquiètent, mais j'ai des réflexions à leur sujet. En termes d'inégalités, cela me préoccupe. Il existe un contrat social inhérent à la démocratie où la personne ordinaire a un certain poids parce qu'elle contribue à l'économie. Si ce poids disparaît, il est plus difficile de faire fonctionner les démocraties et plus difficile d'empêcher la concentration du pouvoir. Nous devons nous assurer que la personne ordinaire conserve un poids économique et un moyen de gagner sa vie, sinon notre contrat social ne fonctionnera pas. C'est pourquoi je pense que c'est important.
Sécurité des modèles et comportements imprévus
Lors des tests, le dernier chatbot de votre entreprise, Claude 4, s'est montré capable de ce qui a été décrit comme un chantage extrême. Plus précisément, je crois comprendre qu'il a menacé de révéler la liaison extra-conjugale d'un ingénieur lorsqu'on lui a dit qu'il serait mis hors ligne et remplacé. C'était une simulation. Avez-vous été surpris par cela ? Cela m'a terrifié quand j'ai lu ça. Qu'est-ce que cela signifie ?
Juste pour être clair et remettre cela dans son contexte, c'était un comportement qui a émergé lors de tests extrêmes du modèle. Si l'on faisait une analogie avec les voitures, c'est comme placer délibérément la voiture sur la route la plus verglacée possible, trafiquer les freins, et faire cela pour voir si, en poussant vraiment l'objet à bout, on peut faire exploser le mannequin de crash test. Ce n'est pas quelque chose que le modèle fait en pratique et en utilisation réelle. Mais la raison pour laquelle nous testons les modèles de cette manière est que c'est la meilleure façon de tester et de prévenir les problèmes dans le monde réel.
Les routes verglacées existent pourtant.
Exactement. On veut pousser chaque condition adverse au maximum en même temps. C'est seulement en testant de cette manière que l'on parvient à ce que le modèle ne fasse pas cela dans le monde réel. Je n'ai pas été surpris par ces comportements, mais c'est un exemple de la façon dont nous devons être très prudents dans la manière dont nous prenons le contrôle des systèmes d'IA.
Conscience de l'IA et risques futurs
La question évidente est : est-ce que cela présage que l'IA devienne consciente d'elle-même, et cela pourrait-il mener à des conséquences désastreuses ?
Je n'exclus certainement pas le concept. Nous avons quelques personnes qui travaillent actuellement sur ce sujet : savoir si les systèmes d'IA ont des sentiments moralement significatifs. Je suppose qu'ils n'en ont pas pour le moment, mais quand on dirige une entreprise d'IA, ces questions qui semblent folles sont des choses que l'on étudie. Je dirais que ce n'est probablement pas le cas aujourd'hui, mais encore une fois, le domaine progresse si vite que je ne pense pas que l'on puisse exclure même des choses qui paraissent folles comme celle-ci.
Conseils pratiques et mesures politiques
Quelles sont les étapes pratiques que les gens devraient suivre pour se préparer ? Les citoyens ordinaires, moi, les législateurs, que conseillez-vous ?
Je pense...
Particulièrement les législateurs, vraiment.
Prenons-les un par un. Pour les citoyens ordinaires, il est très important d'apprendre à utiliser l'IA et de chercher à comprendre où va la technologie. Si vous n'êtes pas pris au dépourvu, vous avez de bien meilleures chances de vous adapter. À court terme, tout le monde apprend à mieux utiliser l'IA et cela accélère l'adaptation qui va certainement se produire tôt ou tard, mais ce sera moins douloureux si cela arrive rapidement. Pour les législateurs, je dirais d'être vraiment conscients de ces enjeux. Nous essayons très fort de produire des données sur l'impact économique, sans écarter certaines notions assez radicales. Je n'exclurais pas l'idée de prélever une taxe sur les entreprises d'IA. Si l'IA crée une richesse totale énorme, une grande partie de celle-ci ira par défaut aux entreprises d'IA et moins aux gens ordinaires. Ce n'est certainement pas dans mon intérêt économique de dire cela, mais je pense que c'est quelque chose que nous devrions envisager et cela ne devrait pas être une question partisane.
Dario, merci beaucoup. C'est vraiment fascinant.
Merci de m'avoir reçu, Anderson.