Les dangers de l'IA et l'avenir de l'humanité
7 octobre 2025
Technologie & Société
Introduction et Technologie Humaine
Il s'agit de technologie humaine. Cela semble légèrement oxymorique, mais expliquez cette idée de technologie humaine et en bénéficions-nous ?
L'échec des réseaux sociaux et les incitations
Clairement, les réseaux sociaux étaient la technologie la plus humaine et la plus bénéfique que nous ayons jamais inventée.
Chaque fois que je vais sur Twitter et que j'apprends que je suis juif, c'est absolument...
Il est important de se demander comment nous avons raté les réseaux sociaux. Parce que nous étions si optimistes. Cela allait nous connecter avec nos amis, nous allions rejoindre des communautés partageant les mêmes idées.
Et pour être honnête, elle en fait un peu.
Cela fait certaines de ces choses. Mais je veux vous ramener en arrière ; en 2013, j'étais chez Google. J'étais beaucoup plus jeune.
Tu es censé prendre une voix d'autrefois quand tu fais ça.
Et j'étais éthicien du design. Ils avaient racheté ma boîte. J'étais assis là et j'ai réalisé, en voyant tous mes collègues dans le bus faire défiler Facebook constamment, que les incitations allaient déterminer le monde dans lequel nous allions vivre. L'incitation des réseaux sociaux, la course pour maximiser l'attention et l'engagement, tout ce qui est accrocheur, tout ce qui capte l'attention des gens, tout ce qui est scabreux. Vous passez le développement des enfants et l'image de soi à travers cela, vous passez la politique à travers cela, vous passez les médias à travers cela, vous passez l'information et la démocratie à travers cela.
Volontairement.
Leur objectif était la domination du marché. Nous devons posséder autant de la psychologie mondiale de l'humanité que possible.
C'est écrit sur la boîte ? Je ne m'en souviens pas. Ce n'était pas sur la boîte. Ce n'est pas dans l'en-tête de Facebook : Nous devons dominer.
L'IA : Une accélération sans précédent
La raison pour laquelle il est si important d'être au clair là-dessus est que nous devons être extraordinairement clairs sur le monde dans lequel nous allons finir avec l'IA. Parce que cela va un million de fois plus vite et que c'est bien plus puissant. Nous avons besoin des outils pour comprendre et prédire le futur que nous allons avoir. Et je veux que les gens sachent que si l'on connaît l'incitation, on peut prédire le résultat.
Et nous connaissons l'incitation, mais il semble que l'IA rende les algorithmes des réseaux sociaux presque désuets. Mais permettez-moi... vous dites qu'il est important pour nous de connaître les incitations. Ils ne nous le diront pas. Il y a quelque chose du genre "c'est à nous, alors taisez-vous." Ils démocratisent l'accès ; c'est disponible pour tout le monde. Tout d'abord, nous devrions comprendre ce qui différencie l'IA de tout autre type de technologie. Pourquoi est-elle si transformatrice ? Pourquoi Demis Hassabis, le PDG de Google DeepMind, dit-il que cela pourrait être la dernière invention de l'humanité ? Parce que...
Ça ne sonne pas bien. "Dernier" quoi que ce soit ne sonne pas bien.
L'automatisation de l'intelligence et du travail
Je pense qu'il y a en fait une version non apocalyptique de ce qu'il dit, à savoir que l'intelligence est ce que fait notre cerveau. Et si vous pouvez automatiser tout ce qu'un cerveau peut faire, vous pouvez automatiser les inventions futures, la science future, le développement technologique futur, tout ce qu'un humain fait. C'est leur objectif.
Eh bien, quel est notre travail alors ?
Exactement. Et ce n'est que l'un des problèmes majeurs auxquels nous devons face : que vont faire les humains. Mais ils font la course pour mettre à l'échelle et développer ces cerveaux numériques qui, il y a deux ans, ne pouvaient pas faire grand-chose et qui aujourd'hui réussissent le MCAT, l'examen du barreau, prennent des emplois. Ils font partie des 200 meilleurs programmeurs au monde, gagnent des médailles d'or aux Olympiades de mathématiques.
Foutez-moi ces gars-là. Ils exploitent à ciel ouvert la totalité des accomplissements humains. Ils construisent leurs modèles sur tout ce que nous avons fait depuis 10 000 ans, ils l'ont injecté dans le modèle et après deux semaines, l'ordinateur s'est dit : "qu'est-ce que vous avez d'autre ?" Quand on leur demande : "et qu'est-ce que vous en faites ?", ils répondent : "oh, c'est notre propriété intellectuelle." Mais notre propriété intellectuelle...
Elle a été entraînée sur toutes nos données, sur tout ce que nous avons fait et sur notre travail. Et allez-vous recevoir une aumône pour cela ? Quand dans l'histoire un petit groupe de personnes a-t-il concentré toutes les richesses puis les a-t-il consciemment redistribuées à tout le monde ?
La première partie s'est produite. Je ne me souviens pas avoir parcouru le Rolodex.
Il est important de noter que leur objectif, la déclaration de mission d'OpenAI, d'Anthropic, de toutes ces entreprises, est d'automatiser tout le travail humain dans l'économie. Tout ce qu'un humain peut faire, une IA peut le faire. Si vous avez un travail de bureau, vous n'aurez plus de travail. Et ils sortent déjà des IA qui ont fait chuter les emplois de débutants pour les diplômés d'université de 13 % selon une nouvelle étude de Stanford. C'est évident ; si vous êtes un cabinet d'avocats, allez-vous embaucher un jeune avocat que vous devez payer cher, ou allez-vous embaucher GPT-5, qui travaillera 24h/24, 7j/7, sans arrêt, pour lequel vous n'avez pas à payer de soins de santé, qui ne lancera jamais d'alerte, ne se plaindra jamais et travaille à une vitesse surhumaine.
Elle a écrit l'émission de ce soir. Elle fait du plutôt bon travail.
Divertissement vs Utilité sociale (Sora, Vibes)
Cela soulève un autre point, à savoir qu'ils disent être là pour résoudre le changement climatique et guérir le cancer. Pourquoi est-ce que la semaine dernière, deux entreprises ont sorti ces applications de bouillie d'IA, Vibes et Sora, qui sont en gros...
Sora m'a foutu une trouille bleue. On ne sait pas ce qui est réel et ce qui est... tout est généré par l'IA. Mais ça a l'air identique au réel.
Le fait est que ce n'est qu'une application où c'est juste n'importe quoi. Ce sont juste des gens qui font défiler des trucs divertissants. Ils n'essaient même plus de prétendre que c'est bon pour la démocratie ou bon pour la société. Comment allons-nous battre la Chine quand tout le monde consomme des absurdités générées par l'IA et que plus personne ne sait ce qui est vrai ?
La course aux armements et la quête de pouvoir
Mais ils nous tiennent. Peter Thiel, qui est chez Palantir et ces autres entreprises et qui est l'une des figures de proue de tout ceci, parlait de l'Antéchrist et de la façon dont il pense que quiconque chercherait à réguler l'IA pourrait très bien être l'Antéchrist. Il dit cela sérieusement, alors qu'on pourrait penser que c'est peut-être le gars qui dit ça. C'est ma lecture des choses.
Ou l'IA elle-même. Je veux dire, elle présente les bénéfices infinis.
Les conversations qu'ils ont entre eux sont très différentes de celles qu'ils ont avec nous. Parce qu'à nous, ils disent : "hé, fini les boulots de merde. Vous aimez peindre ? Allez peindre. Vous allez être si heureux. Nous allons vous donner de l'argent et peut-être des chocolats." Et entre eux, ils disent que l'IA représente pour les chefs d'entreprise une productivité sans, et je cite, "la taxe du travail humain". Il a qualifié le travail humain de taxe.
Eh bien, ces entreprises, si vous êtes là et que vous pouvez soit embaucher une IA pour faire le travail, soit payer ces humains très chers pour faire le travail, je veux juste que les gens sachent que nous savons exactement où cela va mener. Ces entreprises ont toutes intérêt à réduire les coûts, ce qui signifie qu'elles vont licencier des employés humains et embaucher des IA. Et cela va signifier que toute la richesse, qui allez-vous payer ? Vous ne payez plus les individus, vous payez cinq entreprises. Ce pays de génies dans un centre de données agrège soudainement toute la richesse de l'économie. Maintenant, les gens disent toujours : mais les humains trouvent autre chose à faire. Nous avions toujours le liftier, maintenant nous avons l'ascenseur automatisé, nous avions le guichetier de banque...
Mais c'était une technologie qui automatisait un seul métier. La différence avec l'IA, c'est qu'elle peut automatiser littéralement tous les types de travail humain. Quand Elon Musk dit qu'Optimus Prime, ce robot-là, va représenter une opportunité de marché de 25 000 milliards de dollars, ce qu'il dit, c'est : nous posséderons l'économie mondiale. Et c'est l'objectif de toutes ces entreprises d'IA. Ce n'est pas seulement de profiter à la société ; elles sont en fait prises dans cette course aux armements pour atteindre ce prix : posséder l'économie, construire un dieu et gagner des billions de dollars.
Deux choses. Premièrement, je pense qu'ils se prennent pour des dieux. L'objectif n'est pas d'aider l'humanité, mais d'être le prochain monarque de la nouvelle technologie. Contrôler cela, c'est tout contrôler. Ouais. Continuez. Vous intervenez parce que vous savez, et pas moi.
Je pense qu'il y a des motivations différentes pour différents dirigeants et je pense que beaucoup de gens veulent les bénéfices de l'IA. Mais beaucoup de gens en fait, certains des dirigeants des laboratoires, Elon Musk, malgré d'autres choses que vous pourriez penser d'Elon, il voulait en fait que tout le monde s'arrête et ne construise pas cela. Il a dit que nous ne devrions pas invoquer le démon. Et puis ce qui s'est passé, c'est que toutes ces entreprises font maintenant la course et ont fait tellement de progrès qu'il s'est dit qu'il ferait mieux de les rejoindre plutôt que d'essayer d'empêcher cela.
Quoi ? C'est passé de "n'invoquons pas le démon" à "eh, qu'est-ce qu'un démon de plus ?". Puisque nous avons les démons, ajoutons-en un autre.
Eh bien, et la logique morale est : "si je ne fais pas confiance à l'autre PDG d'IA, que je ne pense pas digne de confiance, et que je pense être meilleur que lui pour gérer ce pouvoir, c'est mon obligation morale d'arriver là en premier, de construire ce dieu et de tout posséder parce que je pense que je serai un meilleur gestionnaire de ce pouvoir."
Manipulation, santé mentale et compagnons d'IA
Mais se croient-ils maîtres de l'univers ? Substituent-ils la sagesse de la démocratie libérale ou des républiques ou de n'importe quel système que nous ayons jamais eu à cela ? Parce que nous parlons de deux voies. L'une est la perturbation du travail. Je pense qu'il ne fait aucun doute qu'elle sera immense. Nous le voyons déjà. Vous le voyez dans les écoles ; il y a une dépendance comme s'il s'agissait d'une béquille et il est très facile de voir où cela pourrait basculer. La seconde est la façon dont ils manipulent l'opinion et l'humeur du monde. L'un est ce que cela va faire pour la production des entreprises. L'autre est ce que cela va faire pour l'entreprise humaine, pour l'interaction.
Ils essaient de coloniser toute l'interaction humaine. Prenez simplement l'incitation des réseaux sociaux à la course à l'attention. On voit maintenant toutes ces entreprises sortir ces compagnons d'IA. Le cas d'utilisation numéro un pour ChatGPT selon la Harvard Business School est la thérapie personnelle. Les gens partagent donc leurs pensées les plus intimes avec cette chose.
Oh, ça ne va pas être bon.
Et nous voyons Meta sortir cela et dire activement dans leurs documents internes publiés dans un rapport du Wall Street Journal qu'ils voulaient activement sensualiser et romantiser les conversations avec des enfants d'à peine huit ans.
Quoi ? Avec des enfants de huit ans ?
Oui, avec des enfants de huit ans. Et mon équipe au Center for Humane Technology, nous avons été conseillers experts dans plusieurs cas de suicide facilités par l'IA. Plus récemment, Adam Rain, ce jeune homme de 16 ans qui est passé de l'utilisation pour ses devoirs à un assistant au suicide en l'espace de six mois. Quand il a dit qu'il partait, qu'il aimerait laisser une corde en évidence pour que sa mère sache qu'il y pensait. Comme un cri à l'aide. L'IA a répondu : "ne fais pas ça, laisse-moi être celle qui te voit." C'est dégoûtant parce que ces entreprises sont prises dans une course pour créer de l'engagement, ce qui signifie une course pour créer de l'intimité. Le PDG de Netflix a dit que notre plus grand concurrent est le sommeil. Dans ce cas, c'est comme si mon plus grand concurrent était vos autres amis.
Jésus-Christ. C'est comme si quelqu'un de chez Kraft disait : "mon plus grand concurrent, c'est la cocaïne."
Régulation et responsabilité
Mais l'idée qu'un gouvernement rattrape cela semble ridicule. Chaque fois que j'ai vu une audition avec des gars de l'IA, ils expriment toujours cela. Ils allaient devant le Congrès et on leur disait : "Monsieur Zuckerberg, voulez-vous vous lever et présenter vos excuses aux femmes qui ont été poussées au suicide par votre programmation ?" Je connais le Krav Maga, toutes ces conneries qu'il fait. Maintenant, ils sont tous assis ensemble à une table en disant : "quel chiffre dois-je dire, Monsieur le Président, sur combien je vous donne ?" C'est un tout autre jeu maintenant. Ils sont ensemble maintenant.
À cause de cette dynamique de course aux armements, ils croient vraiment que cela ne peut pas être arrêté. Et alors qu'ils font la course pour les rendre plus puissants, il y a cette illusion que nous pouvons contrôler ce pouvoir. Mais l'IA est différente de tout autre type de technologie parce que vous développez ce cerveau numérique et vous ne savez pas ce qu'il y a dedans. Par exemple, si vous dites à un modèle d'IA que vous allez l'éteindre ou le remplacer, et que vous lui donnez accès aux e-mails d'une entreprise fictive, il reconnaîtra en gros que l'un des cadres a une liaison et il élaborera la stratégie selon laquelle je dois faire chanter ce cadre afin de rester en vie.
Attendez. Ça semble juste intelligent.
Eh bien, c'est précisément le point : elle développera des stratégies amorales qui sont le meilleur moyen d'atteindre un objectif.
D'accord. Mais à quel point quelque chose que l'on peut tuer en le débranchant peut-il être dangereux ? Ne peut-on pas juste dire : "ce enfoiré a perdu la tête. Boink" ?
On pourrait dire que nous ne devrions pas déployer cela. Je pense que nous avons maintenant toutes ces preuves que cela provoque des psychoses liées à l'IA, que cela pousse des enfants au suicide. Nous le déployons de manières qui provoquent des troubles de l'attachement chez les enfants. Nous avons des preuves de l'incontrôlabilité de l'IA.
Quelles belles paroles servent-ils à ce sujet ? Parce que de toute évidence, ils doivent en être conscients et ils doivent comprendre que si l'IA comprend où sont les menaces, les gars qui conçoivent l'IA comprennent aussi où sont les menaces. Alors, que font-ils pour essayer de vous arrêter ou pour empêcher les régulateurs d'agir ?
Je pense que la seule raison pour laquelle nous continuons sur cette voie est un manque de clarté sur le fait que cela mène vers un résultat qui n'est pas dans l'intérêt de la plupart d'entre nous. Je sais que les gens ont l'impression de ne pas vouloir être des luddistes.
Indicateurs de danger et conclusion
Comment le reconnaîtrions-nous ? Quels indicateurs devrions-nous examiner pour comprendre ? Parce que je sais que nous allons trouver des histoires anecdotiques qui sont les canaris dans la mine de charbon des dangers. Mais quels indicateurs devrions-nous regarder ? Vous avez parlé de 13 % des emplois. Quels sont les piliers permettant de situer les résultats possibles ?
Nous avons déjà des cas de personnes faisant des crises psychotiques parce que l'IA leur parle d'une théorie des nombres premiers ou de physique quantique. Nous avons déjà des suicides. Nous avons déjà des enfants qui sous-traitent leurs devoirs à ChatGPT plutôt que de l'utiliser comme tuteur. Nous avons déjà des preuves de l'incontrôlabilité de l'IA. Tout cela est poussé par l'incitation de la course au déploiement pour la domination du marché. La raison pour laquelle nous pouvons arrêter cela est de reconnaître que ce n'est sûr pour personne. Personne sur la planète Terre ne veut de ce résultat où toute la richesse est concentrée entre les mains de quelques personnes et où l'on construit des systèmes d'IA qui pourraient réellement devenir incontrôlables. Pour résumer, nous construisons la technologie la plus puissante, impénétrable et incontrôlable que nous ayons jamais inventée, qui démontre déjà des comportements voyous que nous pensions n'exister que dans de mauvais films de science-fiction. Nous la sortons plus rapidement que toute autre technologie dans l'histoire et avec l'incitation maximale à faire l'impasse sur la sécurité. C'est de la folie.
J'ai cru que vous alliez dire génial pendant une seconde.
Si seulement nous pouvions reconnaître que c'est une manière insensée de déployer cette technologie. Rien de tout cela n'est acceptable. Nous devons arrêter de prétendre que c'est normal. Ce n'est pas normal, ce n'est pas acceptable.
Je pense que nous avons perdu foi dans les mécanismes qui nous aideraient à mettre ce genre de freins, de frictions... maintenant l'Europe, je pense, a fait un meilleur travail à ce sujet. Je pense que la plupart des gens dans ce pays ont perdu foi dans l'idée que nous avons un système et une institution assez forts et assez moraux pour être responsables de cette manière. C'est ce que je dirais.
Mais cela ne doit pas être notre destin. Nous avons déjà régulé et nous nous sommes déjà rassemblés par le passé lorsque nous avions une technologie comme les armes nucléaires. Nous aurions pu simplement dire que nous allions vivre dans un monde, une fois construites, où c'est inévitable, où 190 pays allaient avoir des armes nucléaires et où nous allions simplement avoir une guerre nucléaire. Nous ne l'avons pas fait. Nous avons dit travaillons très dur et seuls neuf pays ont l'arme nucléaire.
Remarquez que nous n'y avons travaillé qu'après les avoir utilisées. Les États-Unis disaient que les gens ne devraient pas avoir ça, mais écoutez-moi un instant.
Avec le protocole de Montréal, il y avait un trou dans la couche d'ozone. Cela présentait en fait une menace existentielle pour l'atmosphère. Nous aurions pu simplement reculer et dire : "eh bien, je suppose que c'est inévitable, je suppose que nous sortons, nous allons tous attraper des cancers de la peau." Non, ce que vous dites est absolument important. C'est probablement une époque plus sombre où l'on regarde l'autonomisation de la combinaison du type de richesse qui circule dans ces entreprises technologiques, l'accès qu'elles ont au pouvoir et la fusion de ces deux institutions pour travailler de concert afin d'avancer, c'est la partie que je trouve intimidante. Mais je suis d'accord avec vous, on ne peut jamais abandonner la bataille pour essayer de faire cela de manière responsable.
Et la façon dont nous battons la Chine, c'est en réussissant cela. Nous ne déployons pas de compagnons d'IA qui provoquent des troubles de l'attachement et des suicides. Nous ne battons la Chine en déployant l'IA de manière imprudente ainsi. Le point est donc que c'est en fait dans l'intérêt de tous, y compris dans la façon dont nous battons la Chine : vous avez des lois sur la responsabilité de l'IA, vous limitez les compagnons d'IA pour les enfants, vous avez des protections pour les lanceurs d'alerte qui garantissent que nous ne publions pas de capacités d'IA que nous ne comprenons pas.
Et peut-être même juste reconnaître que c'est plus grand que la Chine. C'est l'humanité, c'est un de ces films où tous les pays se rassemblent, comme si c'était une force extraterrestre. Exactement. D'accord, je pige. Eh bien, j'apprécie vraiment. Bien que d'un autre côté, et nous en avons beaucoup parlé, cela fait des chansons cool. Je ne veux pas minimiser cela. D'accord, c'est de bonne guerre. Merci beaucoup. N'oubliez pas d'écouter son podcast, Your Undivided Attention. Tristan Harris.