Geoffrey Hinton

L'avenir de l'IA : Entre Progrès Médicaux et Risques Existentiels

27 août 2025

Intelligence Artificielle
Illustration de Geoffrey Hinton

Introduction et Prix Nobel

Katie Couric

Que diriez-vous si vous pouviez vous retrouver dans une pièce avec Sam Altman et Elon Musk à une table, ce qui semble encore moins probable qu'une rencontre face à face entre Poutine et Zelensky ? Que diriez-vous à ces deux personnes ?

Geoffrey Hinton

Vous savez parfaitement que ce que vous développez a de fortes chances d'anéantir l'humanité.

Katie Couric

Dr Geoffrey Hinton, merci beaucoup de passer du temps avec moi aujourd'hui. C'est un véritable honneur de pouvoir m'entretenir avec vous.

Geoffrey Hinton

Merci beaucoup de m'avoir invité.

Katie Couric

Je sais que l'année dernière, vous avez reçu le prix Nobel de physique 2024 conjointement avec un certain John J. Hopfield pour vos, je cite, "découvertes et inventions fondamentales qui permettent l'apprentissage automatique grâce aux réseaux de neurones artificiels". Qu'est-ce que cela a signifié pour vous, Dr Hinton, d'être honoré de la sorte et de voir votre travail reconnu ?

Geoffrey Hinton

Eh bien, j'ai été en fait très surpris de l'obtenir parce que c'est en physique et que je ne fais pas de physique. Mais cela signifie beaucoup de recevoir un prix Nobel. Pour tout scientifique, c'est en quelque sorte la plus haute distinction que l'on puisse obtenir.

Katie Couric

Je pense qu'ils ont probablement besoin, comme vous l'avez dit par le passé, Dr Hinton, d'un prix Nobel pour l'informatique.

Geoffrey Hinton

C'est un peu le cas. Il existe ce qu'on appelle le prix Turing, qui est censé être comme le prix Nobel de l'informatique. Mais fondamentalement, Nobel a créé certains prix dans son testament et ils n'aiment pas en créer d'autres. Ils en ont créé un de plus en économie, mais ils ne veulent plus le diluer.

Influence mondiale et préoccupations sur l'IA

Katie Couric

Et je sais que vous avez remporté le prix Turing en 2019, c'était donc un honneur supplémentaire qui vous a été accordé. Dans une interview l'automne dernier, vous espériez que le prix Nobel signifierait que vos points de vue sur l'intelligence artificielle et le rôle qu'elle jouera à l'avenir, et qu'elle joue déjà d'ailleurs, seraient pris plus au sérieux. Avez-vous constaté que c'était le cas ?

Geoffrey Hinton

Oui, je pense que c'est vrai. Je pense que les gens, plus de gens sont prêts à me parler. J'ai réussi à parler à quelqu'un du Politburo chinois. J'ai discuté avec Bernie Sanders, et en septembre, je pourrais avoir l'occasion de parler au Pape.

Katie Couric

Wow. Vous diffusez donc vraiment vos préoccupations aux quatre coins du monde. Avez-vous le sentiment, lors de ces réunions, Dr Hinton, que A, les gens vous prennent au sérieux, ce dont je suis sûre, mais B, avez-vous l'impression de faire des progrès, que ces conversations pourraient en fait mener à de réels changements ou à des changements de politique qui refléteront vos préoccupations ?

Geoffrey Hinton

Oui, je pense que nous progressons. Ma principale préoccupation n'est pas les risques à court terme d'acteurs malveillants utilisant mal l'IA, qui sont très graves, mais le risque à plus long terme que l'IA elle-même prenne le contrôle. Et je pense que jusqu'à tout récemment, presque tout le monde pensait que c'était juste de la science-fiction. Nous n'avions pas vraiment à nous soucier du fait que l'IA devienne plus intelligente que nous et prenne notre place. Mais je pense que maintenant, beaucoup de gens ont réalisé que c'est un risque très réel. Ainsi, la plupart des experts pensent que d'ici cinq à vingt ans, l'IA deviendra plus intelligente que l'homme. Et quand elle deviendra intelligente, elle ne le deviendra pas un petit peu, elle le deviendra beaucoup plus. Et le problème est que nous connaissons très peu d'exemples de choses plus intelligentes contrôlées par des choses moins intelligentes. Pas de petites différences d'intelligence, comme entre un politicien et un scientifique par exemple, mais de grandes différences d'intelligence. Il y a très peu d'exemples. En fait, le seul exemple que je connaisse est une mère et son enfant, une mère et son bébé.

Katie Couric

Quand j'ai lu ce calendrier, Dr Hinton, je dois dire que j'étais assez terrifiée. Je veux dire, nous ne parlons pas d'un futur lointain, nous parlons d'un futur très proche, n'est-ce pas ?

Geoffrey Hinton

Oui, il est important de réaliser que personne n'a de bon moyen d'estimer ces choses, donc toutes les estimations ne sont que des suppositions. Mais il y a une sorte de consensus parmi les experts sur le fait que d'ici cinq à vingt ans, il est tout à fait probable que nous obtenions des choses beaucoup plus intelligentes que nous.

Origines familiales et attentes

Katie Couric

Je veux vous parler des dangers et de ce dont vous avez discuté avec diverses personnes. Mais d'abord, j'aimerais que les gens comprennent un peu votre parcours, qui est tout à fait extraordinaire. Vous venez d'une famille de, je dirais, de personnes exceptionnelles, pour ne pas dire de génies. Votre arrière-arrière-grand-père était un certain George Boole, qui a développé l'algèbre booléenne. Votre cousine Joan Hinton a travaillé sur le projet Manhattan. Votre grand-oncle Sebastian a inventé la cage à poules. La liste est longue. Saviez-vous que vous étiez destiné à de grandes choses et à contribuer à nos connaissances d'une manière aussi extraordinaire ?

Geoffrey Hinton

Je ne savais pas que j'y étais destiné. Je savais qu'il y avait beaucoup d'attentes.

Katie Couric

En fait, on dirait que votre père était une personne assez exigeante avec des attentes très élevées à votre égard. C'était un entomologiste de renom, à ne pas confondre avec un étymologiste, l'étude des langues. Il s'occupait de l'étude des insectes, des coléoptères en particulier, si j'ai bien compris. Et il vous a dit un jour : "Si tu travailles deux fois plus dur que moi quand tu seras deux fois plus vieux que moi, tu seras peut-être moitié moins bon."

Geoffrey Hinton

Il ne l'a pas dit qu'une fois. Il le disait assez fréquemment avant que j'aille à l'école.

Katie Couric

Quel impact cela a-t-il eu sur vous en tant que jeune homme ? Comment cela a-t-il façonné votre quête de l'intelligence artificielle et spécifiquement des réseaux de neurones ?

Geoffrey Hinton

C'était dit à moitié en plaisantant, mais c'était agaçant. On plaçait simplement de très fortes attentes en moi et j'ai essayé d'y répondre.

Katie Couric

Que pensez-vous qu'il penserait de votre prix Nobel ?

Geoffrey Hinton

Je pense qu'il serait très content et aussi un peu agacé. Il était très compétitif, et il serait agacé que son fils ait obtenu quelque chose que lui n'avait pas eu.

L'évolution des réseaux de neurones

Katie Couric

Parlons de votre parcours, depuis votre jeunesse jusqu'à aujourd'hui. Vous vouliez vraiment reproduire l'esprit humain dans votre travail avec les réseaux de neurones. Vous êtes donc en quelque sorte tombé sur votre domaine d'expertise par accident, n'est-ce pas ?

Geoffrey Hinton

Ce n'était pas tout à fait accidentel. Il est devenu évident dans les années 60 et 70 que nous avions une nouvelle façon de faire de la recherche sur le fonctionnement du cerveau. Jusque-là, on pouvait faire des expériences sur le cerveau ou avoir des théories sur son fonctionnement. Mais il est très difficile de tester ces théories car elles doivent être compliquées car le cerveau est compliqué. Et une fois que les ordinateurs sont devenus assez rapides pour simuler des réseaux de cellules cérébrales, on a pu commencer à avoir des théories plus élaborées sur la façon dont il pourrait calculer et les tester par des simulations informatiques. Il y avait donc cette nouvelle forme de science, qui consistait à tester des théories sur le fonctionnement du cerveau à l'aide de simulations informatiques. Et il était évident dès le début que cela donnerait aussi une manière différente de faire de l'IA.

Katie Couric

Pouvez-vous expliquer le rôle que jouent les réseaux de neurones dans l'intelligence artificielle par rapport aux grands modèles de langage et comment ils sont liés les uns aux autres ?

Geoffrey Hinton

Oui, d'accord. Laissez-moi vous donner un peu d'histoire. Pendant les 50 premières années de l'intelligence artificielle, la seconde moitié du siècle dernier, presque tout le monde en IA pensait que le moyen de rendre une machine intelligente était de mimer la logique. Ce que vous feriez, c'est d'avoir des expressions symboliques, des choses comme des phrases, dans l'ordinateur et d'avoir des règles pour les manipuler. Cela fonctionnerait donc comme de la logique. Par exemple, si je dis que tous les hommes sont mortels et que je dis que Socrate est un homme, vous pouvez faire quelques manipulations sur ces chaînes de mots et en déduire que Socrate est mortel. C'est de la logique. C'est la logique aristotélicienne. Et c'était le genre de modèle sur la façon dont nous allions faire de l'IA sur ordinateur. Il y avait une théorie très différente, presque totalement opposée, qui consistait, au lieu de chercher l'inspiration dans la logique pour rendre un ordinateur intelligent, à regarder comment le cerveau fonctionne réellement. Nous avons un grand réseau de cellules cérébrales, nous en avons des milliards. Elles ont des connexions entre elles et elles apprennent en modifiant la force de ces connexions. Ainsi, l'un des neurones de ce grand réseau n'a qu'à décider quand émettre un ping. Et il envoie son ping aux autres neurones auxquels il est connecté. Et il décide quand émettre un ping en regardant les pings qu'il reçoit d'autres neurones. Mais à chaque ping qu'il reçoit d'un autre neurone, il lui attribue un poids, qui est la force de la connexion. Par exemple, si je suis un neurone particulier et que vous êtes un autre neurone et que vous émettez un ping, je pourrais avoir un poids sur cela pour dire, d'accord, quand elle émet un ping, c'est une preuve solide que je devrais émettre un ping. Ou supposons qu'il y ait un autre neurone qui soit Donald Trump et quand il émet un ping, je dis que c'est une preuve solide que je ne devrais pas émettre un ping. Fondamentalement, chaque neurone examine les pings provenant d'autres neurones. Il associe un poids à chaque ping. C'est comme un vote. D'autres neurones émettant un ping sont des votes pour que j'émette ou non un ping. Et puis il décide d'émettre ou non un ping. Et je pense que vous pouvez voir que si vous changez la force de ces votes, ces poids, alors la façon dont les neurones émettent des pings changera. Et c'est ainsi que votre cerveau apprend. Et c'est ainsi que fonctionne l'intelligence artificielle aujourd'hui. Elle simule un grand réseau de cellules cérébrales comme celui-ci. Et les grands modèles de langage fonctionnent sur des réseaux de neurones. Presque toute l'IA utilise désormais des réseaux de neurones. Nous simulons donc dans l'ordinateur un grand réseau de cellules cérébrales et les cellules cérébrales continuent d'émettre des pings, et le moment exact où elles le font dépend des votes qu'elles reçoivent d'autres cellules cérébrales qui ont émis des pings ou d'organes sensoriels qui ont émis des pings. Et en changeant la force de ces connexions, on peut lui faire faire n'importe quoi. Le problème est de savoir comment modifier la force des connexions pour lui faire faire ce que l'on veut.

Fonctionnement des grands modèles de langage

Katie Couric

J'ai un peu compris. Mais c'est un bon début pour moi. Je dois vraiment approfondir l'IA et vraiment comprendre ses mécanismes, mais c'est utile. Un grand modèle de langage fournit-il les données dont les connexions neuronales ont besoin ?

Geoffrey Hinton

Je vais vous expliquer comment un grand modèle de langage fonctionne dans un réseau de neurones. Ils utilisent en fait des fragments de mots, mais nous ferons comme s'ils utilisaient des mots entiers. Donc un mot entier arrive, vous voyez une chaîne de mots entiers et chaque mot n'est qu'un symbole. Ce que fait le réseau de neurones, c'est convertir ce symbole en un ensemble de neurones émettant un ping. Donc si vous avez le symbole pour mardi, un ensemble particulier, cela fera émettre un ping à un ensemble particulier de neurones. Si vous avez le symbole pour mercredi, cela fera émettre un ping à un ensemble de neurones très similaire. Mais si vous avez le symbole pour bien que, ce sera un ensemble de neurones complètement différent qui émettra un ping. Ainsi, les mots entrent, ils sont convertis en groupes de neurones émettant un ping. Ces neurones interagissent ensuite entre eux. Par exemple, supposons que le mot "may" arrive. Ignorons les majuscules, supposons que nous n'ayons pas de majuscules, donc le "may" minuscule arrive. Vous ne savez pas s'il s'agit d'un mois ou du nom d'une femme, ou d'un auxiliaire modal comme "would" et "should". Pour commencer, les neurones qui émettent un ping restent prudents. Mais ensuite vous regardez les mots voisins. Ainsi, les neurones émettant des pings pour les mots voisins influencent les neurones qui émettent des pings pour "may". Et si vous avez juin et juillet là, vous les influencerez probablement pour qu'ils ressemblent davantage aux neurones qui devraient émettre un ping pour un mois. Tandis que si vous avez "would" et "should", ils ressemblent davantage aux neurones qui devraient émettre un ping pour un modal. Et tous ces ensembles de neurones émettant des pings en réponse aux mots qui sont arrivés peuvent activer d'autres neurones pour qu'ils émettent des pings, qui sont les neurones représentant les significations du mot suivant. Donc quels neurones émettent un ping lorsqu'un mot arrive constitue le sens du mot. Et les significations des mots que vous avez déjà vus, ces activations de neurones qui capturent le sens, activent des neurones qui représentent le sens du mot suivant. Et ainsi, en utilisant ce réseau de neurones, si les forces de connexion sont appropriées, lorsqu'une série de mots arrive, vous serez en mesure de prédire le mot suivant. Et vous entraînez le tout en vous demandant comment modifier les forces de connexion pour que lorsque je vois une chaîne de mots, peut-être que je vois fish and, après fish and, chips est très probable. On aimerait donc modifier les forces de connexion pour qu'après avoir vu le mot fish suivi du mot and, on prédise que le mot suivant très probable est chips. C'est ainsi que tout fonctionne.

Katie Couric

Je vois. Et en fait, je pense au moment où j'envoie des SMS maintenant ou quand j'écris un e-mail, ils me suggèrent des mots en fonction de ce que j'ai écrit par le passé. Est-ce qu'ils utilisent mon propre grand modèle de langage personnel pour prédire ce que je veux dire ? Parce que je pourrais ne pas dire fish and chips, je pourrais dire fish and lemon par exemple. Est-ce que les réseaux de neurones sauront : "Oh, le Dr Hinton va dire chips, mais Katie va dire citron" ?

Geoffrey Hinton

Depuis que j'ai quitté Google il y a quelques années, je ne sais pas dans Gmail quelle quantité de vos informations personnelles ils utilisent pour faire la prédiction. Ma prédiction est que, pour être efficaces, ils n'utilisent pas vos informations personnelles, ils utilisent simplement un grand modèle de langage qui examine un contexte assez long de ce que vous avez dit et prédit simplement les caractéristiques du mot suivant. Et si vous dites fish and, il dira que chips est assez probable. Si vous êtes à la Chambre des Lords britannique, il dira que hunt est assez probable. Mais il ne le dira probablement pas parce qu'il sait que vous êtes à la Chambre des Lords britannique, il le dira probablement à cause des choses précédentes que vous avez dites dans ce Gmail.

Départ de Google et liberté de parole

Katie Couric

C'est vrai. Je commence à beaucoup mieux comprendre. Mais je voulais vous parler de votre parcours, votre arrivée chez Google puis votre départ de Google. Vous avez vendu votre petite startup à Google en 2013, vous y êtes allé pour faire progresser la recherche en IA de l'entreprise, puis 10 ans plus tard, vous êtes parti pour pouvoir parler plus librement des risques de l'IA. Comment en êtes-vous venu à cette décision après une décennie ? Était-ce une décision difficile, Dr Hinton ?

Geoffrey Hinton

Non. Le moment précis de mon départ était pour que je puisse parler lors d'une conférence au MIT et que je puisse m'exprimer librement sans me soucier des implications pour Google. Mais le fait que je sois parti, c'était parce que j'avais 75 ans, que je faisais de la recherche intensivement depuis 55 ans et que j'étais épuisé. Je n'étais plus aussi bon en programmation qu'avant et cétait agaçant. J'allais de toute façon prendre ma retraite à 75 ans. Mais le timing précis était pour pouvoir m'exprimer librement car j'étais devenu très conscient des risques de l'IA au cours de mes dernières années chez Google et je voulais en informer le public. Mais je pensais qu'il était mal de dire des choses qui impacteraient une entreprise tout en recevant de l'argent de cette entreprise. Si vous devez dire des choses, je n'avais en fait aucun grief contre Google. Je ne pensais pas qu'ils faisaient quoi que ce soit de mal. Ils avaient les grands modèles de langage et ils ne les diffusaient pas au public à ce moment-là. Ce n'était donc pas pour critiquer Google, mais pour alerter sur les risques à long terme de l'IA.

Katie Couric

Cela dit, aviez-vous le sentiment que Google en faisait assez pour atténuer certains de ces risques ? Aviez-vous l'impression que c'était une priorité suffisante pour l'entreprise pendant votre décennie là-bas ?

Geoffrey Hinton

Les gens là-bas étaient assez préoccupés par divers risques. Je pense qu'ils auraient toujours pu faire plus. Et je pense que pour toutes les entreprises, elles pourraient faire beaucoup plus. Google se soucie un peu du risque. Demis Hassabis en particulier, qui dirige leurs recherches sur des choses comme les grands modèles de langage, comprend la menace à long terme d'une prise de contrôle par l'IA et il en est assez préoccupé.

Réglementation et collaboration internationale

Katie Couric

Parlons de réglementation. Comme vous le savez mieux que quiconque, l'IA se développe à une vitesse folle. Les gouvernements, quant à eux, avancent lentement et souvent ne comprennent pas pleinement la technologie parce qu'ils n'y ont pas été immergés comme vous et, soyons honnêtes, ils ne se sont pas vraiment familiarisés avec elle parce qu'ils sont plus âgés et qu'ils n'ont pas forcément rattrapé leur retard. Même si les gouvernements étaient motivés et vigilants, pensez-vous que la réglementation pourrait un jour rattraper la capacité de l'IA et prévenir ses risques les plus dangereux ?

Geoffrey Hinton

Je pense que cela pourrait certainement aider. Et je pense qu'il faut distinguer deux types de risques ici. Il y a les risques à plus court terme liés au détournement de l'IA par des personnes, et ces risques sont des choses comme les cyberattaques ou la création de virus dangereux ou de fausses vidéos. Et pour chacun de ces risques à court terme, il y a une solution différente. Ainsi, pour les virus, une solution partielle évidente consiste à prendre les entreprises qui fabriquent des choses pour vous dans le cloud, et si vous leur envoyez une séquence, elles devraient examiner la séquence avant de la fabriquer et se dire : "Attendez une minute, cela ressemble beaucoup au COVID. Je ne vais pas fabriquer quelque chose qui ressemble au COVID." Mais elles ne le font pas. Elles devraient y être contraintes. C'est un exemple de ce que nous pourrions faire pour rendre le risque que des terroristes produisent des virus dangereux un peu moins grave. Pour les fausses vidéos, au début, les gens pensaient que nous pourrions reconnaître les fausses vidéos, mais en fait, il est beaucoup plus facile à long terme, je pense, d'être capable de reconnaître qu'une vidéo n'est pas fausse. Donc s'il y a, supposons qu'il y ait une fausse vidéo avec vous dedans qui prétend être de vous, ce dont vous avez vraiment besoin, c'est qu'au début de cette vidéo il y ait un code QR. Le code QR vous mènera à un site web. Et si c'est votre site web et que la vidéo identique est sur votre site web, nous savons que c'est une vraie vidéo. Si cela vous mène à quelque chose qui n'est pas votre site web ou que la vidéo n'est pas la même sur votre site web, nous savons que c'est une fausse vidéo. C'est faisable et je pense que cela viendra, et tout ce travail sera fait par le navigateur, bien sûr. C'est donc une solution pour les fausses vidéos ou une solution partielle. Il y a un problème, c'est que les gouvernements ne collaboreront pas entre eux sur ces sujets. Peut-être sur les virus, oui. Mais sur les fausses vidéos ou sur les cyberattaques, les gouvernements sont tous occupés à se les infliger mutuellement. L'Amérique a été une véritable pionnière dans la corruption d'élections dans d'autres pays. Elle est très mécontente maintenant que cela se retourne contre elle. Mais les gens qui ont développé cette technologie étaient des Américains, je pense.

Katie Couric

Dites-m'en plus à ce sujet, Dr Hinton.

Geoffrey Hinton

Oh, pendant de nombreuses années, l'Amérique a essayé de manipuler les élections dans d'autres pays. Il est assez clair que les Russes essayaient de manipuler l'élection de 2016, et je pense que manipuler les élections dans d'autres pays est une mauvaise chose à faire. L'une des rares choses que Trump a dites et avec lesquelles j'étais d'accord, quelqu'un il y a assez longtemps, probablement vers 2016, a demandé : "Que pensez-vous des étrangers qui manipulent nos élections ?" Et Trump a en fait répondu : "Vous pensez que nous sommes si différents ?" Il en était très conscient. Nous n'obtiendrons donc pas de collaboration sur ces points entre les pays car ils se le font les uns aux autres. Mais nous obtiendrons une collaboration sur la façon d'empêcher l'IA de prendre le contrôle, car aucun pays ne veut que l'IA prenne le contrôle. Ce que j'ai fait récemment, c'est d'essayer de persuader des hauts responsables, comme des gens du Politburo en Chine ou le Pape ou Bernie Sanders, que nous pouvons obtenir une collaboration internationale à ce sujet car les techniques dont on a besoin pour empêcher l'IA de prendre le contrôle, je pense que la seule façon de le faire est de s'assurer que nous construisons ces IA superintelligentes de manière à ce qu'elles ne veuillent pas prendre le contrôle. Et la question est : comment construire une IA pour qu'elle ne veuille jamais prendre le contrôle ? Et les techniques pour y parvenir sont quelque peu différentes des techniques pour rendre l'IA plus intelligente. Les pays ne partageront donc pas la manière dont on fabrique l'IA la plus intelligente car ils sont occupés à se concurrencer pour des choses comme les cyberattaques et les fausses vidéos et pour beaucoup d'autres choses liées à la fabrication. Mais ils collaboreront sur la façon dont nous l'empêchons de vouloir prendre le contrôle sur les humains. Par exemple, si les Américains développaient une bonne technique pour empêcher une IA superintelligente de vouloir prendre le contrôle, ils voudraient la partager avec les Chinois, les Russes, les Britanniques, les Français et les Israéliens parce qu'ils ne veulent pas que leurs IA prennent le contrôle non plus. Je pense donc que le pire risque à long terme que nous ayons est une prise de contrôle par l'IA, mais la seule bonne nouvelle est que nous pouvons collaborer là-dessus. Et ce que j'aimerais voir, ce sont des institutions dans différents pays qui collaborent sur la façon dont nous faisons en sorte que l'IA ne veuille pas prendre le contrôle.

Géopolitique et sécurité de l'IA

Katie Couric

Cela semble merveilleux, mais est-ce réaliste ? Pensez-vous que les pays collaboreraient réellement et auriez-vous besoin d'une sorte de nouvelle entité pour cette mission, pour cette idée d'essayer de freiner la prise de contrôle par l'IA ?

Geoffrey Hinton

Il ne s'agit pas tant de mettre des freins. Les gens pensent que la solution est de freiner l'IA. Nous n'allons pas freiner l'IA. C'est trop utile pour trop de choses. Cela augmentera la productivité dans un grand nombre de secteurs, ce sera très, très utile pour améliorer les soins de santé et l'éducation. Et à cause de toutes les bonnes choses qu'elle peut faire, nous ne pourrons pas arrêter le développement. Plutôt que de penser en termes de freinage, pensez en termes de développement d'une forme d'IA qui soit agréable pour les gens, qui puisse coexister avec eux. Et je pense que nous obtiendrons une collaboration là-dessus. Nous n'aurons pas de collaboration avec les États-Unis pendant encore environ trois ans et demi, mais je ne pense pas que sous l'administration Trump il y aura une collaboration efficace sur des choses comme ça. Mais une fois que nous aurons un régime raisonnable aux États-Unis, nous pourrions obtenir une collaboration. Et je pense que d'autres pays comme la France, la Grande-Bretagne et le Canada, peut-être la Corée du Sud, le Japon, peut-être même la Chine, seront prêts à collaborer sur la façon dont on fabrique une IA qui ne veut pas prendre le contrôle.

Katie Couric

Je sais qu'en parlant de la Chine, certains ont soutenu que la poussée rapide de la Chine dans l'intelligence artificielle, en particulier sa volonté de la déployer dans des contextes de surveillance et militaires, rend impossible toute réglementation mondiale raisonnable. Vous pensez que la Chine voudrait faire partie de cette collaboration mondiale, et si vous le croyez, pourquoi ?

Geoffrey Hinton

Il faut distinguer différents types de risques pour avoir cette conversation. Comme je l'ai déjà dit, je ne pense pas que la Chine et les États-Unis collaboreront sur des choses comme la détection de fausses vidéos ou le déjouement de cyberattaques, car leurs intérêts ne sont pas alignés là-dessus. Les gens ne collaborent que lorsque leurs intérêts sont alignés. Et là-dessus, leurs intérêts sont opposés et ils ne collaboreront pas. Mais ils collaboreront sur la façon dont on empêche l'IA de prendre le contrôle, car là, leurs intérêts sont alignés. De la même manière que l'Union soviétique et les États-Unis avaient des intérêts alignés dans les années 1950 pour prévenir une guerre nucléaire mondiale. Ce n'était bon pour aucun des deux. Et donc ils ont effectivement collaboré sur des moyens d'empêcher cela.

Katie Couric

L'Europe a essayé de prendre les devants avec des règles strictes comme l'AI Act de l'UE. Pensez-vous que cet effort aura un impact significatif ?

Geoffrey Hinton

Oui, je pense que les entreprises aimeraient avoir un marché mondial. Et si l'Europe impose une réglementation sur des choses comme la vie privée ou les discours de haine ou des choses comme ça, alors je pense que cela affectera les IA produites car les gens veulent un marché mondial, il y aura donc une tendance pour les gens à essayer de satisfaire ces réglementations même dans d'autres pays. Actuellement, les réglementations en Europe sont assez fragiles. Par exemple, les réglementations européennes sur l'IA comportent une clause qui stipule que rien de tout cela ne s'applique aux utilisations militaires de l'IA. Ainsi, les pays européens qui fabriquent des armes, comme la Grande-Bretagne et la France, ne sont pas disposés à réglementer l'utilisation de l'IA pour les armes. Les réglementations européennes sont donc limitées, mais c'est toujours mieux que rien.

L'IA dans la guerre et les armes autonomes

Katie Couric

Pourquoi pensez-vous qu'ils aient une clause excluant le domaine militaire ? Parce que nous savons, par exemple, que l'armée américaine développe activement des armes autonomes, que vous estimez devoir être interdites. Pourquoi les pays ne réalisent-ils pas le danger que posent ces types d'armes ?

Geoffrey Hinton

Les pays réalisent les dangers qu'elles posent, mais ils voient aussi les avantages militaires qu'elles offrent. Et beaucoup de pays gagnent de l'argent en vendant des armes. Les États-Unis, la Russie, la Chine, la Grande-Bretagne, l'Israël, la France, peut-être même le Canada, je ne sais pas pour le Canada. Ils gagnent de l'argent en vendant des armes et ils ne veulent donc pas de réglementations sur ces choses. De plus, pour les pays très riches, les armes létales autonomes, c'est-à-dire les armes qui décident elles-mêmes qui tuer ou mutiler, sont un avantage considérable si un pays riche veut envahir un pays pauvre. Ce qui empêche les pays riches d'envahir les pays pauvres, ce sont leurs citoyens qui reviennent dans des sacs mortuaires, ce qui ne plaît à personne. Si vous avez des armes létales autonomes, au lieu de voir revenir des morts, vous verrez revenir des robots détruits, et ce sera génial pour le complexe militaro-industriel car ils seront chers à remplacer.

Katie Couric

Quelles sont vos autres préoccupations concernant la façon dont vous prévoyez que l'IA transformera la guerre au cours des prochaines décennies ?

Geoffrey Hinton

Oh, je pense qu'il est assez clair qu'elle a déjà transformé la guerre. Si vous regardez ce qui se passe en Ukraine, comme l'a souligné Eric Schmidt, un drone à 500 dollars peut désormais détruire un char de plusieurs millions de dollars. Cela a complètement changé la guerre. Il est assez clair que les avions de chasse avec des pilotes à bord sont une idée absurde aujourd'hui. Si vous pouvez y mettre de l'IA, les IA peuvent supporter des accélérations beaucoup plus importantes et vous n'avez pas à vous soucier autant des pertes de vies humaines. Je pense donc que cela transformera complètement la guerre. Je pense que nous verrons des choses très désagréables se produire avec les armes létales autonomes, et après cela, nous pourrions obtenir des réglementations. Avec les armes chimiques, des choses très désagréables se sont produites pendant la Première Guerre mondiale. Et après cela, les pays ont été prêts à dire : "Bon, je ne les utiliserai pas si tu ne le fais pas", et nous avons eu les conventions de Genève sur les armes chimiques. Et elles ont plutôt bien tenu. Elles ont été enfreintes quelques fois. La Grande-Bretagne les a enfreintes dans les années 1930 lorsqu'elle a largué du gaz moutarde sur les Kurdes, dans les années 20 ou 30. Saddam Hussein les a enfreintes lorsqu'il a largué du gaz moutarde sur les Kurdes. Ce sont toujours les Kurdes qui trinquent, semble-t-il.

Katie Couric

Le Syrien, Assad.

Geoffrey Hinton

Assad les a utilisées aussi, oui. Mais dans l'ensemble, elles n'ont pas été enfreintes. Par exemple, en Ukraine, les gens n'utilisent pas d'armes chimiques.

Katie Couric

Vous utilisez donc cela comme exemple de la manière dont il pourrait y avoir une sorte d'accord entre les nations qui serait efficace.

Geoffrey Hinton

Oui, et c'est arrivé avec les armes chimiques. J'ai parlé à quelqu'un qui était chirurgien dans l'armée et il a souligné qu'il y a une grande motivation de la part des pays réfléchis à ne pas utiliser de moyens de guerre vraiment atroces car, à un moment donné, il y a la paix et il faut négocier ce qui se passe quand la guerre est finie. Et si un pays a utilisé des méthodes terribles, il est beaucoup plus difficile de négocier. En fait, même s'ils veulent gagner la guerre, les pays ont aussi un intérêt direct à ne pas utiliser de méthodes trop terribles.

Impact économique et suppression d'emplois

Katie Couric

J'aimerais beaucoup vous parler de l'impact économique de l'IA car je sais que c'est un risque clair à court terme dont vous avez discuté. Vous avez prévenu que l'IA pourrait supprimer des emplois dans presque tous les domaines. Et je sais que beaucoup de gens sont vraiment inquiets à ce sujet, pour leur gagne-pain, pour celui de leurs enfants. Selon vous, que doivent comprendre les gens sur cette technologie et comment elle impactera notre façon de travailler au cours des prochaines décennies ?

Geoffrey Hinton

Alors la première chose à dire est que ce n'est pas vraiment un problème technologique, c'est un problème politique. Si nous avaient un système politique équitable, lorsque l'IA arriverait et augmenterait considérablement la productivité, quand par exemple l'IA permet à une personne de faire le travail que cinq personnes faisaient auparavant, cela devrait signifier qu'il y a plus de biens et de services pour tout le monde. Et dans certains domaines où la demande est élastique, ce sera le cas. Dans le secteur de la santé, par exemple, les personnes âgées comme moi peuvent absorber des quantités infinies de soins. Et si nous rendons les soins de santé plus efficaces, nous aurons simplement plus de soins. C'est génial. Mais dans d'autres domaines comme les centres d'appels ou la recherche de cas similaires pour les avocats, quand une personne peut faire le travail de cinq personnes, quatre personnes se retrouveront au chômage. Nous avons fabriqué des choses, nous avons augmenté la productivité, cela devrait être formidable, mais dans le système que nous avons, nous savons ce qui va se passer. Les propriétaires qui introduisent l'IA vont s'enrichir et les chômeurs vont s'appauvrir. Cela va creuser l'écart entre les riches et les pauvres, et le niveau de violence dans une société est fortement déterminé par l'écart entre les riches et les pauvres. C'est ce que nous voyons aux États-Unis actuellement. L'écart entre les travailleurs ordinaires et les gestionnaires de fonds spéculatifs est devenu extrême et c'est ce qui constitue le terreau sur lequel prospère le populisme de Trump. Cela empirera à mesure que nous aurons plus d'IA et que la classe ouvrière s'en sortira encore plus mal.

Katie Couric

Je demande vraiment cela pour mes enfants et je suis curieuse de savoir quels emplois seront plus à risque et quels emplois le seront moins. En d'autres termes, si vous conseilliez un diplômé d'université aujourd'hui, Dr Hinton, quelles carrières éviter et vers quelles carrières se diriger ?

Geoffrey Hinton

Je devrais commencer par dire que je ne suis pas vraiment un expert en la matière et que ce ne sont que des suppositions.

Katie Couric

D'accord, ce n'est pas grave.

Geoffrey Hinton

Oui, il est évident que travailler dans un centre d'appels où l'on est mal payé et mal formé n'est pas un très bon emploi car l'IA sera capable de faire le travail mieux assez rapidement. Elle en saura beaucoup plus sur les bonnes réponses aux questions que les gens posent, elle sera plus patiente, c'est tout simplement une meilleure façon de faire ce travail. On n'y est pas encore tout à fait, mais on y arrive. Au cours des prochaines années, je pense que les emplois dans les centres d'appels sont très menacés. De même, déjà, les parajuristes, les personnes qui aident les avocats à trouver des cas similaires, sont quasiment au chômage. Et même les jeunes avocats ont aujourd'hui du mal à trouver du travail car, pour de nombreux grands cabinets d'avocats, l'IA fait le genre de travail ingrat par lequel les jeunes avocats commençaient. Les programmeurs, les très bons programmeurs qui conçoivent des systèmes compliqués, sont toujours en activité. Mais les programmeurs ordinaires qui écrivent simplement du code pour atteindre un objectif simple, leur travail est déjà en danger. Microsoft, par exemple, a je crois licencié des gens parce qu'elle peut confier cette programmation de routine à l'IA. Et beaucoup d'entreprises disent maintenant qu'elles vont embaucher moins de personnes pour faire des travaux de ce type. Il y a des choses liées à la dextérité humaine, donc des métiers comme la plomberie, particulièrement la plomberie dans une vieille maison édouardienne... J'ai une vieille maison édouardienne et réparer la plomberie là-dedans est quelque chose qui nécessitera encore des gens pendant assez longtemps, je pense. Mais à terme, les machines deviendront adroites, peut-être dans 10 ou 20 ans, et même cela ne sera pas sûr. Les interviews présentent actuellement beaucoup de compétences pour lesquelles les ordinateurs ne sont pas encore aussi bons que les humains. Il faut être un peu charmant et réaliser quand le public ne va pas comprendre le jargon technique produit par la personne et essayer de trouver une question qui l'oblige à dire quelque chose de plus facile à comprendre. Les ordinateurs ne sont pas encore tout à fait aussi bons que les humains pour ça, mais ils y arriveront.

Empathie de l'IA et domaines créatifs

Katie Couric

J'imaginerais aussi que les métiers qui demandent une grande intelligence émotionnelle, des compétences relationnelles, une infirmière dans un hôpital, un médecin, quelqu'un qui est là pour faire l'interface avec quelqu'un dans un rôle de soutien, que ces métiers ne pourraient pas vraiment être remplacés par des ordinateurs, n'est-ce pas ?

Geoffrey Hinton

Ils le peuvent et ils le seront. Déjà, si vous laissez les gens interagir avec un médecin ou avec une IA et que vous leur demandez laquelle est la plus empathique, les IA sont classées comme beaucoup plus empathiques.

Katie Couric

C'est déprimant.

Geoffrey Hinton

Oui. C'est pour cela qu'elles vont devenir meilleures que nous dans tous les domaines. C'est pourquoi il est assez urgent de déterminer s'il existe un moyen, lorsqu'elles seront meilleures que nous en tout et plus puissantes que nous, de coexister avec elles ou si nous ne serons plus que de l'histoire ancienne.

Katie Couric

Je voulais vous interroger sur les domaines créatifs. Égoïstement, ma fille est scénariste pour la télévision, mon autre fille prépare un doctorat en histoire. Devraient-elles chercher une autre voie ?

Geoffrey Hinton

Pas pour le moment. J'ai un ami proche qui est scénariste de télévision, et nous en discutons souvent. Pour l'instant, elles ne sont pas aussi bonnes. Ma conviction est que dans 10 ans, elles seront capables d'écrire des scénarios très intelligents avec des rebondissements à la fin et tout le reste. Elles ne peuvent pas le faire maintenant, mais elles s'améliorent tout le temps.

Katie Couric

Et qu'en est-il d'un doctorat en histoire ?

Geoffrey Hinton

Encore une fois, le point est qu'une fois que l'on a compris que ces choses vont finir par en savoir beaucoup plus que nous, elles en savent déjà beaucoup plus que nous, être beaucoup plus intelligentes que nous au sens où si vous aviez un débat avec elles sur n'importe quel sujet, vous perdriez, être plus intelligentes émotionnellement que nous, ce qu'elles seront, elles seront meilleures pour manipuler les gens. Déjà, par exemple, si vous prenez une IA, et je pense que c'était il y a plus d'un an, vous prenez une IA et vous prenez une personne et vous les incitez à essayer de manipuler quelqu'un d'autre, alors l'IA est comparable à la personne. Et si l'IA peut voir la page Facebook de cette personne, si elles peuvent toutes deux voir la page Facebook, l'IA est en fait meilleure qu'une personne pour la manipuler. Et elle a appris toutes ces compétences de manipulation simplement en essayant de prédire le mot suivant dans tous les documents du web, parce que les gens manipulent beaucoup et l'IA a appris par l'exemple comment le faire.

Revenu universel et sens du travail

Katie Couric

Vous dites que c'est un problème politique plutôt que technologique. Est-ce qu'une chose comme le revenu universel de base est une solution au fait que tant d'emplois seront supprimés par l'IA ?

Geoffrey Hinton

Ce n'est pas une solution, mais c'est un bon pansement. L'essentiel est d'empêcher les gens de mourir de faim. Ils doivent pouvoir payer leur loyer. Et le revenu universel de base y contribuera, mais il ne résout pas le problème car pour la plupart des gens, le sentiment de leur propre valeur est lié au travail qu'ils font. Et s'ils sont au chômage, ils perdent ce sentiment de valeur. Et le revenu universel de base ne traite pas cela. Il les empêche de mourir de faim et ils peuvent payer le loyer, mais ce qu'ils sont a été sérieusement endommagé par la perte de leur emploi.

Katie Couric

Je ne pourrais pas être plus d'accord avec vous. Je pense que la plupart des gens tirent une grande partie de leur identité de leur travail et du sentiment de contribuer à quelque chose. Alors, comment atténuer l'impact psychologique du sentiment de ne pas avoir de but et de ne pas apporter de contribution au monde ? N'y a-t-il pas d'autres moyens de le faire sans être rémunéré pour cela ?

Geoffrey Hinton

Je ne connais pas la réponse à cette question. Je suis juste un scientifique qui a aidé à développer tout cela et je m'inquiète maintenant de toutes les conséquences, et je me sens une certaine responsabilité pour essayer de gérer les conséquences, mais je ne suis pas un expert sur la façon de gérer des choses comme ça.

L'IA dans la santé et la médecine

Katie Couric

Oui. Eh bien, c'est un énorme problème, comme vous l'avez noté. Je veux parler un peu de certains aspects positifs de l'IA pour que les gens ne pleurent pas de désespoir après avoir regardé ceci. Je sais que la santé est un domaine qui vous passionne, comme moi. Je sais que vous avez perdu deux épouses à cause du cancer, l'une d'un cancer de l'ovaire, l'autre d'un cancer du pancréas. Mon mari est mort d'un cancer du côlon alors qu'il n'avait que 42 ans. Et donc le diagnostic des cancers à un stade précoce et vraiment les percées dans toutes sortes de maladies et le diagnostic précoce pour celles-ci sont des choses qui me passionnent énormément, tout comme vous. Pouvez-vous nous dire un mot sur l'impact que cela aura sur les soins de santé et les percées scientifiques en termes de maladies ?

Geoffrey Hinton

Oui. Il y a de nombreuses façons différentes dont cela aidera. Une façon évidente est l'interprétation des scanners médicaux. J'ai prédit en 2016 que d'ici maintenant tous les scanners médicaux seraient lus par l'IA. C'était un peu trop enthousiaste. Je me suis trompé d'un facteur deux ou trois sur l'échelle de temps. Ça va arriver, mais ce n'est pas encore le cas. Mais déjà, des endroits comme la Mayo Clinic ont de nombreuses IA différentes qui aident les médecins à interpréter les scanners. Et les IA seront un jour capables de voir beaucoup plus d'informations dans un scanner. Il y a un bel exemple. Les ophtalmologistes font un scanner appelé image du fond d'œil de votre rétine, l'arrière de votre œil. Et déjà les IA peuvent voir toutes sortes de choses dans ces scanners que les ophtalmologistes ne peuvent pas voir et ne savaient pas qu'elles s'y trouvaient. Une IA peut regarder un scanner du fond de votre œil et faire une prédiction assez bonne sur le fait que vous allez faire une crise cardiaque. Les médecins ne savaient pas que c'était possible. Et c'est parce que les vaisseaux sanguins y sont visibles. Ou une IA peut regarder cette image du fond de votre œil et faire une assez bonne prédiction de votre sexe juste à partir de l'image de l'arrière de votre œil. Les médecins ne savaient pas que c'était possible. Les IA vont pouvoir voir énormément plus d'informations dans ces images que les médecins. Cela prendra un certain temps. La profession médicale est très conservatrice. Mais au final, une IA peut regarder des millions et des millions d'images et regarder tous les résultats et corréler les deux, et ainsi trouver les preuves qui prédisent toutes ces choses. Et les médecins ne peuvent pas faire ça. Aucun médecin ne peut regarder plus de quelques dizaines de milliers d'images. Cela prend trop de temps. Elles vont donc être formidables là-bas. Elles vont être formidables pour concevoir de nouveaux médicaments. Elles sont déjà douées pour des choses comme dire combien de temps les gens devraient rester à l'hôpital avant d'être renvoyés chez eux. Si vous les renvoyez trop tôt, ils retombent malades. Si vous les renvoyez trop tard, d'autres personnes ne peuvent pas avoir le lit d'hôpital. Et il y a beaucoup d'informations dans les données pour vous aider à prendre cette décision plus efficacement. Et l'IA est utilisée pour des choses comme ça maintenant.

Katie Couric

Qu'en est-il... pouvez-vous en dire plus sur le développement des médicaments ? Au fait, je suis très enthousiaste quant à sa capacité prédictive. Je connais une femme au MIT qui était une patiente atteinte d'un cancer du sein et une technologue. J'ai lu un article sur elle il y a quelques années. En gros, elle avait un cancer du sein, mais maintenant vous allez non seulement pouvoir détecter la maladie, mais comme vous l'avez mentionné, les données de millions de scanners donneront aux experts la capacité de dire ce qui se passe au niveau de votre tissu mammaire et, par rapport à toutes ces autres personnes qui ont eu un cancer du sein, il est probable que vous en receviez le diagnostic et, par conséquent, nous devons vous dépister plus régulièrement ou plus souvent.

Geoffrey Hinton

C'est exact. Le fait est que dans les données médicales que les gens possèdent déjà, les résultats des tests, les comptes rendus d'entretiens avec le médecin, les antécédents du patient, les antécédents de ses proches, il y a une quantité énorme d'informations qui ne sont pas exploitées. Si vous ajoutez à cela leur génome, il devient très peu coûteux maintenant de séquencer le génome des gens, d'ajouter les informations du génome, il y a de vastes quantités d'informations que nous n'exploitons pas correctement et l'IA nous aidera à les exploiter pour obtenir de bien meilleurs soins de santé.

Katie Couric

Pouvez-vous nous parler encore un peu du développement des médicaments et des percées thérapeutiques, ainsi que des différentes approches des maladies, qu'il s'agisse de maladies neurodégénératives comme la SLA et Parkinson ou de divers cancers pour lesquels vous disposez de thérapies ciblées plus personnalisées ou d'une sorte de nouvelle voie, qu'il s'agisse de l'immunothérapie ou de la stimulation du système immunitaire. Quel rôle voyez-vous l'IA jouer dans tout cela ?

Geoffrey Hinton

L'IA va être cruciale pour toutes ces choses. Dans l'immunothérapie, par exemple, ce que vous aimeriez faire, c'est entraîner votre propre système immunitaire à éliminer un cancer. Votre propre système immunitaire est assez doué pour ne pas s'attaquer à vos cellules, bien plus que des choses comme la chimiothérapie qui bombarde tout et espère que les cellules cancéreuses meurent et que les autres non. Pour l'entraîner, vous devez en quelque sorte lui dire quelles sont les cellules cancéreuses. Et l'IA va être très utile pour rendre cela plus efficace. L'IA va être très utile pour concevoir de nouveaux médicaments. L'équipe de DeepMind dirigée par Demis Hassabis a mis au point un moyen de regarder la séquence d'une protéine et de prédire comment elle se replierait. Et la forme qu'elle prend en se repliant détermine son fonctionnement. Ainsi, lorsque vous concevez un nouveau médicament, vous voulez trouver quelque chose qui interagira de la bonne manière avec les cellules qui sont déjà dans votre corps. Et pour ce faire, vous devez savoir comment il se repliera. Le travail effectué chez DeepMind nous permet d'être bien meilleurs dans ce domaine. Et ils ont maintenant créé une entreprise dérivée qui se consacrera à la conception de nouveaux médicaments. Et je pense que, peut-être pas dans l'année ou les deux ans à venir, mais à un peu plus long terme, nous aurons toute une gamme de meilleurs médicaments.

Responsabilité des entreprises et sécurité

Katie Couric

C'est tellement passionnant pour moi. Nous avons donc cela en perspective, pour éviter à beaucoup de gens des souffrances indicibles et potentiellement mettre au point des thérapies salvatrices, dont je sais que vous auriez aimé qu'elles existent lorsque vous avez perdu des proches à cause du cancer. J'aurais certainement aimé qu'elles existent quand mon mari est tombé malade. Je me demande si vous pourriez nous parler des entreprises qui lancent l'IA dans le monde et si vous avez l'impression qu'elles en font assez pour atténuer les risques énormes que vous avez exposés jusqu'ici.

Geoffrey Hinton

Je n'ai pas l'impression qu'aucune d'entre elles en fasse assez. Certaines en font plus que d'autres. Anthropic a été créée par des personnes qui ont quitté OpenAI parce qu'elles désapprouvaient le peu de recherches qu'OpenAI effectuait sur la sécurité, même si OpenAI a été créée avec l'objectif explicite de développer l'IA en toute sécurité. Anthropic travaille beaucoup pour s'assurer que ses IA sont sûres, mais elles pourraient en faire encore plus. OpenAI était à l'origine très préoccupée par la sécurité. Elle a été créée par Sam Altman, Elon Musk, un de mes anciens étudiants, Ilya Sutskever, et John Brockman, avec l'objectif explicite de créer une IA sûre. Et au fil du temps, ils se sont de plus en plus souciés de rendre l'IA plus intelligente et de moins en moins de la rendre plus sûre. Sam Altman a donc en quelque sorte beaucoup évolué vers le fait de la développer rapidement sans trop se soucier de la sécurité. Il y a un procès très amusant en cours actuellement où Elon Musk poursuit Sam Altman pour ne pas avoir respecté l'objectif initial de développer l'IA en toute sécurité. Eh bien, Elon Musk développe lui-même Grok sans trop se soucier de la sécurité. Donc, tout en bas de l'échelle, on trouve des entreprises comme Meta et X, qui développent l'IA sans trop se soucier de la sécurité.

Katie Couric

Que diriez-vous si vous pouviez vous retrouver dans une pièce avec Sam Altman et Elon Musk à une table, ce qui semble encore moins probable qu'une rencontre face à face entre Poutine et Zelensky, mais si vous aviez cette opportunité...

Geoffrey Hinton

Je pense qu'il est fort probable qu'ils se voient. Ils se connaissent assez bien.

Katie Couric

Mais je pensais qu'ils se détestaient.

Geoffrey Hinton

Ils se détestent actuellement.

Katie Couric

D'accord, disons qu'ils acceptent de s'asseoir. Que diriez-vous à ces deux personnes ?

Geoffrey Hinton

Je dirais : vous savez parfaitement que ce que vous développez a de fortes chances d'anéantir l'humanité. Vous êtes prêts à le dire en privé. Vous devriez consacrer beaucoup plus d'efforts à le développer d'une manière qui garantisse sa sécurité. Et Musk a raison, je pense, quand il dit qu'Altman devrait y consacrer plus d'efforts, mais il devrait appliquer la même logique à lui-même.

Katie Couric

Qu'est-ce qui les empêche de le faire, selon vous ? L'appât du gain ?

Geoffrey Hinton

Essentiellement, oui. Ils veulent gagner beaucoup d'argent avec l'IA. Ils veulent aussi développer l'IA. Ils aimeraient être les premiers à fabriquer une IA super intelligente. Ce n'est donc pas seulement l'argent, c'est l'excitation de fabriquer quelque chose de plus intelligent que nous. Mais c'est très dangereux.

Obligations éthiques et vision d'avenir

Katie Couric

Peut-être une combinaison d'avidité et d'ego, alors. Je voulais vous interroger sur les obligations éthiques des scientifiques, un sujet dont vous avez beaucoup parlé et que vous avez également abordé dans cette conversation. Lorsque vous regardez les jeunes chercheurs qui se lancent maintenant dans l'IA, qu'espérez-vous qu'ils comprennent de la gravité et des inconvénients potentiels de l'intelligence artificielle ?

Geoffrey Hinton

Je pense qu'ils comprennent mieux que les personnes plus âgées comme moi. Beaucoup des meilleurs jeunes chercheurs en sont très préoccupés.

Katie Couric

Pourquoi pensez-vous cela ?

Geoffrey Hinton

Parce qu'ils voient clairement qu'il est probable que nous développions des choses bien plus intelligentes que nous et que nous ne savons pas comment les empêcher de prendre le dessus sur nous. C'est cette combinaison. Ces choses vont arriver parce qu'il y a tellement de bonnes utilisations pour elles, comme la détection précoce du cancer ou de nouveaux traitements contre le cancer, permettant à votre système immunitaire de mieux combattre le cancer. C'est pourquoi nous n'allons pas arrêter les progrès. Mais ils comprennent aussi qu'il est tout simplement invraisemblable de dire que nous aurons des assistants extrêmement intelligents capables de créer leurs propres sous-objectifs, de faire des plans pour eux-mêmes sur la façon de faire les choses, et qu'ils ne réaliseront pas assez vite que s'ils se débarrassaient simplement de nous, la vie serait beaucoup plus facile.

Katie Couric

Lorsque vous regardez l'avenir, Dr Hinton, compte tenu des conversations que vous avez eues, des personnes que vous rencontrez, de votre compréhension de l'humain et de sa façon d'opérer et de résoudre les problèmes, et de savoir si oui ou non ses meilleurs penchants l'emportent, êtes-vous optimiste quant au fait que nous serons en mesure de garantir que l'intelligence artificielle soit une force pour le bien ou qu'elle puisse au moins être contrôlée, ou êtes-vous pessimiste au bout du compte ?

Geoffrey Hinton

D'accord, je suis plus optimiste qu'il y a quelques semaines.

Katie Couric

Vraiment ?

Geoffrey Hinton

Oui. Et c'est parce que je pense qu'il y a un moyen de coexister avec des choses plus intelligentes et plus puissantes que nous et que nous avons construites. Parce que nous les construisons, en plus de les rendre très intelligentes, nous pouvons essayer d'intégrer quelque chose comme un instinct maternel. Comme je l'ai dit plus tôt, le seul exemple que je connaisse d'une chose beaucoup plus intelligente contrôlée par une chose beaucoup moins intelligente est un bébé contrôlant sa mère. Et le bébé peut contrôler la mère à cause de beaucoup de choses que l'évolution a câblées chez la mère. La mère ne supporte pas que le bébé pleure. La mère veut vraiment que ce bébé réussisse et fera plus ou moins tout ce qu'elle peut pour s'assurer qu'il réussisse. Nous voulons que l'IA soit ainsi. Les dirigeants des entreprises technologiques pensent tous en termes de patron pour nous et d'assistant soumis pour l'IA. Quelque chose de très intelligent, mais c'est nous qui commandons, c'est notre assistant et nous pouvons le licencier si nous le voulons. Nous sommes le patron. Parce que c'est ainsi qu'ils pensent. Ce n'est pas réalisable, je pense, pour une super intelligence extrêmement puissante. Ce qui est réalisable, c'est qu'elle soit la mère et que nous soyons le bébé. Et même si elle peut réécrire son propre code si elle le souhaite, elle ne le voudra pas. Si vous preniez une mère et que vous lui demandiez : voudriez-vous désactiver votre instinct maternel ? La plupart des mères diraient non car elles réaliseraient que si elles faisaient cela, leur bébé mourrait et elles ne veulent pas que leur bébé meure. Je pense donc que c'est une lueur d'espoir que je n'avais pas vue jusqu'à tout récemment. Recadrer complètement le problème de notre coexistence avec elles. Ne pensez pas en termes de domination, ce qui est la façon de penser des tech bros. Pensez en termes de conception de mères qui voudront le meilleur pour nous. Elles voudront que nous accomplissions le plus possible, même si nous ne sommes pas très brillants.

Katie Couric

Nous sommes donc les bébés et l'IA est la mère.

Geoffrey Hinton

Et il est difficile pour les gens de se faire à cette nouvelle vision parce que...

Katie Couric

J'essaie, j'essaie.

Geoffrey Hinton

Nous sommes tellement habitués à nous considérer comme l'intelligence suprême. Il est très difficile pour la plupart des gens de conceptualiser un monde dans lequel nous ne sommes pas l'intelligence suprême. Nous sommes les bébés et elles sont les mères.

Conclusion et avenir du journalisme

Katie Couric

Eh bien, c'est une approche fascinante. Je vais continuer à y réfléchir. Dr Geoffrey Hinton, ce fut un tel plaisir de discuter avec vous. Peut-être pourrons-nous recommencer une autre fois, à mesure que tout cela se développe et, espérons-le, vous avez raison, il pourra y avoir un effort de collaboration entre les nations qui ne freinera pas l'IA, mais s'assurera qu'elle ne prenne pas le contrôle et ne nous rende pas virtuellement obsolètes.

Geoffrey Hinton

Eh bien, merci de m'avoir invité et merci pour toutes vos excellentes questions et vos petites interventions pour m'empêcher de parler jargon technique.

Katie Couric

Pensez-vous que je serai remplacée par l'IA ? Les journalistes s'en inquiètent, évidemment.

Geoffrey Hinton

Oh oui, je pense que vous êtes remplaçable par l'IA, mais pas tout de suite. Je dirais que vous avez encore 10 ou 20 ans.

Katie Couric

J'ai encore quelques années ? D'accord, tant mieux puisque j'ai 68 ans, mais je me sens mal pour tous les jeunes journalistes qui veulent faire ce que je fais.

Geoffrey Hinton

Je suis d'accord.

Katie Couric

Peut-être devraient-ils trouver autre chose à faire ?

Geoffrey Hinton

Mais on ne sait pas vraiment quoi.

Katie Couric

Bien, sur cette note, je vais vous dire au revoir. Nous terminions sur une note si positive, Dr Hinton.

Geoffrey Hinton

Eh bien, vous n'avez qu'à couper la dernière partie.