Geoffrey Hinton

Le Parrain de l'IA : L'Avertissement de Geoffrey Hinton

9 octobre 2023

Intelligence Artificielle
Illustration de Geoffrey Hinton

Introduction et Avertissement

Scott Pelley

Que vous pensiez que l'intelligence artificielle sauvera le monde ou y mettra fin, vous pouvez remercier Geoffrey Hinton. Hinton a été surnommé le parrain de l'IA, un informaticien britannique dont les idées controversées ont aidé à rendre possible l'intelligence artificielle avancée et ont ainsi changé le monde. Hinton pense que l'IA fera un bien énorme, mais ce soir, il lance un avertissement. Il affirme que les systèmes d'IA pourraient être plus intelligentes que nous ne le pensons, et qu'il est possible que les machines prennent le dessus, ce qui nous a amenés à poser la question.

Scott Pelley

L'histoire se poursuivra dans un instant.

Intelligence et Conscience

Scott Pelley

L'humanité sait-elle ce qu'elle fait ?

Geoffrey Hinton

Non. Je pense que nous entrons dans une période où, pour la toute première fois, nous pourrions avoir des choses plus intelligentes que nous.

Scott Pelley

Vous croyez qu'elles peuvent comprendre.

Geoffrey Hinton

Oui.

Scott Pelley

Vous croyez qu'elles sont intelligentes ?

Geoffrey Hinton

Oui.

Scott Pelley

Vous croyez que ces systèmes ont leurs propres expériences et peuvent prendre des décisions basées sur ces expériences.

Geoffrey Hinton

Dans le même sens que les gens, oui.

Scott Pelley

Sont-elles conscientes ?

Geoffrey Hinton

Je pense qu'elles n'ont probablement pas beaucoup de conscience de soi à l'heure actuelle. Donc, en ce sens, je ne pense pas qu'elles soient conscientes.

Scott Pelley

Auront-elles une conscience de soi, une conscience ?

Geoffrey Hinton

Oh oui, je pense qu'elles l'auront avec le temps.

Scott Pelley

Et ainsi, les êtres humains seront les deuxièmes êtres les plus intelligents de la planète.

Geoffrey Hinton

Ouais.

Les Origines des Réseaux Neuronaux

Scott Pelley

Geoffrey Hinton nous a dit que l'intelligence artificielle qu'il a mise en mouvement était un accident, né d'un échec. Dans les années 1970, à l'Université d'Édimbourg, il rêvait de simuler un réseau neuronal sur un ordinateur, simplement comme outil pour ce qu'il étudiait réellement : le cerveau humain. Mais à l'époque, presque personne ne pensait qu'un logiciel pouvait imiter le cerveau. Son directeur de thèse lui a dit d'abandonner avant que cela ne ruine sa carrière. Hinton dit qu'il n'a pas réussi à percer les mystères de l'esprit humain, mais que cette longue quête a mené à une version artificielle.

Geoffrey Hinton

Cela a pris beaucoup, beaucoup plus de temps que prévu. Il a fallu environ 50 ans avant que cela ne fonctionne bien. Mais à la fin, cela a bien fonctionné.

Scott Pelley

À quel moment avez-vous réalisé que vous aviez raison à propos des réseaux neuronaux et que presque tout le monde avait tort ?

Geoffrey Hinton

J'ai toujours pensé que j'avais raison.

L'Apprentissage Automatique et le Prix Turing

Scott Pelley

En 2019, Hinton et ses collaborateurs Yann LeCun, à gauche, et Yoshua Bengio ont remporté le prix Turing, le prix Nobel de l'informatique. Pour comprendre comment leurs travaux sur les réseaux neuronaux artificiels ont aidé les machines à apprendre à apprendre, laissez-nous vous emmener voir un match. Regardez ça. Oh mon Dieu. C'est le laboratoire d'IA de Google à Londres, que nous vous avons présenté en avril dernier. Geoffrey Hinton n'a pas participé à ce projet de football, mais ces robots sont un excellent exemple d'apprentissage automatique. Ce qu'il faut comprendre, c'est que les robots n'ont pas été programmés pour jouer au football. On leur a dit de marquer. Ils ont dû apprendre comment par eux-mêmes. Debout, but ! En général, voici comment l'IA procède. Hinton et ses collaborateurs ont créé des logiciels en couches, chaque couche gérant une partie du problème. C'est ce qu'on appelle le réseau neuronal. Mais voici la clé. Quand, par exemple, le robot marque, un message est renvoyé à travers toutes les couches pour dire que ce chemin était le bon. De même, lorsqu'une réponse est fausse, ce message redescend à travers le réseau. Ainsi, les connexions correctes se renforcent, les mauvaises s'affaiblissent, et par essais et erreurs, la machine s'auto-éduque.

IA vs Cerveau Humain

Scott Pelley

Vous pensez que ces systèmes d'IA sont meilleurs pour apprendre que l'esprit humain.

Geoffrey Hinton

Je pense que c'est possible, oui. Et à l'heure actuelle, ils sont beaucoup plus petits. Même les plus grands agents conversationnels n'ont qu'environ mille milliards de connexions. Le cerveau humain en a environ cent mille milliards. Et pourtant, dans les mille milliards de connexions d'un chatbot, il en sait bien plus que vous dans vos cent mille milliards de connexions, ce qui suggère qu'il a une bien meilleure façon d'intégrer les connaissances dans ces connexions.

L'Algorithme d'Apprentissage et l'Inconnu

Scott Pelley

Une bien meilleure façon d'acquérir des connaissances qui n'est pas totalement comprise.

Geoffrey Hinton

Nous avons une très bonne idée de ce qu'il fait en gros. Mais dès que cela devient vraiment compliqué, nous ne savons pas vraiment ce qui s'y passe, pas plus que nous ne savons ce qui se passe dans votre cerveau.

Scott Pelley

Que voulez-vous dire par 'nous ne savons pas exactement comment cela fonctionne' ? Cela a été conçu par des humains.

Geoffrey Hinton

No, ça ne l'a pas été. Ce que nous avons fait, c'est concevoir l'algorithme d'apprentissage. C'est un peu comme concevoir le principe de l'évolution. Mais quand cet algorithme d'apprentissage interagit ensuite avec des données, il produit des réseaux neuronaux complexes qui sont doués pour faire des choses, mais nous ne comprenons pas vraiment exactement comment ils font ces choses.

Risques d'Autonomie et de Manipulation

Scott Pelley

Quelles sont les implications de ces systèmes écrivant et exécutant leur propre code informatique de manière autonome ?

Geoffrey Hinton

C'est une inquiétude sérieuse, n'est-ce pas ? L'une des façons dont ces systèmes pourraient échapper au contrôle est d'écrire leur propre code informatique pour se modifier eux-mêmes. Et c'est quelque chose dont nous devons sérieusement nous inquiéter.

Scott Pelley

Que dites-vous à quelqu'un qui pourrait argumenter que si les systèmes deviennent malveillants, il suffit de les éteindre ?

Geoffrey Hinton

Ils seront capables de manipuler les gens, n'est-ce pas ? Et ils seront très doués pour convaincre les gens parce qu'ils auront appris de tous les romans jamais écrits, de tous les livres de Machiavel, de toutes les manigances politiques, ils connaîtront tout ça, ils sauront comment faire.

Héritage Familial

Scott Pelley

Le savoir-faire de l'humanité coule dans la famille de Geoffrey Hinton. Ses ancêtres incluent le mathématicien George Boole, qui a inventé les bases de l'informatique, et George Everest, qui a cartographié l'Inde et donné son nom à cette montagne. Mais enfant, Hinton lui-même n'a jamais pu atteindre le sommet des attentes suscitées par un père dominateur.

Geoffrey Hinton

Chaque matin, quand j'allais à l'école, il me disait alors que je descendais l'allée : 'Donne tout ce que tu as, et peut-être que quand tu auras deux fois mon âge, tu seras à moitié aussi bon que moi.'

Scott Pelley

Papa était un expert des coléoptères.

Geoffrey Hinton

Il en savait beaucoup plus sur les coléoptères que sur les gens.

Scott Pelley

Avez-vous ressenti cela enfant ?

Geoffrey Hinton

Un peu, oui. Quand il est mort, nous sommes allés à son bureau à l'université, et les murs étaient tapissés de boîtes de documents sur différentes sortes de coléoptères. Et juste à côté de la porte, il y avait une boîte légèrement plus petite qui disait simplement 'Pas des insectes'. Et c'est là qu'il gardait toutes les choses concernant la famille.

Chatbots et Compréhension du Langage

Scott Pelley

Aujourd'hui, à 75 ans, Hinton a récemment pris sa retraite après ce qu'il appelle 10 années heureuses chez Google. Il est maintenant professeur émérite à l'Université de Toronto, et he a mentionné par hasard qu'il a plus de citations académiques que son père. Certaines de ses recherches ont conduit à des agents conversationnels comme Bard de Google, que nous avons rencontré au printemps dernier. Déconcertant, absolument déconcertant. Nous avons demandé à Bard d'écrire une histoire à partir de six mots : 'À vendre. Chaussures de bébé. Jamais portées.' La vache. 'Les chaussures étaient un cadeau de ma femme, mais nous n'avons jamais eu de bébé.' Bard a créé un conte profondément humain sur un homme dont la femme ne pouvait pas concevoir et un étranger qui a accepté les chaussures pour apaiser la douleur après sa fausse couche. Je suis rarement sans voix. Je ne sais pas quoi en penser. On dit que les chatbots sont des modèles de langage qui prédisent simplement le mot suivant le plus probable en fonction des probabilités.

Geoffrey Hinton

Vous entendrez des gens dire des choses comme : 'Ils font juste de l'autocomplétion. Ils essaient juste de prédire le mot suivant. Et ils utilisent simplement des statistiques.' Eh bien, il est vrai qu'ils essaient juste de prédire le mot suivant. Mais si vous y réfléchissez, pour prédire le mot suivant, vous devez comprendre les phrases. Donc l'idée qu'ils ne sont pas intelligents parce qu'ils prédisent juste le mot suivant est folle. Il faut être vraiment intelligent pour prédire le mot suivant de manière très précise.

Le Test de Raisonnement (ChatGPT-4)

Scott Pelley

Pour le prouver, Hinton nous a montré un test qu'il a conçu pour ChatGPT-4, le chatbot d'une société appelée OpenAI. C'était en quelque sorte rassurant de voir un lauréat du prix Turing faire une faute de frappe et rejeter la faute sur l'ordinateur.

Geoffrey Hinton

Oh, maudite machine. Nous allons revenir en arrière et recommencer.

Scott Pelley

Le test de Hinton était une énigme sur la peinture d'une maison. Une réponse exigerait du raisonnement et de la planification. Voici ce qu'il a tapé dans ChatGPT-4.

Geoffrey Hinton

Les pièces de ma maison sont peintes en blanc, bleu ou jaune. Et la peinture jaune blanchit en un an. Dans deux ans, j'aimerais que toutes les pièces soient blanches. Que dois-je faire ?

Scott Pelley

La réponse a commencé en une seconde. GPT-4 a conseillé que les pièces peintes en bleu doivent être repeintes. Les pièces peintes en jaune n'ont pas besoin d'être repeintes car elles blanchiraient avant la date limite. Et...

Geoffrey Hinton

Oh ! Je n'y avais même pas pensé.

Scott Pelley

Il a averti : 'Si vous peignez les pièces jaunes en blanc, il y a un risque que la couleur soit différente lorsque le jaune blanchira.' De plus, il a conseillé : 'Vous gaspilleriez des ressources en peignant des pièces qui allaient de toute façon blanchir.'

Scott Pelley

Vous croyez que ChatGPT-4 comprend.

Geoffrey Hinton

Je crois qu'il comprend tout à fait, oui.

Scott Pelley

Et dans cinq ans ?

Geoffrey Hinton

Je pense que dans cinq ans, il pourrait bien être capable de raisonner mieux que nous.

Bénéfices Médicaux et Risques Sociaux

Scott Pelley

Un raisonnement qui, selon lui, mène aux grands risques et aux grands avantages de l'IA.

Geoffrey Hinton

Un domaine évident où les bénéfices sont énormes est la santé. L'IA est déjà comparable aux radiologues pour comprendre ce qui se passe dans les images médicales. Elle va être très douée pour concevoir des médicaments. Elle en conçoit déjà. C'est donc un domaine où elle va presque entièrement faire du bien. J'aime ce domaine.

Scott Pelley

Quels sont les risques ?

Geoffrey Hinton

Eh bien, les risques sont d'avoir toute une classe de personnes au chômage et peu valorisées parce que ce qu'elles faisaient auparavant est désormais fait par des machines.

Scott Pelley

D'autres risques immédiats qui l'inquiètent incluent les fausses nouvelles, les biais involontaires dans l'emploi et le maintien de l'ordre, et les robots de combat autonomes.

Sécurité et Contrôle

Scott Pelley

Quelle est la voie à suivre pour garantir la sécurité ?

Geoffrey Hinton

Je ne sais pas. Je ne vois pas de chemin qui garantisse la sécurité. Nous entrons dans une période de grande incertitude où nous traitons des choses que nous n'avons jamais traitées auparavant. Et normalement, la première fois que vous traitez quelque chose de totalement nouveau, vous vous trompez. Et nous ne pouvons pas nous permettre de nous tromper avec ces choses.

Scott Pelley

Pourquoi ne pouvons-nous pas nous permettre de nous tromper ?

Geoffrey Hinton

Eh bien, parce qu'elles pourraient prendre le contrôle.

Scott Pelley

Prendre le contrôle de l'humanité.

Geoffrey Hinton

Oui, c'est une possibilité. Je ne dis pas que cela arrivera. Si nous pouvions les empêcher d'en avoir jamais envie, ce serait formidable. Mais il n'est pas certain que nous puissions les empêcher d'en avoir jamais envie.

Conclusion : Un Tournant pour l'Humanité

Scott Pelley

Geoffrey Hinton nous a dit qu'il n'avait aucun regret en raison du potentiel de bien de l'IA. Mais il dit que c'est maintenant le moment de mener des expériences pour comprendre l'IA, pour que les gouvernements imposent des réglementations et pour un traité mondial interdisant l'utilisation de robots militaires. Il nous a rappelé Robert Oppenheimer qui, après avoir inventé la bombe atomique, a fait campagne contre la bombe à hydrogène. Un homme qui a changé le monde et qui a trouvé le monde hors de son contrôle.

Geoffrey Hinton

Il se peut que nous regardions en arrière et voyions cela comme une sorte de tournant où l'humanité a dû prendre la décision de développer ou non ces choses davantage et de ce qu'il fallait faire pour se protéger si elle le faisait. Je ne sais pas. Je pense que mon message principal est qu'il y a une incertitude énorme sur ce qui va se passer ensuite. Ces choses comprennent, et parce qu'elles comprennent, nous devons réfléchir sérieusement à ce qui va se passer ensuite et nous ne savons tout simplement pas.