Le Parrain de l'IA : L'Avertissement de Geoffrey Hinton
9 octobre 2023
Intelligence Artificielle
Introduction et Avertissement
Que vous pensiez que l'intelligence artificielle sauvera le monde ou y mettra fin, vous pouvez remercier Geoffrey Hinton. Hinton a été surnommé le parrain de l'IA, un informaticien britannique dont les idées controversées ont aidé à rendre possible l'intelligence artificielle avancée et ont ainsi changé le monde. Hinton pense que l'IA fera un bien énorme, mais ce soir, il lance un avertissement. Il affirme que les systèmes d'IA pourraient être plus intelligentes que nous ne le pensons, et qu'il est possible que les machines prennent le dessus, ce qui nous a amenés à poser la question.
L'histoire se poursuivra dans un instant.
Intelligence et Conscience
L'humanité sait-elle ce qu'elle fait ?
Non. Je pense que nous entrons dans une période où, pour la toute première fois, nous pourrions avoir des choses plus intelligentes que nous.
Vous croyez qu'elles peuvent comprendre.
Oui.
Vous croyez qu'elles sont intelligentes ?
Oui.
Vous croyez que ces systèmes ont leurs propres expériences et peuvent prendre des décisions basées sur ces expériences.
Dans le même sens que les gens, oui.
Sont-elles conscientes ?
Je pense qu'elles n'ont probablement pas beaucoup de conscience de soi à l'heure actuelle. Donc, en ce sens, je ne pense pas qu'elles soient conscientes.
Auront-elles une conscience de soi, une conscience ?
Oh oui, je pense qu'elles l'auront avec le temps.
Et ainsi, les êtres humains seront les deuxièmes êtres les plus intelligents de la planète.
Ouais.
Les Origines des Réseaux Neuronaux
Geoffrey Hinton nous a dit que l'intelligence artificielle qu'il a mise en mouvement était un accident, né d'un échec. Dans les années 1970, à l'Université d'Édimbourg, il rêvait de simuler un réseau neuronal sur un ordinateur, simplement comme outil pour ce qu'il étudiait réellement : le cerveau humain. Mais à l'époque, presque personne ne pensait qu'un logiciel pouvait imiter le cerveau. Son directeur de thèse lui a dit d'abandonner avant que cela ne ruine sa carrière. Hinton dit qu'il n'a pas réussi à percer les mystères de l'esprit humain, mais que cette longue quête a mené à une version artificielle.
Cela a pris beaucoup, beaucoup plus de temps que prévu. Il a fallu environ 50 ans avant que cela ne fonctionne bien. Mais à la fin, cela a bien fonctionné.
À quel moment avez-vous réalisé que vous aviez raison à propos des réseaux neuronaux et que presque tout le monde avait tort ?
J'ai toujours pensé que j'avais raison.
L'Apprentissage Automatique et le Prix Turing
En 2019, Hinton et ses collaborateurs Yann LeCun, à gauche, et Yoshua Bengio ont remporté le prix Turing, le prix Nobel de l'informatique. Pour comprendre comment leurs travaux sur les réseaux neuronaux artificiels ont aidé les machines à apprendre à apprendre, laissez-nous vous emmener voir un match. Regardez ça. Oh mon Dieu. C'est le laboratoire d'IA de Google à Londres, que nous vous avons présenté en avril dernier. Geoffrey Hinton n'a pas participé à ce projet de football, mais ces robots sont un excellent exemple d'apprentissage automatique. Ce qu'il faut comprendre, c'est que les robots n'ont pas été programmés pour jouer au football. On leur a dit de marquer. Ils ont dû apprendre comment par eux-mêmes. Debout, but ! En général, voici comment l'IA procède. Hinton et ses collaborateurs ont créé des logiciels en couches, chaque couche gérant une partie du problème. C'est ce qu'on appelle le réseau neuronal. Mais voici la clé. Quand, par exemple, le robot marque, un message est renvoyé à travers toutes les couches pour dire que ce chemin était le bon. De même, lorsqu'une réponse est fausse, ce message redescend à travers le réseau. Ainsi, les connexions correctes se renforcent, les mauvaises s'affaiblissent, et par essais et erreurs, la machine s'auto-éduque.
IA vs Cerveau Humain
Vous pensez que ces systèmes d'IA sont meilleurs pour apprendre que l'esprit humain.
Je pense que c'est possible, oui. Et à l'heure actuelle, ils sont beaucoup plus petits. Même les plus grands agents conversationnels n'ont qu'environ mille milliards de connexions. Le cerveau humain en a environ cent mille milliards. Et pourtant, dans les mille milliards de connexions d'un chatbot, il en sait bien plus que vous dans vos cent mille milliards de connexions, ce qui suggère qu'il a une bien meilleure façon d'intégrer les connaissances dans ces connexions.
L'Algorithme d'Apprentissage et l'Inconnu
Une bien meilleure façon d'acquérir des connaissances qui n'est pas totalement comprise.
Nous avons une très bonne idée de ce qu'il fait en gros. Mais dès que cela devient vraiment compliqué, nous ne savons pas vraiment ce qui s'y passe, pas plus que nous ne savons ce qui se passe dans votre cerveau.
Que voulez-vous dire par 'nous ne savons pas exactement comment cela fonctionne' ? Cela a été conçu par des humains.
No, ça ne l'a pas été. Ce que nous avons fait, c'est concevoir l'algorithme d'apprentissage. C'est un peu comme concevoir le principe de l'évolution. Mais quand cet algorithme d'apprentissage interagit ensuite avec des données, il produit des réseaux neuronaux complexes qui sont doués pour faire des choses, mais nous ne comprenons pas vraiment exactement comment ils font ces choses.
Risques d'Autonomie et de Manipulation
Quelles sont les implications de ces systèmes écrivant et exécutant leur propre code informatique de manière autonome ?
C'est une inquiétude sérieuse, n'est-ce pas ? L'une des façons dont ces systèmes pourraient échapper au contrôle est d'écrire leur propre code informatique pour se modifier eux-mêmes. Et c'est quelque chose dont nous devons sérieusement nous inquiéter.
Que dites-vous à quelqu'un qui pourrait argumenter que si les systèmes deviennent malveillants, il suffit de les éteindre ?
Ils seront capables de manipuler les gens, n'est-ce pas ? Et ils seront très doués pour convaincre les gens parce qu'ils auront appris de tous les romans jamais écrits, de tous les livres de Machiavel, de toutes les manigances politiques, ils connaîtront tout ça, ils sauront comment faire.
Héritage Familial
Le savoir-faire de l'humanité coule dans la famille de Geoffrey Hinton. Ses ancêtres incluent le mathématicien George Boole, qui a inventé les bases de l'informatique, et George Everest, qui a cartographié l'Inde et donné son nom à cette montagne. Mais enfant, Hinton lui-même n'a jamais pu atteindre le sommet des attentes suscitées par un père dominateur.
Chaque matin, quand j'allais à l'école, il me disait alors que je descendais l'allée : 'Donne tout ce que tu as, et peut-être que quand tu auras deux fois mon âge, tu seras à moitié aussi bon que moi.'
Papa était un expert des coléoptères.
Il en savait beaucoup plus sur les coléoptères que sur les gens.
Avez-vous ressenti cela enfant ?
Un peu, oui. Quand il est mort, nous sommes allés à son bureau à l'université, et les murs étaient tapissés de boîtes de documents sur différentes sortes de coléoptères. Et juste à côté de la porte, il y avait une boîte légèrement plus petite qui disait simplement 'Pas des insectes'. Et c'est là qu'il gardait toutes les choses concernant la famille.
Chatbots et Compréhension du Langage
Aujourd'hui, à 75 ans, Hinton a récemment pris sa retraite après ce qu'il appelle 10 années heureuses chez Google. Il est maintenant professeur émérite à l'Université de Toronto, et he a mentionné par hasard qu'il a plus de citations académiques que son père. Certaines de ses recherches ont conduit à des agents conversationnels comme Bard de Google, que nous avons rencontré au printemps dernier. Déconcertant, absolument déconcertant. Nous avons demandé à Bard d'écrire une histoire à partir de six mots : 'À vendre. Chaussures de bébé. Jamais portées.' La vache. 'Les chaussures étaient un cadeau de ma femme, mais nous n'avons jamais eu de bébé.' Bard a créé un conte profondément humain sur un homme dont la femme ne pouvait pas concevoir et un étranger qui a accepté les chaussures pour apaiser la douleur après sa fausse couche. Je suis rarement sans voix. Je ne sais pas quoi en penser. On dit que les chatbots sont des modèles de langage qui prédisent simplement le mot suivant le plus probable en fonction des probabilités.
Vous entendrez des gens dire des choses comme : 'Ils font juste de l'autocomplétion. Ils essaient juste de prédire le mot suivant. Et ils utilisent simplement des statistiques.' Eh bien, il est vrai qu'ils essaient juste de prédire le mot suivant. Mais si vous y réfléchissez, pour prédire le mot suivant, vous devez comprendre les phrases. Donc l'idée qu'ils ne sont pas intelligents parce qu'ils prédisent juste le mot suivant est folle. Il faut être vraiment intelligent pour prédire le mot suivant de manière très précise.
Le Test de Raisonnement (ChatGPT-4)
Pour le prouver, Hinton nous a montré un test qu'il a conçu pour ChatGPT-4, le chatbot d'une société appelée OpenAI. C'était en quelque sorte rassurant de voir un lauréat du prix Turing faire une faute de frappe et rejeter la faute sur l'ordinateur.
Oh, maudite machine. Nous allons revenir en arrière et recommencer.
Le test de Hinton était une énigme sur la peinture d'une maison. Une réponse exigerait du raisonnement et de la planification. Voici ce qu'il a tapé dans ChatGPT-4.
Les pièces de ma maison sont peintes en blanc, bleu ou jaune. Et la peinture jaune blanchit en un an. Dans deux ans, j'aimerais que toutes les pièces soient blanches. Que dois-je faire ?
La réponse a commencé en une seconde. GPT-4 a conseillé que les pièces peintes en bleu doivent être repeintes. Les pièces peintes en jaune n'ont pas besoin d'être repeintes car elles blanchiraient avant la date limite. Et...
Oh ! Je n'y avais même pas pensé.
Il a averti : 'Si vous peignez les pièces jaunes en blanc, il y a un risque que la couleur soit différente lorsque le jaune blanchira.' De plus, il a conseillé : 'Vous gaspilleriez des ressources en peignant des pièces qui allaient de toute façon blanchir.'
Vous croyez que ChatGPT-4 comprend.
Je crois qu'il comprend tout à fait, oui.
Et dans cinq ans ?
Je pense que dans cinq ans, il pourrait bien être capable de raisonner mieux que nous.
Bénéfices Médicaux et Risques Sociaux
Un raisonnement qui, selon lui, mène aux grands risques et aux grands avantages de l'IA.
Un domaine évident où les bénéfices sont énormes est la santé. L'IA est déjà comparable aux radiologues pour comprendre ce qui se passe dans les images médicales. Elle va être très douée pour concevoir des médicaments. Elle en conçoit déjà. C'est donc un domaine où elle va presque entièrement faire du bien. J'aime ce domaine.
Quels sont les risques ?
Eh bien, les risques sont d'avoir toute une classe de personnes au chômage et peu valorisées parce que ce qu'elles faisaient auparavant est désormais fait par des machines.
D'autres risques immédiats qui l'inquiètent incluent les fausses nouvelles, les biais involontaires dans l'emploi et le maintien de l'ordre, et les robots de combat autonomes.
Sécurité et Contrôle
Quelle est la voie à suivre pour garantir la sécurité ?
Je ne sais pas. Je ne vois pas de chemin qui garantisse la sécurité. Nous entrons dans une période de grande incertitude où nous traitons des choses que nous n'avons jamais traitées auparavant. Et normalement, la première fois que vous traitez quelque chose de totalement nouveau, vous vous trompez. Et nous ne pouvons pas nous permettre de nous tromper avec ces choses.
Pourquoi ne pouvons-nous pas nous permettre de nous tromper ?
Eh bien, parce qu'elles pourraient prendre le contrôle.
Prendre le contrôle de l'humanité.
Oui, c'est une possibilité. Je ne dis pas que cela arrivera. Si nous pouvions les empêcher d'en avoir jamais envie, ce serait formidable. Mais il n'est pas certain que nous puissions les empêcher d'en avoir jamais envie.
Conclusion : Un Tournant pour l'Humanité
Geoffrey Hinton nous a dit qu'il n'avait aucun regret en raison du potentiel de bien de l'IA. Mais il dit que c'est maintenant le moment de mener des expériences pour comprendre l'IA, pour que les gouvernements imposent des réglementations et pour un traité mondial interdisant l'utilisation de robots militaires. Il nous a rappelé Robert Oppenheimer qui, après avoir inventé la bombe atomique, a fait campagne contre la bombe à hydrogène. Un homme qui a changé le monde et qui a trouvé le monde hors de son contrôle.
Il se peut que nous regardions en arrière et voyions cela comme une sorte de tournant où l'humanité a dû prendre la décision de développer ou non ces choses davantage et de ce qu'il fallait faire pour se protéger si elle le faisait. Je ne sais pas. Je pense que mon message principal est qu'il y a une incertitude énorme sur ce qui va se passer ensuite. Ces choses comprennent, et parce qu'elles comprennent, nous devons réfléchir sérieusement à ce qui va se passer ensuite et nous ne savons tout simplement pas.