Les risques existentiels de l'IA et la nécessité d'une réglementation
31 mai 2023
Intelligence Artificielle
Introduction et risques d'extinction
L'un des parrains de l'IA se joint à moi maintenant, le fondateur et directeur scientifique de l'Institut d'IA Mila-Québec, Yoshua Bengio. Il a partagé le prix Turing pour ses travaux pionniers sur l'intelligence artificielle. Yoshua, merci beaucoup d'être parmi nous.
Merci de m'avoir invité.
Vous avez signé cette lettre. L'extinction humaine est terrifiante, mais la question suivante que les gens se posent est : comment exactement ? Qu'est-ce que cela signifie ? Je me demande si vous pouvez me donner un scénario de catastrophe spécifique qui pourrait découler d'un emballement de cette technologie d'IA.
Scénarios de danger et vulnérabilités
Je ne pense pas que l'état actuel de l'IA rendrait cela possible. Les machines que nous avons sont incroyablement impressionnantes, mais il leur manque encore des éléments de l'intelligence humaine, comme le raisonnement. Il se pourrait que dans quelques années, nous ayons des machines beaucoup plus intelligentes que nous. Si nous devions créer des entités plus intelligentes que nous, comment se comporteraient-elles envers l'humanité ? C'est difficile à dire. Le fait que les logiciels et le matériel soient facilement accessibles signifie également que le danger serait multiplié, contrairement au cas des armes nucléaires. Des pirates informatiques du monde entier pourraient potentiellement y accéder parce qu'ils ont des intentions criminelles ou pour des raisons militaires, déclenchant quelque chose de très dangereux pour de nombreuses personnes sur cette planète.
Juste pour m'attarder sur ce point, car c'est difficile à concevoir et à comprendre pourquoi les chercheurs en IA sont si inquiets. Quand nous pensons à l'IA mettant fin à l'humanité, nous pensons aux films et aux robots tueurs. Est-ce à cela que vous pensez, ou à quelqu'un qui piraterait la technologie pour lancer des bombes nucléaires, ou qui l'utiliserait pour pirater nos systèmes afin d'empoisonner notre approvisionnement en eau ?
Toutes sortes de choses pourraient arriver, mais dans un avenir prévisible, ce ne sera pas comme les films de type Terminator. Nous n'avons pas d'assez bons robots ni la quantité de données pour les entraîner comme nous avons d'énormes quantités de texte, qui rendent possibles ces systèmes qui comprennent le langage et peuvent manipuler les gens. C'est dangereux pour la démocratie, mais c'est peut-être ainsi qu'ils finiront par faire bouger les choses. Une fois qu'ils auront accès à Internet et aux vulnérabilités de cybersécurité, ils pourraient agir dans le monde même s'ils n'ont pas de membres ni de corps réels.
Échéances et imprévisibilité du développement
Vous dites que la technologie sera peut-être assez performante pour faire quelque chose de ce genre dans quelques années ?
C'est possible. Cela pourrait être dans quelques années, ou dans 50 ans. Le plus tôt que cela puisse arriver, je pensais que ce serait dans des décennies, mais maintenant cela pourrait être dans quelques années. J'espère que je me trompe et que c'est encore à des décennies de nous, mais pouvons-nous prendre ce risque ?
Espérons que vous vous trompiez. Voici ma question. Quand les gens vous regardent, ils pensent que vous mettez en garde contre cela, tout en continuant à y travailler, à le développer, à le diffuser. Pourquoi ne pas tout arrêter et dire que c'est dangereux ? Comment n'avez-vous pas vu cela venir ?
Si vous regardez la génération actuelle de systèmes d'IA de pointe comme ChatGPT, il n'y a pas vraiment de percée scientifique. Il contient les ingrédients que nous connaissions déjà depuis plusieurs années. C'est vraiment une surprise de voir que lorsqu'on l'augmente avec beaucoup plus de données et de puissance de calcul, il commence à se comporter comme certains aspects de la cognition humaine. Personne ne s'y attendait.
Concurrence industrielle et réglementation
Pourquoi continuer à y travailler ? Pourquoi continuer à le développer ? Toutes ces entreprises et ces PDG disent que c'est vraiment dangereux et que nous devons faire quelque chose, mais il y a toujours une course pour améliorer la technologie et la sortir plus vite que le concurrent.
Je pense que le fait qu'il y ait une concurrence entre les entreprises pour faire cela est dangereux. Cela signifie que les normes éthiques pourraient ne pas être prises aussi sérieusement qu'elles devraient l'être. C'est exactement pour cela que je m'exprime.
La solution est-elle que les gouvernements la réglementent ? Est-ce assez facile pour les gouvernements de la réglementer et de dire que vous ne pouvez aller que jusque-là ?
Nous réglementons pratiquement tous les secteurs. Vous avez des réglementations énormes pour les avions et n'importe qui ne peut pas simplement piloter un avion. Nous avons besoin d'au moins ce niveau de contrôle.