The Coming Wave : Technologie, Pouvoir et le plus grand dilemme du 21e siècle
26 octobre 2023
Technologie et Intelligence Artificielle
Introduction et présentation du livre
Tout d'abord, merci encore d'être venu et d'avoir pris le temps de nous parler. Nikki a déjà fait une introduction à votre livre qui vient de paraître publiquement, « The Coming Wave : Technology, Power, and the 21st Century's Greatest Dilemma », qui décrit et analyse comment les progrès de l'IA, de la biologie synthétique et de plusieurs autres domaines techniques comme la robotique, l'informatique quantique et la nanotechnologie s'accélèrent et convergent pour entraîner un changement exponentiel dans le monde. Et cela va probablement arriver beaucoup plus tôt et beaucoup plus vite que les gens ne le pensent. Je l'ai lu. Le livre est extraordinaire. L'une des choses qui le rendent extraordinaire est qu'il est exceptionnellement bien structuré et très clair dans la façon dont vous présentez et expliquez les différents domaines de ces changements à venir. C'est impressionnant. Cela étant dit, c'est certainement un...
La mise en place.
Et voilà.
Ça arrive.
Je dirais que c'est certainement une lecture qui donne à réfléchir quand on prend du recul et que l'on regarde l'ampleur des changements et des défis que vous décrivez. Les avantages potentiels et les impacts positifs dont vous parlez sont peut-être les plus importants de l'histoire de l'humanité, et les risques potentiels et les inconvénients potentiels sont également parmi les plus importants de l'histoire de l'humanité. Pourriez-vous nous dire comment vous en êtes arrivé à un point où vous avez décidé d'écrire ce livre ?
Motivation derrière l'écriture du livre
Je ne pouvais pas m'empêcher de l'écrire. Cela mûrit en moi depuis que je suis impliqué dans l'IA, soit presque 12 ou 13 ans. Dès l'instant où j'ai rencontré pour la première fois les idées de ce que signifierait avoir un logiciel capable d'apprendre à s'améliorer, de faire des prédictions qui seraient capables de produire de nouvelles connaissances dans le monde, j'ai été captivé par cette idée. Cela m'a complètement électrisé. Tout dans notre monde aujourd'hui est un produit de l'intelligence. Cette capacité à digérer l'information, à faire des prédictions sur la façon dont le monde qui nous entoure pourrait évoluer, puis à intervenir dans le cours de ces prédictions pour produire des choses, inventer, créer, organiser, planifier et agir. À un niveau très abstrait, c'est l'essence de ce qui a produit tout ce qui a de la valeur dans le monde. Être capable de distiller cela dans un algorithme a toujours été une idée électrisante, sincèrement. Mais lorsque vous projetez cette trajectoire, elle s'accompagne d'avantages et de risques qui ne ressemblent à rien de ce que nous avons jamais vu auparavant. Je pense que la chose curieuse à propos du moment où nous nous trouvons est qu'il est possible de voir les deux simultanément, même s'ils semblent parfois contradictoires. Les gens me demandent souvent dans la presse et dans ce que j'ai fait ces derniers temps : êtes-vous un optimiste ou un pessimiste ? Parce que si vous écoutez un segment de 20 minutes de mon discours, on dirait que je suis un techno-optimiste et que nous nous dirigeons vers une abondance radicale. Nous le sommes.
Mais ensuite, si vous écoutez un autre aspect, je ressemble à un catastrophiste. Je pense en fait qu'il y a de la sagesse à maintenir simultanément ces deux positions contradictoires dans votre mémoire de travail. Et c'est en fait l'objectif du livre. C'est une provocation. J'ouvre en disant que le confinement n'est pas possible. Cette idée que nous pouvons perpétuellement créer des technologies qui sont toujours sous notre contrôle et dont nous sommes responsables. C'est une affirmation importante, mais je termine le livre en disant que cela doit être possible et je présente un certain nombre de façons dont cela peut l'être. Le livre en ce sens est très personnel. C'est le voyage que je poursuis depuis longtemps, aux prises avec les risques et les avantages.
Définition de « la vague à venir »
Pourriez-vous situer le contexte pour les personnes qui n'ont pas encore lu le livre ? Pourriez-vous décrire brièvement ce que vous appelez « la vague à venir » ? Quel est cet ensemble de technologies qui progressent et sont sur le point de se heurter et de s'intercepter ?
Il y a deux composantes centrales. La première est l'intelligence artificielle, la seconde est la biologie synthétique. L'IA est bien en avance sur la biologie synthétique, mais la biologie synthétique présente les mêmes caractéristiques et se trouve juste derrière nous. Pour situe le contexte du côté de l'IA, au cours des 10 dernières années, les gens se sont familiarisés avec la révolution de l'apprentissage profond (deep learning). Nous avons inventé cet outil appelé deep learning pour organiser et classer les informations brutes. Nous pouvons prendre des images, de l'audio et du texte, et nous pouvons réorganiser ces composants en représentations abstraites qui mènent finalement à des symboles : l'idée d'un chien et le mot chien contenus dans une image. Les phonèmes, la parole qui correspond au mot chien, qui est ensuite transcrite. Sur chaque modalité, nous avons été de plus en plus capables de classer les données brutes aussi bien que les performances humaines. Nous pouvons faire de la reconnaissance faciale parfaitement, nous pouvons faire de la transcription de la parole presque parfaitement, assez bien pour contrôler des voitures autonomes et la robotique. C'était la dernière décennie : la classification. L'autre côté de la médaille est que maintenant, les modèles peuvent effectuer un travail de compréhension du contenu de ces données d'entrée de niveau presque humain. Ils peuvent ensuite générer un exemple nouveau ou inédit de la classe qu'ils ont appris à reconnaître. Ils peuvent générer un nouveau chien. Il y a trois ans, nous avons vu les débuts de l'explosion de la génération d'images avec DALL-E et d'autres modèles. Et maintenant, nous l'avons vu au cours des 12 derniers mois avec GPT-3.5 et ChatGPT. Ce sont les deux faces d'une même pièce. À mesure que cette trajectoire se poursuit, que nous ajoutons plus de calcul et plus de données et que nous développons ces modèles, ils vont aller au-delà de la génération. Nous allons avoir une génération presque parfaite dans chaque modalité, y compris en vidéo. Et nous passerons ensuite à des espaces plus abstraits. La valeur résidera dans la génération de séquences d'actions. Tout comme un chef de projet définit un ensemble de tâches sur des semaines ou des mois, si je planifie mon livre, je suis capable de réfléchir à plusieurs niveaux d'abstraction et sur plusieurs horizons temporels, en m'assurant que chacun de ces composants se coordonne les uns avec les autres au fil du temps. Cette capacité de planification est celle qui est susceptible de venir ensuite. De l'autre côté, avec la biologie, la biologie computationnelle est un domaine qui nous voit prendre le langage de la vie et le transformer en langage de l'information. Nous pouvons maintenant enregistrer notre ADN assez bien pour pouvoir générer de nouveaux types d'ADN et de nouveaux composés. Nous passons de la classification à la génération du côté de la biologie également. Et cela permet ces dynamiques hyper-évolutionnaires parce que l'évolution des idées n'est plus limitée au déplacement d'objets physiques. Vous n'avez pas à inventer dans l'espace de la fabrication physique de biens. Vous pouvez inventer dans l'espace des idées qui peuvent bénéficier de toutes les autres dynamiques qui ont rendu la révolution logicielle incroyable, comme le traitement parallèle, l'accès très précis aux données et les données à grande échelle. C'est pourquoi ces deux vagues s'accélèrent comme rien de ce que nous avons jamais vu auparavant.
Croissance exponentielle et échelle du calcul
Il y a tellement de choses à décortiquer dans tout cela. Évidemment, il y a une multitude de choses vers lesquelles la vague à venir extrapole, la principale étant le problème du confinement. Avant d'aborder ce sujet, il pourrait être utile de parler des modèles. L'approche de l'apprentissage profond est passée de la classification à la génération. Tout le monde dans cette salle est familier avec ce que GPT-3.5, GPT-4 et les modèles d'Inflection peuvent faire à ce stade. J'aimerais parler de la façon dont la portée de ces modèles d'IA a progressé, car c'est important à saisir lorsque nous parlons de ce qui va arriver dans les prochaines années. Vous parlez dans votre livre et lors de vos apparitions de la croissance exponentielle des modèles. Quelle est la différence entre la portée du calcul et la complexité de ce dont nous parlons maintenant avec les modèles de pointe actuels par rapport à ce que nous avions il y a quelques années à peine et vos modèles originaux que vous produisiez chez DeepMind il y a une décennie ?
Les gens se sont un peu focalisés sur l'idée d'un GPT-2 ou d'un GPT-3 ou 4, pensant que l'incrément, parce qu'il s'agit d'une valeur scalaire unique, passant de trois à quatre, est linéaire. Ce n'est pas le cas. C'est exponentiel. C'est 10 fois plus de calcul pour passer de la génération 3 à la génération 4. Si vous mettez cela en contexte par rapport à la décennie précédente, lorsque nous avons entraîné pour la première fois le modèle Atari chez DeepMind en 2013, c'était une IA qui a appris à jouer à 56 jeux Atari à un niveau de performance humain simplement en lisant les pixels sur l'écran, en jouant contre elle-même des millions de fois et en apprenant à associer une action à un ensemble de pixels afin d'optimiser un score. Il n'y avait aucun enseignement des règles, aucun entraînement manuel de la part de l'humain, juste un apprentissage associatif entre les actions, les pixels et la récompense. De cette construction a émergé un joueur de jeux surhumain, et nous avons répété cela dans de nombreux domaines différents au fil des ans, y compris AlphaGo. Pour entraîner le joueur Atari DQN, nous avons utilisé deux pétaflops de calcul. Un flop est une opération à virgule flottante, un seul calcul. Un pétaflop est un million de milliards de calculs. Nous en avons utilisé deux. En 2013, nous avons utilisé deux de ces unités. Aujourd'hui, chez Inflection, nous avons l'un des plus grands superclusters au monde, le deuxième plus grand. Nous entraînons maintenant notre modèle actuel de Pi avec 10 milliards de pétaflops. 10 milliards de millions de milliards. C'est un nombre impossible à appréhender. Mais juste pour voir comment cela a changé, c'est 10 fois plus de calcul chaque année depuis 10 ans.
Croissance exponentielle.
C'est une croissance exponentielle. Beaucoup de gens connaissent la loi de Moore. C'est la densité des transistors, ou les puces qui deviennent moins chères tous les ans et demi depuis les années 60. Cela semble linéaire par rapport à cette trajectoire. L'échelle du calcul est le principal facteur qui a stimulé les progrès ici. Mais l'échelle des données d'entraînement est également impressionnante. Les meilleurs modèles de langage au monde aujourd'hui utilisent environ cinq billions de jetons. Un jeton est à peu près un mot ; cinq billions de mots. Il est impossible de lire quoi que ce soit de ce genre au cours d'une vie. On a estimé que l'humain moyen pourrait lire environ un milliard de mots au cours d'une vie entière. Les modèles utilisent déjà des dizaines de milliers de fois plus de données d'entraînement qu'on ne pourrait en consommer au cours d'une vie. Avec le calcul plus les données d'entraînement, l'intuition de base est qu'il apprend une connexion de tout à tout entre tous les mots. Il va chercher chaque instance de « le chat est assis sur le tapis » dans tout le contenu web ouvert en ligne. C'est difficile à concevoir, mais cela donne une intuition de la trajectoire sur laquelle nous nous trouvons.
Il y a une citation dans votre livre qui dit que le modèle PaLM de Google utilise tellement de calcul que si vous aviez une goutte d'eau pour chaque opération à virgule flottante utilisée pendant l'entraînement, cela remplirait le Pacifique. La trajectoire de ces modèles dépasse de loin la loi de Moore ou toute autre trajectoire que nous connaissons.
C'est exact. Cela semble incroyable, mais c'est aussi relativement prévisible. Dans le monde de l'IA avant ChatGPT, nous avons vu ces courbes, nous appelons cela du hill climbing. Nous gravissons cette courbe depuis longtemps. Nous pouvons maintenant prédire la quantité de calcul que nous allons utiliser, la quantité de données que nous allons utiliser et comment les méthodes vont évoluer au cours des prochains ordres de grandeur. En gros, la frontière actuelle aujourd'hui, les plus grands modèles au monde de Google, OpenAI, Inflection, sont à l'échelle de GPT-4. Chez Inflection, nous avons déjà assez de calcul pour multiplier cette échelle par 100 dans les 18 prochains mois.
Mais ce n'est que deux générations.
Ce ne sont que deux ordres de grandeur. C'est là que ces nouvelles capacités émergeront.
Transparence et déterminisme des modèles
Avant de passer à autre chose que les modèles, juste quelques autres points que je veux aborder pour le contexte. En ce qui concerne les types de modèles actuels utilisés pour l'IA générative, qu'il s'agisse de grands modèles de langage ou de génération d'images, même les créateurs ne peuvent pas vous dire exactement comment ils fonctionnent en interne ou comment ils produisent les résultats qu'ils produisent, n'est-ce pas ?
C'est exact.
Et existe-t-il actuellement des systèmes en place ou en cours de développement qui permettront à ces modèles d'être audités ou d'assurer la transparence sur la manière dont ils prennent leurs décisions ?
Il existe de nombreuses méthodes. Tout d'abord, il convient de préciser que nous ne comprenons pas bien comment la plupart des choses fonctionnent dans le monde aujourd'hui. Le problème a été présenté comme un problème d'explicabilité. Je pense qu'il n'est pas tout à fait utile de dire que nous devons être capables d'interroger chaque détail et de comprendre une relation causale entre tous les paramètres. Un cadre plus approprié consiste à demander la reproductibilité. Lorsque quelque chose fonctionne de manière cohérente et robuste de la même manière, comme prévu, cela correspond beaucoup plus à notre façon de travailler en tant qu'humains, en tant que comportementalistes. Nous recherchons la cohérence, la fiabilité et la stabilité. Je peux observer les actions que vous entreprenez et les mots que vous utilisez, et je peux parfois considérer les informations que vous recevez, mais la plupart du temps, je ne vois que vos résultats. C'est la base à partir de laquelle nous travaillons, et elle peut produire des résultats stables et fiables.
Mais les systèmes ne sont pas déterministes à l'heure actuelle. Si vous leur donnez plusieurs fois le même ensemble de paramètres, ils ne produiront pas de manière fiable les mêmes résultats.
Exact. Et c'est l'une de leurs forces. En un sens, cela fait partie de leur créativité. Ils produisent une distribution de probabilité sur les résultats. Vous pouvez ajuster la température du modèle et ainsi affecter l'endroit de cette distribution où vous souhaitez que le modèle produise un résultat. Une base de données traditionnelle ne peut vous donner précisément que ce que vous y avez mis. Le défi est de savoir comment contrôler cette température et de s'assurer que l'éventail des résultats possibles se situe toujours dans des limites sûres et acceptables pour nous. C'est la conversation autour des garde-fous et des contrôles. Fondamentalement, l'idée de confinement repose là-dessus. Comment amener les IA à se comporter de manière cohérente dans une plage définie de résultats acceptables ?
Le défi du confinement technologique
C'est une excellente transition vers le problème du confinement. C'était beaucoup de mise en contexte avant de passer réellement à ce qui est le cœur du livre que vous avez écrit, à savoir le problème du confinement. C'est l'axe central autour duquel tourne votre livre. C'est cet objectif ambitieux qui est mis sur la table de l'humanité, consistant à créer un système complexe pour contenir ces technologies et leurs effets. Comme vous l'avez déjà mentionné, le premier chapitre de votre livre s'intitule « Le confinement n'est pas possible ». Avant de parler de la manière dont le confinement pourrait potentiellement être réalisé, pourriez-vous nous expliquer pourquoi vous avez commencé le livre par cette affirmation ?
Le but était une provocation pour forcer le désaccord et encourager les gens à démontrer comment cela pourrait être possible. C'est une façon de structurer le débat autour du confinement, ce qui, je pense, est sain et important. La raison pour laquelle c'est important est qu'il va y avoir des incitations écrasantes qui favorisent la prolifération. Essentiellement, ce que font ces modèles, c'est qu'ils compressent le pouvoir. Considérez-les comme prenant l'intégralité du corpus des connaissances humaines ou toutes les images que nous avons jamais produites dans le monde et permettant soudainement de les transférer sur une clé de 2 gigaoctets. C'est une grande quantité de connaissances qui est maintenant compressée dans cette unité transférable. Pour le moment, il ne s'agit que de génération, un pouvoir significatif, mais comme je l'ai dit, la prochaine vague de capacités est la capacité de prendre des actions. Ce sera interactif. Cela planifiera sur des séries chronologiques. En ce sens, les capacités sont beaucoup plus significatives et lourdes de conséquences pour notre monde, tant en bien qu'en mal. Et les incitations à en posséder une sont énormes. Les objectifs commerciaux sont clairs, les objectifs militaires sont clairs, la course aux armements en matière d'IA avec la Chine, les chercheurs universitaires et scientifiques qui vont de l'avant parce que c'est inspirant. Tout le monde veut donc avoir sa propre version. L'écosystème sous-jacent tend par défaut vers la prolifération. Une autre raison pour laquelle j'ai écrit le livre est que je voulais examiner d'autres exemples historiques de vagues technologiques à usage général et voir s'il y avait des preuves convaincantes que nous avions pris quelque chose qui était manifestement précieux, qui nous rendait plus efficaces, plus productifs et en meilleure santé, et voir si nous avions réussi à contenir et à restreindre cela. Il y a un demi-exemple avec les armes nucléaires, mais elles sont très différentes parce qu'elles coûtent très cher et que l'uranium-235 est rare. Ce n'est donc pas une exception rassurante. En général, cela a été une bonne chose ; la prolifération a été le moteur du progrès qui a sorti des milliards de personnes de la pauvreté. Si vous avez quelque chose de manifestement bon, pourquoi ne pas s'assurer que tout le monde y ait accès le plus vite possible ? Le défi est que ces modèles sont intrinsèquement à usage universel. L'intelligence est l'essence de tout ce qui nous rend capables et productifs. Compresser l'intelligence dans cette unité transférable qui, dans 20 ans, circulera simplement sur un appareil comme celui-ci, probablement sans être non plus contrainte par le web, elle peut fonctionner entièrement hors ligne. C'est un changement profond dans ce que signifie être humain et dans la structure de la civilisation, et c'est pourquoi je le présente comme une menace pour l'État-nation, car l'objectif central de l'État-nation a été de contenir le pouvoir. C'est une menace potentielle à cet égard.
Comparaison avec le nucléaire et prolifération logicielle
Puis-je poser une question sur l'exemple nucléaire ? C'est évoqué dans de nombreuses discussions que vous avez. Je reconnais la validité de l'argument selon lequel c'est différent car le développement d'armes nucléaires implique une infrastructure massive, mais à l'heure actuelle, le développement des modèles de pointe n'est-il pas essentiellement le même ? Cela nécessite des connaissances spécialisées, coûte des centaines de millions de dollars pour entraîner ces modèles, et il faut du matériel spécialisé. Pour l'instant, l'ensemble des compétences et les moyens monétaires sont rares, ce qui va évidemment changer rapidement. L'industrie de l'IA ne semble pas disposée à ralentir, mais cela semble être potentiellement l'un des seuls points où le ralentissement pourrait réellement être efficace.
Je vois pourquoi vous pourriez penser cela, mais c'est assez différent de l'uranium-235 qui, tant que l'énergie nucléaire existera, sera un matériau rare et compliqué à manipuler. D'un autre côté, en ce moment, l'entraînement de ces très grands modèles nécessite des superclusters qui sont très coûteux. C'est vrai. Mais la trajectoire ne va pas seulement vers des clusters plus grands, mais vers des clusters plus petits et plus efficaces, ce qui est contre-intuitif. Typiquement, ce qui se passe, c'est que vous grandissez pour dépasser les performances humaines dans un domaine, puis tout le monde se rend compte que c'est précieux, alors vous trouvez des moyens plus efficaces de faire cela de plus en plus petit. Vous restez à ce niveau, mais vous rendez le modèle plus petit et moins cher à utiliser. C'est l'histoire de la technologie et particulièrement des logiciels.
Vous parlez donc de ChatGPT-3, qui a maintenant été réduit de 60 fois en termes de taille ?
Exactement. GPT-3, lors de sa sortie en 2020, comptait 175 milliards de paramètres. Les paramètres sont un indicateur approximatif de sa précision, mais aussi de son coût d'entraînement. Il y a trois mois, une version de GPT-3 entièrement open-source, aussi bonne que GPT-3, a été entraînée pour 100 000 dollars. Le modèle original a coûté entre 5 et 10 millions de dollars. Il a été entraîné pour un milliard et demi de paramètres, ce qui signifie qu'il peut fonctionner sur un téléphone et qu'il est 100 % open-source. L'open-source a environ deux ans et demi de retard sur la pointe de la technologie. C'est là le défi de la prolifération. Parce que c'est du logiciel, parce que ce ne sont que des idées, le matériel est une contrainte temporaire. De nombreux collectifs open-source ont réussi à rassembler des fonds pour le faire. Vous disposez ensuite, après l'entraînement, de cette unité de valeur mobile qui peut être transmise. C'est une belle histoire, car cela signifie qu'il ne s'agit pas seulement de tenir pour responsables les grands développeurs technologiques pour s'assurer que les gens y aient accès et en bénéficient, ce qui arrivera de toute façon. Il s'agit également de voir les choses incroyables que les gens font avec l'open-source. Pour le moment, je ne vois pas de menace significative de ce côté. Je pense que c'est une bonne chose. Nous devrions encourager tout le monde à utiliser ces modèles le plus rapidement possible, à les adapter et à les intégrer dans leurs flux de travail. C'est juste ce qui se passera dans 10, 15, 20 ans lorsqu'ils deviendront vraiment, vraiment puissants.
Les piliers du confinement
En parlant de confinement, votre livre commence par « Le confinement n'est pas possible » et se termine par le dernier chapitre qui dit « Le confinement doit être possible ». Vous esquissez 10 étapes vers le confinement et vous parlez de ce chemin étroit que nous devons parcourir. Elles impliquent des choses comme des stratégies d'atténuation technique détaillées, une coopération géopolitique coordonnée entre les gouvernements, une autorégulation par l'industrie technologique et des organismes de réglementation indépendants. C'est difficile à appréhender parce que ce chemin étroit vers le confinement semble tellement multidimensionnel avec tant d'acteurs différents dans le système. Dans votre livre, vous décrivez le confinement comme « un ensemble de mécanismes techniques, culturels, juridiques et politiques interconnectés et qui se renforcent mutuellement ».
Cela va donner envie aux gens de ne pas le lire. Ça a l'air si sec.
En fait, je n'ai même pas fini.
Pour maintenir le contrôle sociétal de la technologie pendant une période de changement exponentiel. Donc technique, culturel, juridique, politique.
Nous l'avons déjà fait de nombreuses fois auparavant. Prenez les voitures ou les avions, quel que soit l'exemple. C'est phénoménal à quel point les voitures sont réglementées. Tout dans la voiture est réglementé. La résistance du pare-brise, la ceinture de sécurité, les émissions, la vitesse, la formation du conducteur, les routes, les feux, les panneaux, tout est le plus contenu et réglementé que l'on puisse imaginer. Prenez l'aviation, par exemple. Il existe des composants d'un avion qui peuvent tomber en panne à 10 puissance moins 7. C'est une réussite incroyable. C'était dans l'intérêt de l'industrie, il y a une incitation au profit ainsi qu'une exigence réglementaire, d'essayer de rendre les avions aussi sûrs que possible. C'est pourquoi il y a une boîte noire qui suit la télémétrie et enregistre tout dans le cockpit. Chaque fois qu'il y a une erreur, on arrête tout sur la question de la concurrence et on partage l'information avec toutes les compagnies aériennes pour le bien de tous. Cela nécessite une culture de la sécurité, une intervention réglementaire, le dépassement des incitations au profit et une coordination politique mondiale.
Le contre-argument est que cela a pris des décennies.
Et si une voiture tombe en panne, cela ne va pas déstabiliser l'État-nation.
C'est aussi vrai. Les nouvelles technologies ont d'énormes effets de réseau, où il existe une possibilité d'effets d'entraînement catastrophiques qui sont sans aucun doute menaçants. Je pense que les enjeux sont plus élevés qu'un simple avion.
Géopolitique et gouvernance mondiale
De mon propre point de vue personnel, chacun de ces domaines semble presque insurmontable. Mais étrangement, si je pense aux questions technologiques, culturelles, juridiques, géopolitiques et sociétales, l'aspect technologique semble en fait être potentiellement le plus facile à résoudre. Vous soutenez que nous avons besoin d'un programme Apollo pour le confinement. C'est une excellente analogie car elle consiste à fixer un objectif apparemment impossible, puis à y affecter les meilleurs esprits avec les ressources dont ils ont besoin. Les mesures techniques sont tout à fait réalisables. Mais quand je regarde cela de concert avec des contradictions inhérentes comme les incitations géopolitiques et les incitations de l'industrie qui ne sont pas alignées, cela devient délicat.
La géopolitique évolue plus vite que jamais auparavant. La Maison Blanche a publié des engagements volontaires auxquels toutes les entreprises ont souscrit, et nous avons rencontré le président Biden. Ursula von der Leyen vient d'annoncer un GIEC pour l'IA, quelque chose que j'ai proposé dans mon livre et dans un article de Foreign Affairs. Le Royaume-Uni organise son sommet sur la sécurité de l'IA à Bletchley Park. L'Union européenne a la loi sur l'IA de l'UE qui est en cours depuis trois ans et qui est très sensée, très complète. Il n'y a pas de temps pour les sceptiques. Il y a du travail à faire, et nous devons encourager au maximum les initiatives expérimentales, les efforts de gouvernance que les entreprises tentent de s'imposer, ainsi que toutes les méthodes techniques. C'est le but de présenter l'argument de manière aussi frappante dans le livre. J'essaie de stimuler un appel à l'action et un regard très honnête et lucide. Nous n'avons pas encore vraiment parlé des avantages, mais cela en fait aussi partie intégrante.
L'une des choses qui m'a surpris, c'est quand vous parlez de la Chine. La Chine, en termes de développement commercial de l'IA, a mis en place des contrôles très sophistiqués. Ces contrôles ne s'étendent pas au côté gouvernemental et militaire, mais ils font preuve de beaucoup de sophistication dans la manière dont ils les contrôlent. Je pense que leurs motivations sont différentes, mais cela m'a beaucoup surpris.
C'est aussi un signe d'optimisme, car la Chine a démontré que l'on peut extraire des capacités et des connaissances de ces modèles, même si c'est à des fins de censure, mais ils ont montré que l'on peut être très délibéré dans la suppression de capacités. Nous l'avons également démontré. Notre propre IA s'appelle Pi, pour intelligence personnelle. Nous avons délibérément conçu Pi pour être extrêmement prudente et respectueuse. Elle fait très attention à ne porter aucun jugement et à n'avoir aucun parti pris d'aucune sorte. Il y a deux ans, il n'était pas certain qu'il soit possible de concevoir ces modèles pour qu'ils soient aussi précis. Les gens pensaient qu'ils allaient inévitablement être continuellement biaisés et toxiques. Il s'avère qu'avec beaucoup d'attention et de soin, on peut en fait produire un modèle hautement empathique, très respectueux, très contrôlé, et qui n'inclut pas certaines de ces autres capacités dangereuses comme le fait d'aider à développer des armes ou d'autres types de dommages. Avec toute la diligence et l'attention requises, les mécanismes techniques de contrôle appropriés arriveront.
Avantages et l'IA personnelle
Prenons une brève pause positive. Toutes ces technologies sont à usage universel. Quel est le domaine qui vous passionne le plus, ou où voyez-vous un avantage incroyable à court terme que les gens pourraient concrètement voir dans les prochaines années ?
Au cours des trois à cinq prochaines années, je crois vraiment que tout le monde aura accès à une IA personnelle. Imaginez avoir un tuteur, un éducateur, un enseignant dans votre poche 24h/24 et 7j/7, infiniment patient et capable de vous parler de tout ce que vous voulez apprendre. Votre IA personnelle va devenir un confident, un compagnon, un coach. Il est facile d'ignorer l'importance de cela dans le monde. Nous nous sommes habitués à penser au désavantage ou au privilège dans le contexte de la politique identitaire, mais ce qui est souvent négligé, c'est l'importance de la gentillesse et de l'attention. Avoir de l'empathie à sa disposition, avoir du soutien, des encouragements, avoir un outil à portée de main pour vous aider à prioriser et à planifier votre journée est un atout incroyable qui va libérer une créativité et une productivité énormes chez les gens. Ce sera assez bon marché. À terme, ce sera gratuit. Ce sera également largement accessible à tous. Je ne pense pas qu'il y aura cet écart d'inégalité que les gens craignent. Dans le contexte des téléphones portables et des ordinateurs portables, quel que soit votre niveau de richesse, tout le monde a le même smartphone. Cela ne règle pas les 60 ou 70 % restants et nous y travaillons. Mais le fait que l'on ne puisse pas acheter un matériel exclusif qui vous permettrait d'être cent fois meilleur que n'importe qui d'autre est une réussite méritocratique du système de marché et nous devrions prendre un moment pour louer à quel point les choses sont réellement bonnes et noter à quel point il est probable que cette méthode continuera à apporter des avantages incroyables.
Motivation personnelle et rôle de bâtisseur
Vous avez eu une très grande visibilité dans les médias ces deux derniers mois : interviews, podcasts, articles. Vous êtes ici aujourd'hui pour nous parler. L'une des choses qui m'a frappé est l'étendue des types de conversations que vous avez. Vous avez fait des podcasts à l'intersection de la technologie et de la culture, des discussions géopolitiques, et vous étiez l'un des sept seuls leaders de l'IA à avoir rencontré l'administration Biden. Vous avez écrit un article avec Ian Bremmer dans Foreign Affairs sur la gouvernance de l'IA. Vous avez eu des entretiens avec le FT, le Guardian et Wired.
Vous me faites rougir maintenant.
Mais je voulais en fait revenir sur ces vecteurs du problème du confinement : technique, culturel, juridique, politique, sociétal. Vous couvrez ces domaines avec cette diffusion de votre message. En plus de cela, vous êtes le PDG d'une entreprise qui évolue à la vitesse de la lumière dans le domaine de l'IA. Où vous situez-vous dans tout cela ? Quelle est votre motivation ?
Je suis instinctivement un penseur multidisciplinaire. J'ai toujours vu la technologie comme un outil. J'ai été dès le début motivé par l'idée que la technologie est vraiment ce qui nous a rendus plus intelligents, plus sains, plus productifs et qui a fondamentalement été le moteur qui a rendu la société plus égale. En ce sens, vous pouvez m'appeler un accélérationniste. J'en veux plus, et c'est vraiment ce qui me motive. Je suis fondamentalement un créateur et un bâtisseur. J'adore travailler avec une petite équipe et voir quelque chose passer de l'idée à la production et avoir un impact réel. Notre application Pi compte aujourd'hui des millions d'utilisateurs actifs mensuels et c'est incroyable de voir les types de cas d'utilisation auxquels les gens soumettent Pi. Des gens l'utilisent pour arrêter de fumer, pour préparer leur entretien, pour gérer une conversation difficile. Ce sont ces genres de moments personnels très intimes qui changent la vie des gens, et c'est ce que je trouve inspirant.
Je l'ai utilisé pour m'aider à organiser mes pensées pour cette conversation.
Sympa. Génial.
Je dis cela pour m'absoudre préventivement de toute responsabilité pour tout ce qui ne vous plairait pas.
C'était terrible. Ça s'est très mal passé.
Sécurité et éthique dans l'industrie
Je voulais en fait vous parler de Pi et de la place que vous lui voyez occuper dans le paysage de l'IA. Mais avant d'aborder ce sujet, le terme « sûr et éthique » est beaucoup utilisé dans l'industrie de l'IA. La mission originale de DeepMind, Anthropic et Inflection utilisent ce langage. Votre entreprise propose d'ailleurs une explication détaillée de ce que cela signifie pour vous sur votre site web. Croyez-vous que ce que font actuellement les entreprises opérant dans le domaine de l'IA soit sûr et éthique ?
C'est certain. Il n'y a aucun doute là-dessus. Nous avons délibérément choisi ces mots pour essayer de structurer l'écosystème, pour essayer d'en faire une culture par défaut. Cela fait maintenant partie du langage de tout le domaine. La sécurité est devenue la façon par défaut dont nous y pensons. Le risque existentiel est maintenant sur toutes les lèvres. Je pense que c'est une très bonne chose. Je pense que c'est différent des vagues technologiques précédentes où l'on pouvait être uniquement fonceur du côté commercial, alors que maintenant nous sommes tellement plus intelligents en tant qu'espèce. Notre civilisation peut voir les avantages et les risques de manière beaucoup plus équilibrée. Nous avons ce monde massivement mondialisé et hyper interconnecté. Cela nous donne une visibilité sur la façon dont les choses pourraient tourner. Je pense que c'est une nouvelle génération qui essaie proactivement de prendre la responsabilité de ce que nous créons.
Je vois tout à fait l'industrie en parler beaucoup au niveau des produits. Mais pourrais-je insister un peu là-dessus avec quelques questions de suivi ? La façon dont les modèles fonctionnent en interne est une boîte noire à l'heure actuelle, n'est-ce pas ?
En quelque sorte. Approximativement.
Nous ne comprenons pas vraiment comment ils prennent leurs décisions en interne.
Nous savons comment ils fonctionnent, mais revenir en arrière et expliquer spécifiquement pourquoi une seule génération a été produite, c'est difficile. Mais nous savons comment ils fonctionnent.
Et existe-t-il actuellement des systèmes en place ou en cours de développement qui permettront à ces modèles d'être audités ou d'assurer la transparence sur la manière dont ils prennent leurs décisions ?
Nous avons de l'auditabilité et de la transparence sur de nombreux éléments. Nous savons exactement quelles données y ont été intégrées. Nous savons quel taux d'apprentissage a été utilisé. Nous savons quel était l'objectif d'apprentissage. Nous pouvons observer les sorties et les entrées, mais nous ne pouvons pas observer la relation causale à l'intérieur. C'est donc exact.
Et les modèles ne peuvent pas être garantis comme étant déterministes.
Non, ils sont conçus pour ne pas être déterministes.
En me faisant l'avocat du diable, compte tenu des risques que vous avez soulignés dans le livre et de ce que vous avez dit sur la croissance exponentielle des capacités de ces modèles à chaque nouvelle génération, si nous n'avons pas les mécanismes de sécurité en place que vous préconisez dans le livre, comment le fait de poursuivre le développement générationnel de ces modèles peut-il être considéré comme sûr ?
Parce que la menace est la prolifération massive de ces modèles. Des millions de personnes auront accès à un outil qui leur permettra de faire de mauvaises choses si elles le décident. Toute personne ayant un programme, un militant politique, un groupe criminel, les coûts de l'action diminuent. Le défi est que c'est à la fois bon et mauvais. Mais supprimer les mauvaises parties semble inconcevable. C'est comme dire que nous n'allons pas donner accès à un téléphone à des personnes malveillantes. Des personnes malveillantes vont désormais avoir accès à un téléphone qui leur permet de prendre de mauvaises photos et de faire toutes les bêtises qu'elles font sur leur téléphone. Comment démêler ces choses ? C'est plutôt le cadre auquel nous sommes confrontés.
La conception de Pi chez Inflection AI
Nous avons presque fini, et je m'en voudrais de ne pas avoir pu vous poser au moins quelques questions sur Pi et ce que vous développez chez Inflection. Vous êtes dans le domaine depuis si longtemps, et quand vous avez fondé l'entreprise, c'est le produit que vous avez choisi de fabriquer. Où voyez-vous Pi, votre produit, dans ce paysage ?
Nous avons essayé de concevoir Pi pour être l'IA la plus sûre au monde aujourd'hui. Ce n'est explicitement pas une IA à usage général qui peut être sollicitée pour faire n'importe quoi. Si vous allez sur ChatGPT ou GPT-4 en ce moment ou sur Claude, ils sont conçus pour effectuer n'importe quelle tâche. Et plus vous la concevez large, plus le risque est grand. Plus il est facile de la tromper pour lui faire faire quelque chose comme produire une nouvelle cyberattaque. Vous ne pouvez pas faire ça avec Pi. Pi est beaucoup plus contrainte et limitée. D'une certaine manière, elle n'est pas aussi bonne pour certaines choses parce qu'elle est très sûre et limitée. C'est un choix de conception que nous avons fait pour créer à la fois une IA plus personnelle qui est vraiment douée pour la conversation, mais aussi une IA qui est bonne pour certaines choses et tout simplement incapable sur d'autres vecteurs. Je pense qu'au fur et à mesure que ce domaine progresse, il y aura certains domaines de recherche qui, selon moi, nécessitent le genre de régime de licence que l'on obtient lorsque l'on développe l'énergie nucléaire. Cela inclut l'auto-amélioration récursive, lorsque vous concevez délibérément une IA pour mettre à jour son propre code et s'améliorer indépendamment d'un humain dans la boucle, ou si vous ajoutez de l'autonomie dans le modèle, vous essayez délibérément de faire agir l'IA en dehors du contrôle humain, ou si vous essayez de concevoir une IA capable de définir ses propres objectifs au lieu de se comporter délibérément de la manière que vous lui indiquez. C'est ainsi que je l'évalue. Nous ne faisons évidemment aucune de ces choses. La poursuite de la généralité en soi est un exercice plus risqué. C'est plutôt un exercice de recherche. Nous construisons un produit. Vous pouvez parler à Pi dès maintenant. Elle a une voix superbe et de nombreux accents.
Conclusion et conseils au public
Je tenais simplement à vous remercier beaucoup pour votre temps. En guise de dernière réflexion pour les personnes qui nous écoutent, comment les individus qui n'évoluent pas forcément dans le domaine de l'IA peuvent-ils s'emparer de ce sujet pour aider à favoriser des résultats positifs ?
L'essentiel est de ne pas avoir peur et de ne pas penser qu'il s'agit d'une discipline technique inaccessible. Posez simplement de bonnes questions. Il y a énormément de choses en ligne. Tout ce qu'il faut, c'est comprendre un cadre conceptuel. Quelles sont les entrées ? Quelles sont les sorties ? Quelles sont les restrictions ? Explorez, posez des questions difficiles. C'est accessible à tout le monde et cela devrait être perçu comme quelque chose auquel chacun peut participer plutôt que comme le domaine réservé des geeks dans leur coin.