Sam Altman sur l'IA, OpenAI et l'avenir de l'humanité
14 septembre 2023
Intelligence Artificielle
Introduction et Tournée Mondiale
Alors que l'intelligence artificielle progresse à pas de géant, pouvons-nous faire confiance à OpenAI et à son patron, Sam Altman ? Je suis Azeem Azhar, et aujourd'hui je m'entretiens avec Sam Altman. Bienvenue dans Exponentially.
On se souviendra de 2023 comme de l'année où l'IA a fait irruption dans la conscience collective. OpenAI mène la charge. Mais que pense vraiment son patron ? Que veut-il construire ? Et peut-il nous emmener avec lui ? Sam Altman. C'est la rock star de l'intelligence artificielle. Il a levé des milliards de dollars auprès de Microsoft, et ses premiers soutiens incluent Elon Musk et Reid Hoffman. Ce fut tout un voyage, et plus nous en savons sur l'IA, plus la technologie soulève de questions. J'ai rattrapé Sam au début d'une tournée mondiale qui allait couvrir 20 pays en seulement 30 jours. Nous nous sommes parlé à l'University College London devant un public en direct de près de mille personnes.
Vous devez être débordé. Vous êtes au milieu d'une énorme tournée mondiale. Comment allez-vous ?
C'était vraiment génial, et je n'étais pas sûr de m'amuser autant. Je voulais vraiment le faire parce que je pense que la chambre d'écho de San Francisco n'est pas une bonne chose, et je n'ai jamais trouvé de substitut au fait de prendre l'avion et de rencontrer les gens. Et les retours que nous avons reçus sur ce que les gens veulent que nous fassions, comment ils perçoivent l'IA, ce qui les enthousiasme, ce qui les inquiète, cela a été encore plus utile que ce à quoi je m'attendais, et j'ai passé un excellent moment.
Je vous ai vu prendre des notes à la main dans un carnet alors que vous écoutiez les gens.
Je prends toujours mes notes à la main. Je fais ma liste de tâches à la main.
Il va y avoir une leçon à en tirer pour beaucoup d'entre nous.
Je pense qu'il n'y a probablement aucune leçon.
Quand vous avez lancé OpenAI en 2015, imaginiez-vous qu'en quelques années seulement, vous auriez presque par nécessité à prendre l'avion et faire le tour du monde pour écouter des gens de tous les continents ?
J'ai toujours essayé de faire ça. Quand je dirigeais Y Combinator, j'essayais de beaucoup voyager pour rencontrer les gens. Je pense que c'est vraiment important. Je pense que c'est quelque chose que l'industrie technologique de la Bay Area ne fait pas assez. Mais j'aime ça. Je pense aussi que la plupart de mes idées importantes me viennent en voyageant d'une manière ou d'une autre, et on obtient des perspectives très différentes. Et certainement, quand nous avons commencé OpenAI, je pensais que ça n'allait probablement pas marcher. Mais si ça marchait, alors je pensais que ce serait une technologie à fort impact, et recueillir l'avis du monde entier serait une chose vraiment importante à faire.
Attitudes mondiales envers l'IA
Vous avez donc déjà fait une partie de cette tournée, et vous vous êtes rendu dans des pays du Sud global, ainsi que dans des pays européens plus riches. Donnez-nous juste un bref aperçu. Comment les attitudes varient-elles, et qu'est-ce qui vous a surpris ?
Il y a beaucoup de façons intéressantes dont les attitudes se ressemblent. Fondamentalement, je pense que nous avons constaté un enthousiasme immense de la part des gens qui s'appuient sur la technologie, utilisant la technologie partout. Et puis la peur, particulièrement de la part de personnes qui n'utilisent pas la technologie, ou de personnes qui l'utilisent beaucoup et qui ont vraiment réfléchi à l'endroit où tout cela pourrait mener. Les préoccupations sont certainement différentes selon les endroits. Dans le Sud global, il s'agit beaucoup plus des avantages économiques que cela peut apporter dès maintenant, de la façon dont cela peut aider à résoudre les problèmes auxquels nous sommes confrontés dans l'éducation et la santé en ce moment. Et dans les mondes plus développés, il s'agit davantage de savoir comment nous allons nous assurer que certains de ces problèmes à plus long terme sont abordés ? Et cela a bien sûr du sens. Mais l'enthousiasme pour la technologie, le désir de participer, le désir de s'assurer que les valeurs de chacun soient représentées là-dedans et que nous ayons un moyen de refléter cela réellement dans les systèmes qui sont construits ici, un moyen d'avoir une gouvernance, un partage des bénéfices, un partage de l'accès qui semble équitable, cela a été universel.
Motivation personnelle et Mentors
Vous êtes dans une position sans précédent en ce moment. Dans de nombreux cas dans le modèle de la Silicon Valley, le fondateur d'une entreprise comme celle-ci ou d'un service comme celui-ci détient beaucoup d'actions, perçoit un salaire, a un avantage financier. Et vous n'avez rien de tout cela. Vous ne touchez que de quoi payer votre assurance maladie. Alors, quel est le moteur interne pour vous, compte tenu du défi, compte tenu des exigences sur votre temps, votre énergie ?
Je ne peux imaginer rien de plus passionnant sur lequel travailler. Je me sens extrêmement privilégié d'être à ce moment de l'history et, plus encore, de travailler avec cette équipe en particulier. Je ne vois pas comment je pourrais mieux passer mes journées. J'ai eu beaucoup de chance. J'ai gagné beaucoup d'argent très tôt dans ma carrière, donc je ne pense pas que ce soit une grande chose noble.
Avez-vous des mentors ? Y a-t-il des personnes dont vous apprenez ?
Je me sens super chanceux d'avoir eu de grands mentors. Je pense aussi qu'il est important de ne pas essayer de trop apprendre des autres et de faire les choses à sa propre manière. J'ai donc essayé de trouver le bon équilibre. Je suis sûr que ce n'est pas encore tout à fait ça. Mais oui, je pense que l'une des choses magiques de la Silicon Valley est à quel point les gens se soucient du mentorat et de l'enseignement, et j'en ai reçu bien plus que ma juste part.
Mais si nous devions retenir une ou deux leçons de ces grands mentors, quelles seraient-elles ?
Paul Graham, qui dirigeait Y Combinator avant moi, a fait plus que quiconque, je pense, pour enseigner aux gens comment fonctionnent les startups et comment le guide des startups est appliqué. Et cela, nous l'avons très largement emprunté pour ce qu'il faut pour créer une organisation performante et les pièges que l'on veut éviter. Certainement apprendre d'Elon sur ce qu'il est possible de faire et sur le fait qu'il n'est pas nécessaire d'accepter que notre technologie soit quelque chose que l'on ne puisse ignorer. Cela a été extrêmement précieux.
Évolution de GPT et Alignement
Et je peux voir ces deux leçons chez OpenAI et dans ce que vous avez livré depuis quelques années. Lors de notre dernière discussion il y a quelques années, vous parliez de ces grands modèles de langage, et nous en sommes actuellement à GPT-4, mais à l'époque, l'état de l'art était GPT-3. Et vous m'aviez dit que l'écart entre GPT-2 et GPT-3 n'était qu'un petit pas sur le continuum. Vous avez dit juste un tout petit pas. Quand vous regardez maintenant GPT-4, diriez-vous que c'est un autre petit pas ?
Rétrospectivement, cela y ressemblera, je pense. On a eu l'impression d'un grand bond pendant un petit moment, et maintenant les gens sont très portés sur : "qu'est-ce que vous avez fait pour moi dernièrement ? Où est GPT-5 ?" Et c'est bien. C'est ainsi que va le monde. C'est ainsi que c'est censé se passer. Mais les gens s'habituent à tout. Nous établissons de nouveaux niveaux de référence très rapidement.
Je suis curieux, quels sont les enseignements que vous avez tirés du développement de GPT-4 et dans les mois qui ont suivi sa sortie qui étaient différents de ceux des modèles précédents que vous aviez sortis ?
Nous avons terminé l'entraînement de GPT-4 environ huit mois avant sa sortie. Et c'était de loin la plus longue période que nous ayons jamais passée sur un modèle avant sa sortie. L'une des choses que nous avions apprises avec GPT-3, c'est toutes les façons dont ces choses s'effondrent une fois qu'on les lâche dans la nature. Nous pensons qu'il est vraiment important de déployer les modèles de manière incrémentale pour donner au monde le temps de s'adapter, de comprendre ce que nous pensons qu'il va se passer, ce qui pourrait arriver, pour donner aux gens le temps de comprendre quels sont les risques, quels sont les avantages, quelles devraient être les règles. Mais nous ne voulons pas sortir un modèle dont nous savons qu'il présente un tas de problèmes. Nous avons donc passé plus de temps à appliquer les leçons des versions précédentes de GPT-3 à celle-ci. C'était donc une leçon : si nous passions vraiment beaucoup de temps sur l'alignement, l'audit, les tests, l'ensemble de notre système de sécurité, nous pouvions faire beaucoup de progrès.
Essentiellement, vous construisez ce modèle, c'est une machine incroyablement compliquée. GPT-3, le précurseur, avait 175 milliards de paramètres, que je vois comme des curseurs sur un égaliseur graphique, et c'est beaucoup de configuration. GPT-4 est encore plus grand, bien que vous n'ayez pas formellement dit à quel point. Comment prenez-vous cette machine pour qu'elle fasse ce que nous voulons qu'elle fasse et non ce que nous ne voulons pas qu'elle fasse ? C'est le problème de l'alignement. Et c'est là que vous avez passé ces huit mois.
Je veux être clair là-dessus. Ce n'est pas parce que nous sommes capables d'aligner GPT-4 que nous sommes tirés d'affaire, loin de là, comme j'espère que c'est évident. Nous avons énormément de travail à faire pour comprendre comment nous allons aligner la superintelligence et des systèmes beaucoup plus puissants que ce que nous avons actuellement. Et je crains que lorsque nous disons que nous pouvons assez bien aligner GPT-4, les gens pensent que nous pensons avoir résolu le problème. Ce n'est pas le cas. Mais je pense qu'il est remarquable que nous puissions prendre le modèle de base de GPT-4 qui, si vous l'utilisiez, vous ferait dire : "ce n'est pas très impressionnant", ou du moins c'est extrêmement difficile à utiliser, et avec si peu d'efforts et si peu de données relativement parlant, we pouvons faire du RLHF et rendre le modèle si utilisable et si aligné.
Et le RLHF est l'apprentissage par renforcement avec rétroaction humaine, qui est, je crois, la façon dont vous amenez les gens à répondre à des questions de GPT-4 et à lui dire quand il a été bon et quand il n'a pas répondu aux attentes.
Et il s'avère qu'il s'agit de très petites quantités de rétroaction, et c'est aussi très peu sophistiqué. Ce que l'on aimerait croire, étant donné que ces modèles sont utilisables avec le langage naturel, c'est que quelqu'un dirait : "ah non, cette réponse est fausse pour telle autre raison", et "vous vous êtes trompé sur cette hypothèse ici ce qui a conduit à cet autre problème là". C'est vraiment juste comme un pouce levé ou un pouce baissé. Et le fait que cela fonctionne, je pense, est assez remarquable.
Ce que j'ai trouvé remarquable, c'est qu'il s'agit d'une assez petite quantité de ce RLHF par rapport aux centaines de milliards de mots sur lesquels ces modèles sont entraînés. Il vous faut quoi, quelques milliers, quelques dizaines de milliers de feedbacks pour mettre de l'ordre ?
C'est un peu différent selon les cas, mais oui, pas beaucoup.
GPT-5 et les limites des LLM
Vous avez dit que vous n'entraîniez pas GPT-5 en ce moment, et j'étais curieux de savoir pourquoi. Était-ce parce qu'il n'y avait pas assez de données ? Était-ce parce qu'il n'y avait pas assez de puces informatiques pour l'entraîner ? Était-ce parce que vous avez vu des choses se passer lors de la création de GPT-4 et que vous vous êtes dit : "nous devons trouver comment les résoudre avant de construire le suivant" ?
Ces modèles sont très difficiles à construire. Le temps entre GPT-3 et 4 a été de presque trois ans. Cela prend simplement du temps. Il y a beaucoup de recherches à faire. Mais il y a aussi beaucoup d'autres choses que nous voulons faire avec GPT-4 maintenant qu'il est terminé. Nous voulons beaucoup étudier l'après-entraînement. Nous voulons l'étendre de toutes sortes de façons. Le fait qu'ils puissent sortir un iPhone chaque année m'impressionne, mais nous allons simplement être sur un rythme de plus d'un an.
Vous avez dit qu'il y a plus de recherches à faire, et il y a un certain nombre de chercheurs en IA très réputés qui ont dit que les grands modèles de langage sont limités. Ils ne nous permettront pas d'atteindre la prochaine augmentation de performance, qu'on ne peut pas construire une intelligence artificielle générale avec des LLM. Êtes-vous d'accord avec cela ?
Tout d'abord, je pense que la plupart de ces commentateurs se sont terriblement trompés sur ce que les LLM allaient être capables de faire. Et beaucoup d'entre eux disent maintenant : "eh bien, ce n'est pas que les LLM ne vont pas marcher, c'est qu'ils marchent trop bien et qu'ils sont trop dangereux et qu'on doit les arrêter". Ou d'autres ont simplement dit : "eh bien, tout cela n'est qu'un tour de passe-passe et ce n'est pas un véritable apprentissage". Certains des plus sophistiqués disent : "d'accord, les LLM fonctionnent mieux que prévu, mais ils ne parviendront pas jusqu'à l'AGI dans le paradigme actuel". Et là, nous sommes d'accord. Je pense donc que nous devrions absolument pousser aussi loin que possible dans le paradigme actuel, mais nous travaillons dur pour essayer de trouver le prochain paradigme. Ce qui m'enthousiasme le plus personnellement, peut-être dans tout l'univers de l'AGI, c'est que ces modèles vont à un moment donné nous aider à découvrir de nouvelles sciences rapidement et de manières vraiment significatives. Mais je pense que le moyen le plus rapide d'y arriver est d'aller au-delà du paradigme GPT. Des modèles capables de générer de nouvelles connaissances, des modèles capables d'imaginer de nouvelles idées, des modèles capables de comprendre des choses qu'ils n'ont jamais vues auparavant. Et cela va nécessiter de nouveaux travaux.
J'utilise GPT-4 de manière obsessionnelle ces derniers mois. Oui, c'est assez impressionnant. Et j'ai parfois l'impression qu'il produit de nouvelles connaissances. Et je n'ai pas fait de test robuste, mais je suis assis ici en tant que personne travaillant dans la recherche et je me dis : "j'ai appris quelque chose de nouveau ici". Alors, que se passe-t-il ?
Oui, il y a des aperçus de cela, n'est-ce pas ? Et il peut faire de petites choses, mais il ne peut pas s'auto-corriger et rester sur les rails suffisamment pour qu'on puisse juste dire : "hé GPT-4, s'il te plaît, va guérir le cancer". Cela ne va pas arriver. Mais ce serait bien si nous avions un système capable de faire cela.
Maintenant, vous avez parlé de différentes pistes de recherche qui pourraient être nécessaires. Avez-vous un ou deux candidats favoris qui pourraient selon vous être la prochaine étape pour l'humanité dans cette construction ?
Rien dont je dirais : "voici assez de confiance pour y consacrer du temps car ça va marcher". Nous travaillons dur pour le trouver.
Désinformation et Risques Sociétaux
Évidemment, nous parlons de la puissance de ces technologies et il y aura aussi des inconvénients. Commençons par un qui est assez proche aujourd'hui. GPT-4 et ces autres grands modèles de langage sont très, très doués pour produire du texte, du texte à consonance humaine. Et cela ouvre donc ce risque de désinformation, en particulier à l'approche d'élections importantes aux États-Unis. À quel point ce risque vous semble-t-il sérieux, et étant donné qu'il est si proche, que pouvons-nous faire et en quoi pouvons-nous vous aider ?
Je pense effectivement que la désinformation devient un défi de plus en plus important dans le monde. Je pense aussi que c'est une catégorie quelque peu délicate. En tant que société, nous avons étiqueté des choses comme étant de la désinformation qui se sont avérées vraies. Nous avons exclu des gens des plateformes pour avoir dit des choses qui se sont avérées vraies. Et nous allons devoir trouver un équilibre où nous préservons la possibilité de se tromper en échange de l'exposition parfois d'informations importantes, sans dire que tout est de la désinformation intentionnelle utilisée pour manipuler. Mais les gens qui se trompent intentionnellement dans le but de manipuler, je pense que c'est un vrai problème, et nous en avons vu davantage avec la technologie.
Je veux dire, la version 3.5 en particulier est vraiment assez bonne. Donc s'il devait y avoir une vague de désinformation, ne serait-elle pas arrivée plus tôt ?
Je pense donc que les humains sont déjà doués pour créer de la désinformation, et peut-être que les modèles GPT facilitent la tâche. Mais ce n'est pas ce dont j'ai peur. Je pense aussi qu'il est tentant de comparer l'IA et les réseaux sociaux, mais ils sont très différents. Vous pouvez générer toute la désinformation que vous voulez avec GPT-4, mais si c'est juste pour vous et que ce n'est pas diffusé, cela ne fera pas grand-chose. C'est donc vraiment une question de canaux qui la diffusent. Cependant, je pense qu'il vaut la peine de considérer ce qui sera différent avec l'IA et où elle va se brancher sur des canaux qui peuvent l'aider à se propager. Et je pense qu'une chose qui sera différente est la capacité interactive, personnalisée et persuasive de ces systèmes.
Donc l'idée que je puisse recevoir un appel automatique sur mon téléphone, je décroche, il y a une synthèse vocale qui semble incroyablement réaliste, et puis le message est vraiment adapté à moi, donc il a une résonance émotionnelle, il est très réaliste et lu par une machine, pour ainsi dire.
C'est ce qui sera, selon moi, le nouveau défi. Et il y a beaucoup à faire là-bas. Nous pouvons intégrer des refus dans les modèles, nous pouvons construire des systèmes de surveillance pour que les gens ne puissent pas faire cela à grande échelle. Mais nous allons avoir des modèles open-source puissants dans le monde. Et là, les techniques d'OpenAI sur ce que nous pouvons faire sur nos propres systèmes ne fonctionneront pas de la même manière.
D'accord, juste pour clarifier ce point, parce qu'avec OpenAI vous avez une API et un client identifié, donc si vous voyez un mauvais comportement, vous pouvez couper l'accès à cette personne, alors qu'un modèle open-source pourrait être exécuté par n'importe qui sur son ordinateur de bureau à un moment donné, et c'est en fait beaucoup plus difficile, il y a un problème de prolifération.
Oui.
Résoudre cela ne peut pas être uniquement du ressort d'OpenAI, n'est-ce pas ? Il doit y avoir, vous devez demander de l'aide.
Il y a des mesures réglementaires que nous pouvons prendre qui aideront un peu. La vraie solution ici est d'éduquer les gens sur ce qui se passe. Nous sommes déjà passés par là. Quand Photoshop est devenu populaire pour la première fois, il y a eu une brève période où les gens se disaient : "si je le vois, c'est que c'est vrai, ça doit être réel". Et puis les gens ont vite appris que ce n'était pas le cas, et certaines personnes se font encore piéger, mais dans l'ensemble, si vous voyez une image, vous savez qu'elle peut être manipulée numériquement, c'est bien compris. La même chose se produira avec ces nouvelles technologies, mais plus tôt nous pourrons éduquer les gens à ce sujet, parce que la résonance émotionnelle sera bien plus élevée, mieux ce sera, je pense.
Impact sur l'Emploi et l'Économie
Tournons-nous vers l'éducation. Nous sommes ici dans une université mondiale, et bien sûr l'éducation est étroitement liée au marché du travail. Par le passé, lorsque nous avons vu apparaître de nouvelles technologies puissantes, elles ont réellement eu un impact sur la dynamique du pouvoir entre les travailleurs et les employeurs. Je repense à la fin du 18ème siècle, il y a eu la "pause d'Engels", cette période en Angleterre où le PIB augmentait mais où les salaires des travailleurs stagnaient. Quand on regarde l'IA, on pourrait voir quelque chose de similaire, et ni vous ni moi ne voulons, je pense, que les historiens du futur décrivent la "pause d'Altman", où les salaires ont souffert d'une pression salariale à cause de la nouvelle technologie. Quelles sont les interventions nécessaires pour s'assurer qu'il y ait une sorte de partage équitable des gains de la technologie ?
Eh bien, tout d'abord, nous avons simplement besoin de gains. Nous avons besoin de croissance. Je pense que l'un des problèmes du monde développé actuellement est que nous n'avons pas assez de croissance, et cela a causé, nous n'avons pas assez de croissance durable, et cela a causé toutes sortes de problèmes. Je suis donc ravi que cette technologie puisse ramener les gains de productivité manquants des dernières décennies. Certaines technologies réduisent les inégalités par nature et d'autres les accentuent. Je ne sais pas trop comment celle-ci va évoluer, mais je pense que c'est une technologie dont la forme tend à réduire les inégalités. Mon modèle de base du monde est que le coût de l'intelligence et le coût de l'énergie sont les deux entrées limitantes. Et si vous pouvez les rendre considérablement moins chers, considérablement plus accessibles, cela aide davantage les pauvres que les riches, franchement, même si cela aidera tout le monde énormément. Cette technologie élèvera le monde entier. La plupart des gens dans cette salle, s'ils ont besoin d'une sorte de travail intellectuel cognitif, peuvent se le permettre. La plupart des gens dans le monde ne le peuvent souvent pas. Et si nous pouvons transformer cela en produit de base, je pense que c'est une force égalisatrice et importante.
Puis-je ajouter une chose ?
Bien sûr, oui, je vous en prie.
Je pense qu'il est important de considérer qu'il y aura bien plus d'emplois après cette révolution technologique. Je ne crois pas du tout que ce soit la fin du travail. Je pense que nous repenserons aux emplois banals que beaucoup d'entre nous font aujourd'hui et que nous nous dirons : "c'était vraiment pénible, c'est beaucoup mieux et plus intéressant maintenant". Je pense toujours que nous devrons réfléchir à la distribution des richesses différemment d'aujourd'hui. Et c'est bien. Nous y réfléchissons d'ailleurs un peu différemment après chaque révolution technologique. Je pense aussi que, compte tenu de la forme de celle-ci en particulier, la manière dont l'accès à ces systèmes est distribué équitablement sera une question très complexe.
Et lors de ces révolutions précédentes, les révolutions technologiques, ce qui nous a rassemblés, ce sont les structures politiques. C'était le syndicalisme et les collectifs ouvriers à la fin du 19ème siècle. Quand on regarde quelque chose comme l'IA, pouvez-vous imaginer les types de structures qui seraient nécessaires pour reconnaître et redistribuer les gains du travail non rémunéré ou mal rémunéré qui n'est souvent pas reconnu ? Par exemple, le travail que font les femmes dans le monde entier.
Je pense qu'il y aura un changement important et attendu depuis longtemps dans les types de travail que nous valorisons, et fournir une connexion humaine aux gens sera tout d'un coup, comme je pense que cela devrait l'être, l'un des types de travail les plus valorisés. Cela se produira de toutes sortes de manières différentes.
Vers la Superintelligence
Alors, quand vous réfléchissez à la manière dont l'IA a progressé jusqu'ici, quelles leçons, le cas échéant, pouvons-nous tirer sur le chemin vers l'intelligence artificielle superintelligente et sur la manière dont elle pourrait émerger ? C'est l'idée d'avoir une intelligence artificielle qui soit plus capable que les humains dans tous les domaines.
Oui, c'est difficile de donner une réponse courte à cette question, mais je vais essayer. Je pense qu'il y a beaucoup de choses que nous avons apprises jusqu'à présent, mais l'une d'elles est que A, nous avons un algorithme qui peut véritablement apprendre, et B, il s'améliore de manière prévisible avec l'échelle. Ce sont deux faits remarquables mis ensemble. Et je pense que même si nous y pensons tous les jours, je soupçonne que nous ne ressentons pas tout à fait l'importance de cela. Une observation est que cela va simplement continuer. Une autre observation est que nous aurons occasionnellement ces augmentations discontinues lorsque nous découvrirons quelque chose de nouveau. Et une troisième est que je pense que la façon dont j'envisageais la marche vers la superintelligence consistait à construire ce système unique extrêmement capable, et il y avait un tas de défis de sécurité avec cela, et c'était un monde qui allait sembler assez instable. Mais je pense que nous voyons maintenant un chemin où nous construisons vraiment ces outils, pas des créatures, des outils, qui deviennent de plus en plus puissants, et il y a des milliards de copies, des billions de copies utilisées dans le monde, aidant chaque personne à être bien plus efficace, capable de faire bien plus. La quantité de résultats qu'une personne peut produire peut augmenter de manière spectaculaire. Et l'endroit où la superintelligence émerge n'est pas seulement la capacité de notre plus grand réseau neuronal unique, mais toute la nouvelle science que nous découvrons, toutes les nouvelles choses que nous créons.
Et les interactions entre ces milliards et ces billions d'autres systèmes.
La société que nous construisons, qui est composée d'humains assistés par l'IA utilisant ces outils pour bâtir cette société, ainsi que les connaissances, la technologie, les institutions et les normes que nous avons. Et cette vision de vivre avec la superintelligence me semble bien meilleure à tous points de vue et constitue un avenir bien plus passionnant pour moi, pour vous tous, j'espère que vous êtes d'accord là-dessus, que celle du cerveau unique suprême.
Conclusion
En réfléchissant à ma conversation avec Sam, je suis frappé par sa volonté d'aborder les risques profonds que l'IA pourrait poser. C'est peut-être parce qu'il y a encore tellement de choses que nous ne savons pas sur l'IA, parce que le domaine évolue si rapidement qu'il est difficile, même pour quelqu'un dans la position de Sam, de savoir ce qui va suivre. Quoi qu'il en soit, une chose reste vraie. Je vraiment crois qu'il ne revient pas seulement aux patrons de la tech de déterminer comment tout cela va nous aider. C'est plutôt un processus, et c'est un processus dans lequel nous devrions tous avoir notre mot à dire. Je suis Azeem Azhar, et vous avez regardé Exponentially.