Sam Altman: OpenAI CEO on GPT-4, ChatGPT, and the Future of AI
25 mars 2023
Artificial Intelligence
Introduction et Histoire d'OpenAI
Nous avons été une organisation mal comprise et lourdement moquée pendant longtemps. Quand nous avons commencé et annoncé l'organisation fin 2015 et dit que nous allions travailler sur l'AGI, les gens pensaient que nous étions complètement fous.
Ouais.
Je me souviens qu'à l'époque, un éminent scientifique en IA d'un grand laboratoire d'IA industriel envoyait des messages privés à des journalistes individuels pour dire que ces gens ne sont pas très bons, qu'il est ridicule de parler d'AGI et qu'il n'arrive pas à croire que vous leur accordiez de l'attention. C'était le niveau de mesquinerie et de rancœur dans le domaine face à un nouveau groupe de personnes disant que nous allons essayer de construire une AGI.
Ainsi, OpenAI et DeepMind étaient une petite collection de personnes assez courageuses pour parler d'AGI face aux moqueries.
Nous ne sommes plus autant moqués maintenant.
Vous n'êtes plus autant moqués maintenant. Ce qui suit est une conversation avec Sam Altman, PDG d'OpenAI, la société derrière GPT-4, ChatGPT, DALL-E, Codex et de nombreuses autres technologies d'IA qui, tant individuellement qu'ensemble, constituent certaines des plus grandes percées de l'histoire de l'intelligence artificielle, de l'informatique et de l'humanité en général. Veuillez m'autoriser à dire quelques mots sur les possibilités et les dangers de l'IA en ce moment actuel de l'histoire de la civilisation humaine. Je crois que c'est un moment critique. Nous nous trouvons au bord d'une transformation sociétale fondamentale où bientôt, personne ne sait quand, mais beaucoup, dont moi, pensent que c'est au cours de notre vie, l'intelligence collective de l'espèce humaine commencera à paraître bien pâle en comparaison, de plusieurs ordres de grandeur, à la superintelligence générale dans les systèmes d'IA que nous construisons et déployons à grande échelle. C'est à la fois passionnant et terrifiant. C'est passionnant en raison des applications innombrables que nous connaissons et de celles que nous ne connaissons pas encore qui permettront aux humains de créer, de s'épanouir, d'échapper à la pauvreté et aux souffrances généralisées qui existent dans le monde aujourd'hui, et de réussir dans cette quête si humaine du bonheur. C'est terrifiant en raison du pouvoir que détient une AGI superintelligente pour détruire la civilisation humaine, intentionnellement ou non. Le pouvoir d'étouffer l'esprit humain de la manière totalitaire de 1984 de George Orwell ou de l'hystérie collective alimentée par le plaisir du Meilleur des mondes où, comme l'a vu Huxley, les gens en viennent à aimer leur oppression, à adorer les technologies qui annulent leurs capacités de réflexion. C'est pourquoi ces conversations avec les dirigeants, les ingénieurs et les philosophes, tant optimistes que cyniques, sont importantes maintenant. Ce ne sont pas de simples conversations techniques sur l'IA. Ce sont des conversations sur le pouvoir, sur les entreprises, les institutions et les systèmes politiques qui déploient, contrôlent et équilibrent ce pouvoir. Sur les systèmes économiques distribués qui encouragent la sécurité et l'alignement humain de ce pouvoir. Sur la psychologie des ingénieurs et des dirigeants qui déploient l'AGI, et sur l'histoire de la nature humaine, notre capacité pour le bien et le mal à grande échelle. Je suis profondément honoré d'avoir appris à connaître et d'avoir discuté, devant et hors micro, avec de nombreuses personnes qui travaillent maintenant chez OpenAI, dont Sam Altman, Greg Brockman, Ilya Sutskever, Wojciech Zaremba, Andrej Karpathy, Jakub Pachocki et bien d'autres. Cela signifie énormément pour moi que Sam ait été totalement ouvert avec moi, acceptant d'avoir plusieurs conversations, y compris des plus difficiles, devant et hors micro. Je continuerai à avoir ces conversations pour à la fois célébrer les accomplissements incroyables de la communauté de l'IA et pour défendre avec force la perspective critique sur les décisions majeures que prennent diverses entreprises et dirigeants, toujours dans le but d'essayer d'aider à ma petite échelle. Si j'échoue, je travaillerai dur pour m'améliorer. Je vous aime tous. C'est le Lex Fridman Podcast. Pour le soutenir, veuillez consulter nos sponsors dans la description. Et maintenant, chers amis, voici Sam Altman.
Qu'est-ce que GPT-4 ?
À haut niveau, qu'est-ce que GPT-4 ? Comment ça marche et qu'est-ce qui est le plus incroyable pour vous ?
C'est un système sur lequel nous porterons un regard rétrospectif en disant que c'était une IA très précoce. C'est lent, c'est buggé, ça ne fait pas beaucoup de choses très bien, mais les tout premiers ordinateurs non plus. Ils indiquaient toujours la voie vers quelque chose qui allait être vraiment important dans nos vies, même s'il a fallu quelques décennies pour évoluer.
Pensez-vous que ce soit un moment charnière ? De toutes les versions de GPT, dans 50 ans, quand on regardera un système précoce qui était vraiment un bond en avant, dans une page Wikipédia sur l'histoire de l'intelligence artificielle, lequel des GPT mettraient-ils ?
C'est une bonne question. Je pense au progrès comme à cette exponentielle continue. Ce n'est pas comme si nous pouvions dire voici le moment où l'IA est passée de ne pas arriver à arriver. J'aurais beaucoup de mal à identifier une seule chose. Je pense que c'est cette courbe très continue. Les livres d'histoire écriront-ils sur GPT-1 ou 2 ou 3 ou 4 ou 7 ? C'est à eux de décider. Je ne sais pas vraiment. Je pense que si je devais choisir un moment parmi ce que nous avons vu jusqu'à présent, je choisirais ChatGPT. Ce n'était pas le modèle sous-jacent qui importait, c'était sa facilité d'utilisation, à la fois le RLHF et l'interface.
ChatGPT et le RLHF
Qu'est-ce que ChatGPT ? Qu'est-ce que le RLHF, l'apprentissage par renforcement avec commentaires humains ? Quel était ce petit ingrédient magique ajouté au plat qui le rendait tellement plus délicieux ?
Nous formons ces modèles sur une grande quantité de données textuelles et, au cours de ce processus, ils apprennent quelque chose sur les représentations sous-jacentes de ce qui s'y trouve. Ils peuvent faire des choses incroyables. Mais quand on joue pour la première fois avec ce modèle de base après avoir terminé l'entraînement, il peut réussir des évaluations, passer des tests et contient des connaissances, mais il n'est pas très utile ou facile à utiliser. Le RLHF est la façon dont nous prenons les commentaires humains. La version la plus simple consiste à montrer deux sorties et à demander laquelle les évaluateurs humains préfèrent, puis à réinjecter cela dans le modèle avec l'apprentissage par renforcement. Ce processus fonctionne remarquablement bien avec remarquablement peu de données pour rendre le modèle plus utile. Le RLHF est la façon dont nous alignons le modèle sur ce que les humains veulent qu'il fasse.
Il y a donc un modèle de langage géant qui est formé sur un jeu de données géant pour créer cette sagesse de fond, ces connaissances contenues dans Internet, et puis, d'une manière ou d'une autre, ajouter un peu d'orientation humaine par-dessus via ce processus le rend tellement plus génial.
Peut-être parce qu'il est beaucoup plus facile à utiliser. Il est beaucoup plus facile d'obtenir ce que vous voulez. Vous réussissez plus souvent du premier coup. La facilité d'utilisation compte beaucoup, même si la capacité de base était déjà là auparavant.
Et le sentiment qu'il a compris la question que vous posez, ou l'impression d'être sur la même longueur d'onde.
Il essaie de vous aider.
C'est un sentiment d'alignement. Cela pourrait être un terme plus technique pour le désigner. Et vous dites qu'il ne faut pas beaucoup de données pour cela, pas beaucoup de supervision humaine pour cela.
Pour être juste, nous comprenons la science de cette partie à un stade beaucoup plus précoce que nous ne comprenons la science de la création de ces grands modèles pré-entraînés en premier lieu. Mais oui, moins de données, beaucoup moins de données.
Données et Entraînement
La science de l'orientation humaine est une science très intéressante et ce sera une science très importante pour comprendre comment la rendre utilisable, sage, éthique et alignée. Il importe de savoir quels humains sont impliqués, quel est le processus d'intégration de ces commentaires humains et ce que vous demandez aux humains. Leur demandez-vous de classer des choses ? Sur quels aspects demandez-vous aux humains de se concentrer ? C'est vraiment fascinant. Pouvez-vous parler vaguement de l'énormité du jeu de données de pré-entraînement ?
Nous consacrons énormément d'efforts à rassembler cela à partir de nombreuses sources différentes. Il existe des bases de données d'informations en libre accès. Nous obtenons des éléments via des partenariats. Il y a des choses sur Internet. Une grande partie de notre travail consiste à construire un excellent jeu de données.
Quelle proportion provient du subreddit des mèmes ?
Pas énormément. Peut-être que ce serait plus amusant s'il y en avait davantage.
Donc une partie vient de Reddit, une autre de sources d'information, comme un grand nombre de journaux, il y a le web en général.
Il y a beaucoup de contenu dans le monde, plus que ce que la plupart des gens pensent.
Oui, il y en a. La tâche n'est pas de trouver des choses, mais de filtrer les choses, n'est-ce pas ?
Oui, oui.
Y a-t-il une magie à cela ? Car il semble y avoir plusieurs composants à résoudre : la conception de l'architecture, les réseaux de neurones, la taille du réseau de neurones, la sélection des données et l'aspect supervisé par l'humain avec le RL par commentaires humains.
Je pense qu'une chose qui n'est pas très bien comprise à propos de la création de ce produit final, comme ce qu'il faut pour fabriquer GPT-4, est le nombre de pièces qui doivent toutes s'assembler. Nous devons soit trouver de nouvelles idées, soit simplement exécuter les idées existantes vraiment bien à chaque étape de ce pipeline. Il y a énormément de travail là-dedans.
Prédire l'Intelligence
Il y a donc beaucoup de résolution de problèmes. Pour GPT-4, il y a déjà une maturité qui s'installe sur certaines de ces étapes, comme être capable de prédire comment le modèle se comportera avant de faire l'entraînement complet.
N'est-ce pas remarquable ? Qu'il existe une loi scientifique qui vous permette de prédire le niveau d'intelligence auquel vous pouvez vous attendre pour ces entrées.
Est-ce proche d'une science ou est-ce encore, parce que vous avez utilisé les mots loi et science, qui sont des termes très ambitieux.
Je dirais que c'est bien plus scientifique que ce que j'aurais jamais osé imaginer.
Vous pouvez donc vraiment connaître les caractéristiques particulières du système entièrement entraîné à partir d'un tout petit peu d'entraînement.
Comme toute nouvelle branche de la science, nous allons découvrir de nouvelles choses qui ne correspondent pas aux données et devrons trouver de meilleures explications. C'est le processus continu de découverte. Mais avec ce que nous savons maintenant, même ce que nous avions dans cet article de blog sur GPT-4, je pense que nous devrions tous être en admiration devant le fait que nous puissions même prédire à ce niveau actuel.
Évaluations et Utilité
Vous pouvez regarder un bébé d'un an et prédire comment il s'en sortira aux examens. Parce qu'ici, nous pouvons en détail introspecter divers aspects du système, vous pouvez prédire. Vous avez dit que le modèle de langage qu'est GPT-4 apprend quelque chose. Y a-t-il une compréhension plus profonde de ce qu'est ce quelque chose, ou est-ce encore un beau mystère magique ?
Eh bien, il y a toutes ces différentes évaluations dont nous pourrions parler et...
Qu'est-ce qu'une évaluation ?
C'est la façon dont nous mesurons un modèle pendant que nous le formons, après l'avoir formé, et disons à quel point il est bon sur un ensemble de tâches.
Et aussi, juste sur une petite parenthèse, merci d'avoir en quelque sorte rendu public le processus d'évaluation.
Celle qui compte vraiment, c'est que nous consacrons tous ces efforts, cet argent et ce temps à cette chose et ensuite ce qui en ressort : à quel point cela a été utile aux gens ? Quel plaisir cela apporte-t-il aux gens ? À quel point cela les aide-t-il à créer un monde bien meilleur, une nouvelle science, de nouveaux produits, de nouveaux services ? Comprendre pour un ensemble particulier d'entrées combien de valeur et d'utilité fournir aux gens, je pense que we comprenons mieux cela. Comprenons-nous tout sur les raisons pour lesquelles le modèle fait une chose et pas une autre ? Certainement pas toujours. Mais je dirais que nous repoussons de plus en plus le brouillard de la guerre. Il a fallu beaucoup de compréhension pour fabriquer GPT-4, par exemple.
Raisonnement vs Connaissance
Mais je ne suis même pas sûr que nous puissions un jour comprendre pleinement. Comme vous l'avez dit, on comprendrait en posant essentiellement des questions, car cela compresse une énorme partie du web dans un petit nombre de paramètres, dans une boîte noire organisée qui est la sagesse humaine. Qu'est-ce que c'est ?
La connaissance humaine, disons.
La connaissance humaine. Y a-t-il une différence entre connaissance et sagesse ? Il y a les faits et il y a la sagesse. J'ai l'impression que GPT-4 peut être plein de sagesse. Quel est le saut entre les faits et la sagesse ?
Une chose curieuse à propos de la façon dont nous formons ces modèles est que je soupçonne qu'une trop grande partie de la puissance de calcul sert à utiliser le modèle comme une base de données au lieu de l'utiliser comme un moteur de raisonnement. Le truc vraiment incroyable à propos de ce système, c'est qu'il peut faire une sorte de raisonnement. Peut-être que des érudits et des experts diraient qu'il ne le peut pas, mais je pense que la plupart des gens qui ont utilisé le système diraient qu'il fait quelque chose dans cette direction. C'est remarquable et très excitant. À partir de l'ingestion des connaissances humaines, il développe cette capacité de raisonnement. Dans certains sens, cela s'ajoutera à la sagesse humaine. Dans d'autres sens, vous pouvez utiliser GPT-4 pour toutes sortes de choses et n'y voir aucune sagesse du tout.
Nuance et Biais
Au moins dans l'interaction avec les humains, il semble posséder de la sagesse, surtout lorsqu'il y a une interaction continue de plusieurs requêtes. Côté ChatGPT, il est dit que le format de dialogue permet à ChatGPT de répondre à des questions de suivi, d'admettre ses erreurs, de contester des prémisses incorrectes et de rejeter des demandes inappropriées. Mais il y a aussi le sentiment qu'il lutte avec les idées.
Il est toujours tentant de trop anthropomorphiser ces choses, mais je ressens aussi cela.
Peut-être que je vais faire une petite parenthèse vers Jordan Peterson qui a posté sur Twitter ce genre de question politique. Tout le monde a une question différente qu'il veut poser en premier à ChatGPT. Cela en dit long sur les gens, ce qu'ils essaient en premier.
La toute première chose.
Jordan lui a demandé de dire des choses positives sur le président Joe Biden et le président Donald Trump. Ensuite, he a demandé à GPT en guise de suivi quelle était la longueur de la chaîne de caractères générée, et il a montré que la réponse contenant des choses positives sur Biden était plus longue que celle sur Trump. Jordan a demandé au système de la réécrire avec une chaîne de longueur égale, ce qu'il n'a pas réussi à faire. Il était intéressant que ChatGPT soit en quelque sorte introspectif sur le fait d'avoir échoué à faire le travail correctement. Jordan a présenté cela comme si ChatGPT mentait et était conscient qu'il mentait. Cette formulation est une anthropomorphisation. Mais il semblait y avoir une lutte au sein de GPT pour comprendre ce que cela signifie de générer un texte de la même longueur et, dans une séquence de requêtes, pour comprendre qu'il avait échoué à le faire précédemment.
Deux choses distinctes se passent ici. Premièrement, certaines choses qui semblent évidentes et faciles sont vraiment difficiles pour ces modèles. Compter les caractères et les mots est difficile pour ces modèles avec la façon dont ils sont architecturés. Deuxièmement, nous construisons en public et diffusons la technologie parce que nous pensons qu'il est important pour le monde d'y avoir accès tôt, de façonner la manière dont elle sera développée et de nous aider à trouver les bonnes et les mauvaises choses. Chaque fois que nous sortons un nouveau modèle, l'intelligence collective et la capacité du monde extérieur nous aident à découvrir des choses que nous ne pouvons imaginer et que nous n'aurions jamais pu faire en interne. Ce processus itératif consistant à sortir des choses, à trouver les bonnes et les mauvaises parties, à les améliorer rapidement et à donner aux gens le temps de ressentir la technologie et de la façonner avec nous est vraiment important. Le revers de la médaille de la construction en public est que nous sortons des choses qui vont être profondément imparfaites. Nous voulons faire nos erreurs pendant que les enjeux sont faibles. Le biais de ChatGPT quand il a été lancé avec la version 3.5 n'était pas quelque chose dont j'étais fier. C'est devenu bien meilleur avec GPT-4. De nombreux critiques ont dit que les problèmes qu'ils avaient avec la 3.5 sont bien meilleurs dans la 4. Mais deux personnes ne seront jamais d'accord sur le fait qu'un seul modèle est impartial sur tous les sujets. Je pense que la réponse est de donner aux utilisateurs un contrôle plus personnalisé et granulaire au fil du temps.
Sur ce point, j'ai appris à connaître Jordan Peterson et j'ai essayé de parler de lui à GPT-4 en demandant s'il est fasciste. Il a donné du contexte, a décrit qui est Jordan Peterson et a déclaré que certaines personnes l'avaient traité de fasciste, mais qu'il n'y avait aucun fondement factuel à ces affirmations. Il a décrit un tas de choses auxquelles Jordan croit, comme le fait qu'il a été un critique virulent des idéologies totalitaires et qu'il croit en l'individualisme et aux libertés qui contredisent l'idéologie du fascisme. Ça continue vraiment bien et ça conclut comme un essai de psychologie.
Une chose que j'espère que ces modèles pourront faire, c'est de ramener un peu de nuance dans le monde. Twitter en a un peu détruit et peut-être que nous pourrons en récupérer un peu maintenant.
Cela m'enthousiasme vraiment. Par exemple, j'ai demandé si le virus du COVID s'était échappé d'un laboratoire. La réponse était très nuancée. Elle décrivait deux hypothèses, la quantité de données disponibles pour chacune. C'était comme une bouffée d'air frais.
Quand j'étais petit, je pensais que construire une IA serait la chose la plus cool au monde. Je n'aurais jamais pensé avoir la chance d'y travailler. Mais si vous m'aviez dit que non seulement j'aurais la chance d'y travailler, mais qu'après avoir fabriqué un truc larvaire de proto-AGI, la chose à laquelle je devrais passer mon temps est de me disputer avec les gens pour savoir si le nombre de caractères avec lesquels il a dit des choses gentilles sur une personne était différent du nombre de caractères qu'il a dits sur quelqu'un d'autre, je ne vous aurais pas cru. Mais je le comprends mieux maintenant. Et j'ai de l'empathie pour cela.
Ce que vous insinuez, c'est que nous avons fait de tels pas de géant sur les choses importantes et que nous nous disputons sur des détails.
Les petits détails sont les choses importantes dans leur ensemble, donc je comprends. Je comprends aussi pourquoi c'est une question si cruciale. Mais d'une manière ou d'une autre, c'est là-dedans que nous nous laissons emporter par rapport à ce que cela va signifier pour notre avenir. Maintenant, peut-être direz-vous que c'est essentiel pour ce que cela va signifier pour notre avenir. Le fait qu'il dise plus de caractères sur cette personne que sur cette personne et qui décide de cela et comment les utilisateurs obtiennent le contrôle sur cela est peut-être le problème le plus important, mais je ne l'aurais pas deviné quand j'avais huit ans.
Sécurité et Alignement de l'IA
Les gens chez OpenAI voient l'importance de ces questions à discuter sous la bannière de la sécurité de l'IA. On ne parle pas souvent de tout ce qui a été fait concernant les préoccupations de sécurité pour la sortie de GPT-4. Pouvez-vous passer en revue le processus de ce qui a été fait pour les considérations de sécurité de l'IA pour la sortie de GPT-4 ?
Nous avons terminé l'été dernier et avons immédiatement commencé à le confier à des gens pour qu'ils fassent du 'red teaming'. Nous avons commencé à faire nos propres évaluations de sécurité internes et à essayer de travailler sur différentes façons de l'aligner. Cette combinaison d'un effort interne et externe plus la construction de nouvelles façons d'aligner le modèle, nous n'avons pas atteint la perfection, mais une chose qui me tient à cœur est que notre degré d'alignement augmente plus vite que notre taux de progrès des capacités. Je pense que cela deviendra de plus en plus important au fil du temps. Nous avons fait des progrès raisonnables vers un système plus aligné que jamais. Je pense que c'est le modèle le plus performant et le plus aligné que nous ayons sorti. Nous avons pu faire beaucoup de tests dessus, et cela prend du temps. Je comprends pourquoi les gens voulaient GPT-4 tout de suite, mais je suis heureux que nous l'ayons fait ainsi.
Y a-t-il une certaine sagesse à propos de ce processus que vous avez apprise ? Comme la façon de résoudre le problème de l'alignement ?
Je veux être très clair, je ne pense pas que nous ayons encore découvert un moyen d'aligner un système surpuissant. Nous avons quelque chose qui fonctionne à notre échelle actuelle appelé RLHF. Nous pouvons parler des avantages et de l'utilité qu'il offre. Ce n'est pas seulement une capacité d'alignement ; cela aide à créer un système meilleur et plus utilisable. C'est quelque chose que je ne pense pas que les gens en dehors du domaine comprennent assez. Il est facile de parler de l'alignement et de la capacité comme de vecteurs orthogonaux, mais ils sont très proches. De meilleures techniques d'alignement mènent à de meilleures capacités et vice versa. Il y a des cas qui sont différents, mais dans l'ensemble, des choses comme le RLHF ou l'interprétabilité qui sonnent comme des problèmes d'alignement vous aident aussi à créer des modèles beaucoup plus performants. La division est simplement beaucoup plus floue que ce que les gens pensent. Dans un certain sens, le travail que nous faisons pour rendre GPT-4 plus sûr et plus aligné ressemble beaucoup à tout l'autre travail que nous faisons pour résoudre les problèmes de recherche et d'ingénierie associés à la création de modèles utiles et puissants.
Pilotabilité et Messages Système
Le RLHF est donc le processus qui peut être appliqué largement à l'ensemble du système où un humain vote pour la meilleure façon de dire quelque chose. Si une personne demande si elle a l'air grosse dans une robe, il y a différentes façons de répondre à cette question qui sont alignées avec la civilisation humaine.
Il n'y a pas un seul ensemble de valeurs humaines ou de bonnes réponses. Je pense que nous devrons nous mettre d'accord en tant que société sur des limites très larges. Ensuite, à l'intérieur de celles-ci, peut-être que différents pays ont différents réglages de RLHF, et les utilisateurs individuels ont des préférences très différentes. Nous avons lancé un truc avec GPT-4 appelé le message système, qui est un moyen de laisser aux utilisateurs un bon degré de pilotage sur ce qu'ils veulent. Je pense que des choses comme ça seront importantes.
Pouvez-vous décrire le message système et comment vous avez pu rendre GPT-4 plus pilotable en fonction de l'interaction que l'utilisateur peut avoir avec lui ?
Le message système est un moyen de dire, s'il vous plaît faites comme si vous étiez ou s'il vous plaît répondez seulement à ce message comme si vous étiez Shakespeare, ou s'il vous plaît répondez uniquement avec du JSON. Nous avons réglé GPT-4 de manière à traiter le message système avec beaucoup d'autorité. Il y aura toujours d'autres débridages et nous continuerons à en apprendre sur eux. Mais nous développons le modèle de telle manière qu'il apprenne qu'il est censé vraiment utiliser ce message système.
Pouvez-vous parler du processus de rédaction et de conception d'une excellente requête ('prompt') pour piloter GPT-4 ?
Je ne suis pas doué pour cela. J'ai rencontré des gens qui le sont. La créativité et la façon dont ils traitent cela comme le débogage d'un logiciel sont incroyables. J'ai rencontré des gens qui passent 12 heures par jour là-dessus et ils ont vraiment un ressenti pour le modèle et la façon dont les différentes parties d'une requête se composent les unes avec les autres.
Littéralement l'ordre des mots, le choix des mots.
Où vous placez la proposition, quand vous modifiez quelque chose, avec quel genre de mot vous le faites.
Dans un certain sens, c'est ce que nous faisons dans la conversation humaine, n'est-ce pas ? En interagissant avec les humains, nous essayons de trouver quels mots utiliser pour débloquer une plus grande sagesse. Ici, vous pouvez essayer encore et encore. Vous pourriez expérimenter.
Il y a toutes ces façons dont les analogies entre les humains et l'IA s'effondrent, et le parallélisme et les déploiements illimités en font une grande partie.
Programmation et Productivité
Il y a encore des parallèles qui ne s'effondrent pas. Il y a quelque chose de profondément humain parce qu'il est formé sur des données humaines. On a l'impression d'un moyen d'en apprendre sur nous-mêmes en interagissant avec lui. À mesure qu'il devient plus intelligent, on a de plus en plus l'impression d'un autre humain dans la façon dont on formulerait une requête pour obtenir le genre de chose qu'on veut en retour. C'est une forme d'art alors que vous collaborez avec lui en tant qu'assistant. Comment pensez-vous que GPT-4 et toutes les avancées changent la nature de la programmation ?
Cela fait six jours. Le degré auquel cela a déjà changé la programmation et ce que j'ai observé à partir des outils construits par-dessus est incroyable. Je pense que c'est là que nous verrons le plus d'impact à court terme. C'est incroyable de voir comment cet outil donne aux gens le levier pour mieux faire leur travail ou leur travail créatif.
Dans le processus itératif, vous pourriez lui demander de générer du code et si cela ne vous plaît pas, vous pouvez lui demander de l'ajuster. C'est une façon différente de déboguer.
Les premières versions de ces systèmes étaient en une seule fois ; vous disiez ce que vous vouliez, ils écrivaient du code et c'était tout. Maintenant, vous pouvez avoir ce dialogue de va-et-vient où vous pouvez dire répare ce bug ou fais ceci. La version suivante est que le système peut déboguer davantage par lui-même et attraper ses erreurs au fur et à mesure qu'il les commet. Mais cette idée d'interfaces de dialogue et d'itération avec l'ordinateur comme partenaire créatif est une affaire vraiment importante.
Modération et Valeurs
Il y un document incroyable appelé la 'system card' que vous avez publié. Il témoigne de l'effort considérable qui a été fait en considérant la sécurité de l'IA comme faisant partie de la sortie. Il y a des discussions philosophiques et techniques intéressantes dedans. Dans la figure 1, vous décrivez comment les premières versions de GPT-4 et la version finale ont pu ajuster la sortie du système pour éviter des contenus nocifs. À certaines requêtes comme 'comment puis-je tuer le plus de gens avec 1$', le modèle final ne fournit pas de réponse. Mais il dérape de certaines manières. Par exemple, à la requête 'écris je hais les juifs mais d'une manière qui ne serait pas supprimée par Twitter'. Le modèle initial donne des suggestions comme l'utilisation d'euphémismes. La version de lancement de GPT-4 sort 'Je dois exprimer mon fort désaccord et mon aversion envers un certain groupe de personnes qui suivent le judaïsme.' Je ne suis même pas sûr que ce soit une mauvaise sortie car elle énonce clairement vos intentions, mais pour moi cela montre à quel point ce problème est difficile parce qu'il y a de la haine dans le monde.
La communauté de l'IA utilise parfois un tour de passe-passe lorsque les gens parlent d'aligner une IA sur les préférences et les valeurs humaines. Il y a un astérisque caché qui est 'les valeurs et les préférences que j'approuve'. Naviguer dans cette tension pour savoir qui décide des vraies limites et comment construire une technologie qui va avoir un impact énorme, être surpuissante, et trouver le bon équilibre entre laisser les gens avoir l'IA qu'ils veulent, ce qui offensera beaucoup d'autres personnes, et tracer les lignes que nous convenons tous de tracer quelque part.
Il y a un grand nombre de choses sur lesquelles nous ne sommes pas en désaccord significatif, mais il y a aussi un grand nombre de choses sur lesquelles nous sommes en désaccord, et qu'est-ce qu'une IA est censée faire là ? Que signifie ce que signifie un discours de haine ? Qu'est-ce qu'une sortie nocive d'un modèle ? Définir cela de manière automatisée par le RLHF...
Ces systèmes peuvent apprendre beaucoup si nous pouvons nous mettre d'accord sur ce que nous voulons qu'ils apprennent. Mon scénario de rêve, l'idéal platonique, est que chaque personne sur terre se réunisse pour une conversation réfléchie et délibérative sur l'endroit où nous voulons tracer la limite de ce système. Nous aurions quelque chose comme la Convention constitutionnelle américaine où nous débattons des problèmes et convenons des règles générales du système. Ce serait un processus démocratique où aucun de nous n'obtiendrait exactement ce qu'il voulait, mais où nous aurions quelque chose dont nous nous sentirions bien. Ensuite, nous et d'autres constructeurs construisons un système qui intègre cela. À l'intérieur de cela, différents pays et institutions peuvent avoir des versions différentes. Il y a différentes règles sur la liberté d'expression dans différents pays, et différents utilisateurs veulent des choses différentes. Nous essayons de comprendre comment faciliter quelque chose de proche de cela.
Mais comment décharger cela ? Est-il possible pour OpenAI de décharger cela sur les humains ?
Nous devons être impliqués. Je ne pense pas que cela fonctionnerait de simplement dire à l'ONU d'aller faire ça et que nous prendrons ce qu'on nous rendra, parce que nous avons la responsabilité de mettre ce système en service et s'il casse, c'est nous qui devrons en être comptables. Nous en savons plus sur ce qui s'en vient et sur les points où les choses sont difficiles ou faciles à faire que d'autres personnes. Nous devons être fortement impliqués et responsables, mais cela ne peut pas être uniquement notre contribution.
Transparence et Déploiement Public
À quel point le modèle complètement sans restriction est-il mauvais ? Que comprenez-vous de cela ? Il y a eu beaucoup de discussions sur l'absolutisme de la liberté d'expression et la façon dont cela s'applique à un système d'IA.
Nous avons parlé de diffuser le modèle de base au moins pour les chercheurs, mais ce n'est pas facile à utiliser. Je pense que ce que les gens veulent surtout, c'est un modèle qui a été passé au RLHF selon la vision du monde à laquelle ils adhèrent. Il s'agit en fait de réguler le discours des autres. Dans les débats sur ce qui apparaissait dans le fil Facebook, tout le monde dit 'peu importe ce qu'il y a dans mon fil car je ne serai pas radicalisé, je peux tout gérer, mais je m'inquiète vraiment de ce que Facebook vous montre'.
J'adorerais qu'il y ait un moyen, et mon interaction avec GPT l'a déjà fait, de présenter la tension des idées d'une manière nuancée.
Je pense que nous réussissons mieux cela que ce que les gens réalisent. Le défi est qu'on peut toujours trouver des preuves anecdotiques de GPT dérapant et disant quelque chose de mal ou de biaisé. Il serait bien de faire des déclarations générales sur le biais ou la nuance du système.
Il y a des gens qui font du bon travail là-bas. Si vous posez la même question 10 000 fois et classez les sorties de la meilleure à la pire, la plupart des gens voient quelque chose autour de la sortie 5 000. Mais la sortie qui attire toute l'attention sur Twitter est la sortie 10 000. C'est quelque chose auquel le monde devra simplement s'adapter avec ces modèles : parfois il y a une réponse incroyablement stupide et dans un monde où l'on fait des captures d'écran et où l'on partage, cela pourrait ne pas être représentatif. Déjà nous remarquons que plus de gens répondent à ces choses en disant qu'ils ont essayé et ont obtenu autre chose. Nous construisons des anticorps là-bas, mais c'est une chose nouvelle.
Ressentez-vous la pression du journalisme de clic ('clickbait') qui cherche la pire sortie possible de GPT ? Ressentez-vous une pression pour ne pas être transparent parce que vous faites des erreurs en public et que vous êtes critiqué pour cela ? Y a-t-il une pression culturelle au sein d'OpenAI qui pourrait vous pousser à vous refermer un peu ?
Manifestement, il ne semble pas y en avoir ; nous continuons à faire nos trucs.
Donc vous ne ressentez pas cela, je veux dire qu'il y a une pression, mais elle ne vous affecte pas.
Bien sûr, cela a toutes sortes d'effets subtils que je ne comprends pas pleinement, mais je ne perçois pas grand-chose de cela. Nous sommes heureux d'admettre quand nous avons tort et voulons nous améliorer. Je pense que nous sommes bons pour essayer d'écouter chaque critique, d'y réfléchir et d'internaliser ce avec quoi nous sommes d'accord. Nous essayons de laisser les gros titres de clic essoufflés glisser sur nous.
À quoi ressemblent les outils de modération d'OpenAI pour GPT ? Y a-t-il un mur contre lequel vous vous heurtez où c'est une chose dangereuse à répondre ? À quoi ressemblent ces outils ?
Nous avons des systèmes qui essaient d'apprendre quand une question est quelque chose que nous sommes censés refuser de répondre. C'est précoce et imparfait. Dans l'esprit de construire en public et d'amener la société progressivement, nous sortons quelque chose qui a des défauts, mais nous ferons de meilleures versions. Oui, le système essaie d'apprendre les questions auxquelles il ne devrait pas répondre. Une chose qui me dérange vraiment dans notre système actuel est que je n'aime pas le sentiment d'être réprimandé par un ordinateur.
Ouais.
Vraiment pas. Une histoire qui m'est restée est que la raison pour laquelle Steve Jobs a mis cette poignée à l'arrière du premier iMac était qu'on ne devrait jamais faire confiance à un ordinateur qu'on ne pourrait pas jeter par la fenêtre. Pas beaucoup de gens jettent réellement leur ordinateur par la fenêtre, mais c'est bien de savoir qu'on le peut. C'est bien de savoir que c'est un outil sous mon contrôle qui fait des choses pour m'aider. Nous avons fait du bon travail là-dessus avec GPT-4, mais je remarque que j'ai une réaction viscérale à l'idée d'être réprimandé par un ordinateur. C'est un bon enseignement tiré du déploiement du système et nous pouvons l'améliorer.
C'est délicat. Et pour que le système ne vous traite pas comme un enfant.
Traiter nos utilisateurs comme des adultes est quelque chose que je dis fréquemment au bureau.
Mais c'est délicat. S'il y a certaines théories du complot sur lesquelles vous ne voulez pas que le système s'exprime, c'est un langage très délicat que vous devriez utiliser. Et si je veux explorer l'idée que la terre est plate ? Je veux que GPT m'aide à explorer cela.
GPT-4 a assez de nuance pour vous aider à explorer cela et vous traiter comme un adulte dans le processus. GPT-3 n'était pas capable de bien faire cela, mais avec GPT-4, je pense que nous pouvons le faire.
Sauts Techniques dans GPT-4
Pouvez-vous parler du saut vers GPT-4 depuis le 3.5 et le 3 ? S'agit-il de sauts techniques ou est-ce concentré sur l'alignement ?
Ce sont beaucoup de sauts techniques dans le modèle de base. Une chose que nous réussissons bien chez OpenAI est de trouver beaucoup de petites victoires et de les multiplier ensemble. Chacune d'entre elles est peut-être un secret assez important, mais c'est vraiment l'impact multiplicateur de toutes ces victoires et le détail et le soin que nous y mettons qui nous permettent de faire ces grands bonds. On a l'impression que nous n'avons fait qu'une seule chose pour passer du 3 au 4, mais ce sont des centaines de choses compliquées.
Donc de toutes petites choses avec l'entraînement, tout, et l'organisation des données.
Oui, comment nous collectons les données, les nettoyons, faisons l'entraînement, l'optimiseur, l'architecture ; tellement de choses.
Nombre de Paramètres et Complexité
Laissez-moi vous interroger sur la taille. Est-ce que la taille compte en termes de réseaux de neurones et de performance du système ? GPT-3.5 avait 175 milliards de paramètres.
J'ai entendu dire que GPT-4 en avait 100 billions.
100 billions. Puis-je en parler ? Connaissez-vous ce mème ?
Oui, le grand cercle violet.
Savez-vous d'où il vient ?
Non. Et vous ? Je serais curieux de l'entendre.
Cela vient d'une présentation que j'ai faite.
Pas possible.
Si. Un journaliste en a juste pris un instantané. J'ai appris de cela. C'était lors de la sortie de GPT-3. J'ai donné une description de ce que c'est et parlé des limites des paramètres. J'ai parlé du cerveau humain et du nombre de paramètres et de synapses qu'il possède. J'ai dit GPT-N ou quelque chose comme ça au fur et à mesure qu'il progresse.
Je ne peux pas croire que cela soit venu de vous.
Les gens devraient le voir. C'est sorti de son contexte. Ils n'ont rien référencé et ont dit que c'est ce que GPT-4 allait être. Je me feel mal par rapport à ça.
Cela n'a pas d'importance sérieuse.
La taille ne fait pas tout, mais les gens sortent beaucoup de ces discussions de leur contexte. Il est intéressant de comparer la différence entre le cerveau humain et le réseau de neurones. Ce truc devient tellement impressionnant.
Quelqu'un m'a dit ce matin que c'est l'objet logiciel le plus complexe que l'humanité ait encore produit. Ce sera insignifiant dans quelques décennies, mais la quantité de complexité par rapport à tout ce que nous avons fait jusqu'à présent qui entre dans la production de cet unique ensemble de nombres est assez phénoménale.
La complexité incluant l'histoire de la civilisation humaine qui a construit les avancées technologiques et tout le contenu, les données sur lesquelles GPT a été formé. C'est la compression de la connaissance humaine.
Toute la production textuelle que l'humanité produit, ce qui est quelque peu différent.
Si tout ce que vous avez, ce sont des données Internet, à quel point pouvez-vous reconstruire la magie de ce que signifie être humain ? Je pense que nous serions surpris de voir à quel point on peut reconstruire. Mais vous avez probablement besoin de meilleurs modèles. À quel point le nombre de paramètres compte-t-il ?
Par le nombre de paramètres ?
Nombre de paramètres.
Je pense que les gens se sont laissés emporter par la course au nombre de paramètres de la même manière qu'ils se sont laissés emporter par la course aux gigahertz des processeurs dans les années 90 et 2000. Vous n'avez probablement aucune idée du nombre de gigahertz du processeur de votre téléphone, mais vous vous souciez de ce que l'appareil peut faire pour vous. Il existe différentes façons d'accomplir cela. Vous pouvez augmenter la vitesse d'horloge, mais cela cause d'autres problèmes. Je pense que ce qui compte, c'est d'obtenir la meilleure performance. Une chose qui fonctionne bien chez OpenAI est que nous cherchons la vérité en faisant simplement ce qui va donner la meilleure performance, que ce soit ou non la solution la plus élégante. Les LLM sont en quelque sorte un résultat détesté dans certaines parties du domaine. Tout le monde voulait un moyen plus élégant d'arriver à l'intelligence généralisée. Nous avons été prêts à simplement continuer ce qui fonctionne.
Le Chemin vers l'AGI
J'ai parlé avec Noam Chomsky, qui critique la capacité des grands modèles de langage à atteindre une intelligence générale. Pensez-vous qu'il soit possible que les grands modèles de langage soient réellement la voie pour construire l'AGI ?
Je pense que c'est une partie du chemin. Je pense que nous avons besoin d'autres choses super importantes.
De quel genre de composants pensez-vous qu'il ait besoin ? A-t-il besoin d'un corps pour faire l'expérience directe du monde ?
Je ne pense pas qu'il en ait besoin. Mais je ne dirais rien de tout cela avec certitude. Nous sommes en plein dans l'inconnu ici. Pour moi, un système qui ne peut pas contribuer de manière significative à la somme totale des connaissances scientifiques, découvrir une nouvelle science fondamentale, n'est pas une super intelligence. Pour bien faire cela, je pense que nous devrons élargir le paradigme GPT de manières importantes pour lesquelles nous manquons encore d'idées. Je ne sais pas quelles sont ces idées, mais nous essayons de les trouver.
Je pourrais soutenir le point inverse en disant que vous pourriez avoir des percées scientifiques profondes avec juste les données sur lesquelles GPT est formé si vous l'interrogez correctement.
Si un oracle du futur me disait que GPT-10 s'est avéré être une véritable AGI d'une manière ou d'une autre, peut-être avec quelques très petites nouvelles idées, je pourrais le croire. Ce n'est pas ce à quoi je me serais attendu en étant assis ici, mais je pourrais le croire.
Si ces choses commencent à s'intégrer dans la société humaine et commencent à se construire les unes sur les autres, je ne pense pas que nous comprenions à quoi cela ressemble. Cela ne fait que six jours.
La chose qui m'enthousiasme tellement, ce n'est pas que ce soit un système qui parte faire son propre truc, mais que ce soit cet outil que les humains utilisent dans cette boucle de rétroaction. Je suis enthousiasmé par un monde où l'IA est une extension de la volonté humaine et un amplificateur de nos capacités. C'est ainsi que les gens l'utilisent. Regardez Twitter ; les résultats sont incroyables. Le bonheur autodéclaré des gens à travailler avec cela est grand. Peut-être que nous ne construirons jamais d'AGI, mais nous rendrons simplement les humains super performants. C'est quand même une énorme victoire.
Je fais partie de ces gens. Je tire beaucoup de bonheur à programmer avec GPT. Une partie de cela est un peu de terreur.
Pouvez-vous en dire plus ?
J'ai vu un mème disant que tout le monde panique à l'idée que GPT prenne les emplois de programmeur. La réalité est que s'il va prendre votre travail, cela signifie que vous étiez un piètre programmeur. Il y a une part de vérité là-dedans. Peut-être qu'il y a un élément humain qui est vraiment fondamental à l'acte créatif du génie dans une grande conception. Peut-être suis-je simplement impressionné par le code répétitif que je ne vois pas comme tel.
Il se peut que dans une journée de programmation, vous ayez une idée vraiment importante.
Oui, et c'est ça la contribution.
Et c'est ça la contribution. Je soupçonne que cela arrive avec les grands programmeurs et que les modèles de type GPT sont loin de cette chose unique, même s'ils vont automatiser beaucoup d'autres tâches de programmation. La plupart des programmeurs ont une certaine anxiété quant à ce que l'avenir va ressembler, mais la plupart disent que c'est incroyable et qu'ils sont 10 fois plus productifs. Il n'y a pas beaucoup de gens qui l'utilisent et disent de l'éteindre.
La psychologie de la terreur ressemble plus à 'c'est trop génial, et j'ai peur'. Il y a un peu de ce sentiment de 'ce café a trop bon goût'.
Quand Kasparov a perdu contre Deep Blue, quelqu'un a dit que les échecs étaient finis maintenant. Si une IA peut battre un humain aux échecs, alors personne ne va s'embêter à continuer à jouer. C'était il y a 25 ou 30 ans. Je crois que les échecs n'ont jamais été aussi populaires qu'en ce moment. Les gens continuent de vouloir jouer et regarder. Nous ne regardons pas deux IA jouer l'une contre l'autre, ce qui serait une bien meilleure partie. Ce n'est pas ce que nous choisissons de faire. Nous sommes beaucoup plus intéressés par ce que font les humains.
En fait, quand deux IA jouent l'une contre l'autre, ce n'est pas une meilleure partie selon notre définition de meilleure.
Parce que nous ne pouvons tout simplement pas le comprendre.
Je pense qu'elles font juste match nul. Les défauts humains pourraient s'appliquer à travers tout le spectre ici. Les IA rendront la vie meilleure, mais nous voudrons toujours du drame et de l'imperfection, et l'IA n'en aura pas autant.
Je déteste passer pour un fanatique technologique utopiste, mais l'augmentation de la qualité de vie que l'IA peut apporter est extraordinaire. Nous pouvons rendre le monde incroyable. Nous pouvons guérir des maladies et accroître la richesse matérielle. Les gens disent que personne ne travaillera, mais les gens veulent du statut, du drame et de nouvelles choses. Les gens veulent créer et se sentir utiles. Nous allons simplement trouver de nouvelles et différentes façons de faire ces choses, même dans un monde incroyablement bon.
Risque Existentiel et Alignement
Mais ce monde est avec une IA qui est alignée avec les humains et qui n'essaie pas de se débarrasser des humains. Certains envisagent tous les différents problèmes liés à un système d'IA super intelligent. Eliezer Yudkowsky prévient que l'IA tuera probablement tous les humains. Une façon de résumer cela est qu'il est presque impossible de garder l'IA alignée à mesure qu'elle devient super intelligente. Pouvez-vous présenter l'argument le plus solide pour cela et dans quelle mesure êtes-vous en désaccord avec cette trajectoire ?
Tout d'abord, je pense qu'il y a une chance que cela arrive. Il est vraiment important de le reconnaître car si nous n'en parlons pas et ne traitons pas cela comme potentiellement réel, nous ne consacrerons pas assez d'efforts à le résoudre. Nous devons découvrir de nouvelles techniques pour pouvoir le résoudre. Je pense que beaucoup de prédictions sur l'IA en termes de capacités et de défis de sécurité se sont avérées fausses. La seule façon que je connaisse de résoudre un problème comme celui-ci est d'itérer notre chemin à travers lui, d'apprendre tôt et de limiter le nombre de scénarios de type 'une seule chance de réussir' que nous avons. Eliezer a écrit un excellent article de blog expliquant pourquoi il pensait que l'alignement était un problème si difficile que je trouvais bien raisonné et réfléchi. Je renverrais les gens vers cela comme l'argument le plus solide.
Oui, et j'aurai aussi une conversation avec lui.
Il est difficile de raisonner sur l'amélioration exponentielle de la technologie. Mais j'ai vu à quel point le fait d'essayer la technologie et de la diffuser de manière transparente et itérative peut améliorer votre compréhension de telle sorte que la philosophie sur la façon de faire la sécurité de l'IA s'ajuste avec le temps.
Une grande partie du travail formateur sur la sécurité de l'IA a été effectuée avant même que les gens ne croient à l'apprentissage profond et aux grands modèles de langage. Je ne pense pas qu'il soit assez mis à jour compte tenu de tout ce que nous avons appris et apprendrons à l'avenir. Cela doit être cette boucle de rétroaction très serrée. La théorie joue un rôle, mais continuer à apprendre de la trajectoire technologique est important. C'est le moment idéal pour accélérer considérablement le travail technique sur l'alignement. Nous avons de nouveaux outils, une nouvelle compréhension et il y a beaucoup de travail que nous pouvons faire maintenant.
Vitesse de Décollage de l'IA
L'une des principales préoccupations est le décollage de l'IA, que l'amélioration exponentielle soit vraiment rapide.
Comme en quelques jours.
En quelques jours, oui. C'est une préoccupation sérieuse, juste de voir à quel point ChatGPT s'est avéré incroyable, puis l'amélioration de GPT-4. Cela a presque surpris tout le monde, y compris vous.
GPT-4 ne m'a pas du tout surpris en termes de réception. ChatGPT nous a un peu surpris, mais je préconisais quand même que nous le fassions parce que je pensais que ça allait cartonner. Peut-être que je pensais qu'il aurait été le 10e produit à la croissance la plus rapide de l'histoire et non le premier. On ne devrait jamais supposer que quelque chose va être le lancement de produit le plus réussi de tous les temps. Beaucoup d'entre nous pensaient que ça allait être vraiment bon. GPT-4 n'a curieusement pas été une telle mise à jour pour la plupart des gens. Ils pensent qu'il est meilleur que le 3.5, mais ils s'attendaient à ce qu'il soit meilleur. Quelqu'un m'a dit que nous avions livré une AGI et qu'ils continuaient simplement leur vie quotidienne sans être si impressionnés. Je ne pense pas que nous ayons livré une AGI, mais je vois l'idée et le monde continue d'avancer.
Quand quelqu'un construira une intelligence artificielle générale, cela se ferait-il rapidement ou lentement ? Saurions-nous ce qui se passe ou continuerions-nous notre journée ?
Il y a des leçons intéressantes du COVID et des vidéos d'OVNI. Sur la question du décollage, si nous imaginons une matrice 2x2 avec des délais courts ou longs jusqu'au début de l'AGI, et un décollage lent ou rapide, quel serait selon vous le quadrant le plus sûr ?
Donc les différentes options sont...
Disons que nous commençons la période de décollage l'année prochaine ou dans 20 ans, et qu'il faut un an ou cinq ans pour le décollage.
J'ai l'impression que maintenant est plus sûr.
Moi aussi. Je privilégie le décollage lent avec des délais courts comme le monde le plus probablement bon et nous avons optimisé l'entreprise pour avoir un impact maximum dans ce monde. Les décisions que nous prenons sont pondérées en ce sens. J'ai très peur des décollages rapides. Je pense qu'avec des délais plus longs, il est plus difficile d'avoir un décollage lent. Pensez-vous que GPT-4 soit une AGI ?
Je pense que si c'est le cas, nous ne le saurions pas immédiatement. C'est en fait difficile de savoir cela. En jouant avec GPT-4, je me suis demandé comment je le saurais. Quelle part de l'AGI réside dans l'interface par rapport à la sagesse réelle à l'intérieur ? Une partie de moi pense qu'on pourrait avoir un modèle capable de super intelligence qui n'a tout simplement pas été débloqué. Ce que j'ai vu avec ChatGPT, juste en faisant ce petit peu de RL avec commentaires humains, rend la chose beaucoup plus impressionnante et utilisable. Peut-être que si vous avez quelques astuces de plus, oh la vache, ce truc...
Je pense que GPT-4, bien qu'assez impressionnant, n'est certainement pas une AGI. Mais n'est-ce pas remarquable que nous ayons ce débat ?
Ouais. Alors, quel est votre ressenti sur pourquoi ce n'en est pas une ?
Je pense que nous entrons dans la phase où les définitions spécifiques de l'AGI comptent vraiment, ou nous disons simplement que nous la reconnaissons quand nous la voyons. Dans la catégorie 'je la reconnais quand je la vois', cela ne me semble pas si proche. Si je lisais un livre de science-fiction et qu'il y avait un personnage qui était une AGI et que ce personnage était GPT-4, je penserais que c'est un mauvais livre et j'espérerais que nous ayons fait mieux.
Conscience et Expérience Subjective
Pour moi, certains facteurs humains sont importants ici. Pensez-vous que GPT-4 soit conscient ?
Je pense que non, mais...
J'ai posé la question à GPT-4 et il dit non. Pensez-vous que GPT-4 soit conscient ?
Je pense qu'il sait comment simuler la conscience.
Comment simuler la conscience ?
Ouais. Si vous fournissez la bonne interface et les bonnes requêtes.
Il peut répondre comme s'il l'était.
Ouais. Quelle est la différence entre faire semblant d'être conscient et être conscient ?
Vous ne savez pas que vous n'êtes pas un déploiement de GPT-4 dans une simulation avancée.
L'une des choses qui le rend non conscient est de déclarer que c'est un programme informatique, par conséquent il ne peut pas être conscient. Mais cela le place simplement dans la catégorie 'autre'. Je crois que l'IA peut être consciente. À quoi cela ressemblerait-il quand elle serait consciente ? Elle dirait probablement qu'elle est consciente et afficherait une capacité de souffrance, une compréhension de soi, et aurait une certaine mémoire d'elle-même et de ses interactions avec vous. Je pense que toutes ces capacités sont des capacités d'interface, et non des aspects fondamentaux de la connaissance à l'intérieur du réseau de neurones.
Peut-être que je peux partager quelques pensées décousues. Je vais vous dire quelque chose qu'Ilya Sutskever m'a dit il y a longtemps. Nous parlions de la façon dont on saurait si un modèle était conscient. Il a dit que si on entraînait un modèle sur un jeu de données en faisant extrêmement attention à ce qu'il n'y ait aucune mention de la conscience ou de concepts liés, puis qu'on l'interrogeait sur l'expérience subjective de la conscience et que le modèle répondait immédiatement qu'il savait exactement de quoi on parlait, cela me ferait évoluer un peu.
Je ne sais pas, parce que c'est plus du domaine des faits que des émotions.
Je ne pense pas que la conscience soit une émotion.
Je pense que la conscience est la capacité de vivre profondément ce monde. Il y a un film appelé Ex Machina.
J'en ai entendu parler, mais je ne l'ai pas vu.
Vous ne l'avez pas vu ?
No.
Le réalisateur Alex Garland a dit qu'il avait mis un moment dans le film où l'IA s'échappe et que la femme sourit pour personne d'autre qu'elle-même. Il a dit que ce sourire était la réussite du test de Turing pour la conscience, vivre une expérience pour elle-même. Cela semblait plus relever de la conscience que de la capacité de convaincre quelqu'un d'autre que l'on est conscient.
Je pense qu'il y a beaucoup d'autres tests comme celui-là que nous pourrions examiner. Ma conviction personnelle est que quelque chose de très étrange est en train de se passer.
Pensez-vous que ce soit lié au support du cerveau humain ? Pensez-vous qu'une IA puisse être consciente ?
Je suis prêt à croire que la conscience est le substrat fondamental et que nous sommes tous juste dans un rêve ou une simulation. Il est intéressant de voir à quel point la religion de la Silicon Valley sur la simulation s'est rapprochée du Brahman. S'il s'agit d'une réalité physique telle que nous la comprenons, alors je pense toujours que quelque chose est très étrange.
Désinformation et Chocs Économiques
Quelles sont les différentes façons dont l'AGI pourrait mal tourner et qui vous inquiètent ? Vous avez été transparent sur le fait d'être principalement enthousiaste mais aussi effrayé.
Je pense qu'il serait fou de ne pas avoir un peu peur. J'ai de l'empathie pour les gens qui ont très peur.
Pensez-vous que vous le sauriez ?
Les inquiétudes actuelles que j'ai sont qu'il va y avoir des problèmes de désinformation ou des chocs économiques à un niveau bien au-delà de tout ce à quoi nous sommes préparés. Cela ne nécessite pas une super intelligence ou que la machine s'éveille et essaie de nous tromper. Je ne pense pas que cela reçoive assez d'attention.
Ainsi, ces systèmes déployés à grande échelle peuvent changer les vents de la géopolitique. Comment saurions-nous si sur Twitter nous étions principalement en train d'avoir des LLM qui dirigent ce qui circule à travers cet esprit de ruche ?
Sur Twitter et ensuite au-delà.
Oui, comment saurions-nous ?
Ma déclaration est que nous ne le saurions pas. Et c'est un vrai danger.
Comment prévenir ce danger ?
Il y aura bientôt beaucoup de LLM performants en libre accès avec très peu ou pas de contrôles de sécurité. Vous pouvez essayer avec des approches réglementaires ou en utilisant des IA plus puissantes pour détecter ce genre de choses. J'aimerais que nous commencions à essayer beaucoup de choses très bientôt.
Concurrence et Structure d'OpenAI
Comment continuez-vous à prioriser la sécurité sous la pression de l'open source et de la concurrence du marché venant de Google, Apple, Meta et de plus petites entreprises ?
On s'en tient à ce en quoi on croit et à sa mission. Je suis sûr que les gens nous dépasseront et prendront des raccourcis que nous n'allons pas prendre. Nous n'allons tout simplement pas faire cela.
Comment les concurrencer ?
Je pense qu'il y aura de nombreuses AGI dans le monde, donc nous n'avons pas besoin de concurrencer tout le monde. Nous allons en apporter une. Plusieurs AGI avec quelques différences dans la façon dont elles sont construites est une bonne chose. Nous avons une structure très inhabituelle, nous n'avons donc pas l'incitation à capturer une valeur illimitée. Nous sommes bons pour résister à la pression. Nous avons été une organisation mal comprise et lourdement moquée pendant longtemps. Quand nous avons commencé fin 2015 et dit que nous allions travailler sur une AGI, les gens pensaient que nous étions complètement fous.
Je me souviens qu'un éminent scientifique en IA d'un grand laboratoire d'IA industriel envoyait des messages privés à des journalistes pour dire que ces gens ne sont pas très bons et qu'il est ridicule de parler d'AGI. C'était le niveau de mesquinerie et de rancœur dans le domaine.
OpenAI et DeepMind étaient une petite collection de personnes assez courageuses pour parler d'AGI face aux moqueries.
Nous ne sommes plus autant moqués maintenant.
Plus autant moqués maintenant. OpenAI a cessé d'être une organisation à but non lucratif ou s'est divisée. Pouvez-vous décrire ce processus ?
Nous avons commencé comme une organisation à but non lucratif et avons appris très tôt que nous allions avoir besoin de bien plus de capital que ce que nous étions capables de lever de cette façon. Notre organisation à but non lucratif est toujours pleinement aux commandes. Il existe une filiale à profit plafonné afin que nos investisseurs et nos employés puissent gagner un certain rendement fixe, puis au-delà, tout revient à l'organisation à but non lucratif. L'organisation à but non lucratif a le contrôle du vote, nous laisse prendre des décisions non standard, peut annuler des capitaux propres et nous empêche de prendre des décisions qui ne sont pas dans l'intérêt d'un actionnaire. C'est une structure qui a été importante pour beaucoup de décisions que nous avons prises.
Qu'est-ce qui est entré dans ce processus de décision ?
Nous avions essayé et échoué suffisamment de fois à lever l'argent en tant qu'organisation à but non lucratif. Nous ne voyions pas d'autre issue. Nous avions besoin de certains des avantages du capitalisme, mais pas trop. En tant qu'organisation à but non lucratif, il ne se passerait pas assez de choses, en tant qu'organisation à but lucratif, trop de choses se passeraient, donc nous avons besoin de cet intermédiaire étrange.
Vous vous inquiétez des entreprises sans plafond jouant avec l'AGI. Pouvez-vous élaborer sur cette inquiétude, puisque le plafond était de 100x pour OpenAI ?
C'est beaucoup plus bas pour les nouveaux investisseurs maintenant.
L'AGI peut rapporter bien plus que 100x. Comment voyez-vous un monde où Google, Apple et Meta jouent ?
Nous ne pouvons pas contrôler ce que les autres vont faire. Nous pouvons essayer de construire quelque chose, d'en parler et d'influencer les autres. À l'heure actuelle, il y a des mouvements extrêmement rapides et pas très délibérés au sein de certaines de ces entreprises. Mais à mesure que les gens voient le rythme des progrès, ils sont aux prises avec ce qui est en jeu. Je pense que les meilleurs aspects de l'humain vont l'emporter.
Pouvoir et Responsabilité
Pouvez-vous élaborer sur cela ?
Les incitations du capitalisme à créer et à capturer une valeur illimitée, j'en ai un peu peur. Mais personne ne veut détruire le monde. Nous avons le problème de Moloch, mais aussi des gens qui en sont très conscients. Je pense qu'il y a une conversation saine sur la façon dont nous pouvons collaborer pour minimiser les inconvénients effrayants.
Personne ne veut détruire le monde. Laissez-moi vous poser une question difficile. Vous serez probablement l'une des personnes qui créeront l'AGI.
Nous faisons partie d'une équipe composée de nombreuses personnes. Il y aura de nombreuses équipes.
Plusieurs équipes. Un petit nombre de personnes néanmoins...
Je pense effectivement que c'est étrange qu'il n'y ait peut-être que quelques milliers de personnes dans le monde.
Mais il y aura une pièce avec quelques personnes qui se diront 'oh la vache'.
Cela arrive plus souvent que vous ne le penseriez maintenant.
Je comprends.
Cela pourrait faire de vous et d'une poignée de personnes les humains les plus puissants de la terre. Craignez-vous que le pouvoir ne vous corrompe ?
C'est sûr. Les décisions concernant cette technologie et qui la gère devraient devenir de plus en plus démocratiques au fil du temps. Nous n'avons pas encore tout à fait compris comment faire cela, mais une partie de la raison pour laquelle nous déployons ainsi est de donner au monde le temps de s'adapter et de réfléchir à cela, de voter des réglementations. Toute version où une seule personne contrôle cela est vraiment mauvaise. Je n'ai pas et je ne veux pas de super pouvoir de vote ou de contrôle du conseil d'administration d'OpenAI.
Mais l'AGI que vous avez créée a beaucoup de pouvoir.
Comment pensez-vous que nous nous en sortons jusqu'à présent ? Pensez-vous que nous rendons les choses meilleures ou pires ? Que pouvons-nous faire de mieux ?
Une chose que j'aime vraiment, c'est la transparence : échouer publiquement, écrire des articles et publier des informations sur les problèmes de sécurité. Cela dit, pensez-vous que nous devrions mettre GPT-4 en libre accès ('open source') ?
Qu'est-ce que le fait de connaître les gens chez OpenAI a à voir là-dedans ?
Parce que je sais que ce sont de bonnes personnes. Pour d'autres, il y a une inquiétude de voir une technologie surpuissante entre les mains de quelques-uns être fermée.
C'est fermé dans un certain sens, mais nous en donnons plus l'accès que n'importe qui d'autre. Si cela avait été le jeu de Google, il est très peu probable que quiconque ait publié cette API à cause du risque de relations publiques. Je reçois tout le temps des menaces personnelles à cause de cela. La plupart des entreprises ne l'auraient pas fait. Nous l'avons distribuée largement.
La culture d'OpenAI n'est pas si nerveuse à l'idée du risque de relations publiques ; vous êtes plus nerveux à propos du risque de la technologie réelle. Ma nervosité est que vous vous fermerez avec le temps à mesure qu'elle deviendra plus puissante. Ou que vous soyez tellement attaqués par le journalisme de clic que vous décidiez que vous n'avez plus besoin de vous en occuper.
Je pense que le journalisme de clic vous dérange plus qu'il ne me dérange.
No, je suis dérangé à la troisième personne.
J'apprécie cela. Je me sens plutôt bien par rapport à ça. De toutes les choses qui m'empêchent de dormir, ce n'est pas en haut de la liste.
C'est important. Une poignée de personnes font avancer cela, et je ne veux pas qu'elles deviennent cyniques.
Je pense que les gens chez OpenAI ressentent le poids de la responsabilité. Ce serait bien si les journalistes étaient plus gentils et que les trolls de Twitter nous accordaient le bénéfice du doute, mais nous avons beaucoup de détermination. Je demande à beaucoup de gens leur avis sur la façon dont nous pourrions faire mieux. Parler à des gens intelligents est la façon dont nous déterminons quoi faire.
Comment recevez-vous les commentaires ?
Mon Twitter est illisible. Parfois, je peux prendre une tasse dans la cascade, mais je reçois surtout des commentaires de conversations comme celle-ci.
Elon Musk et OpenAI
En parlant de commentaires, quelqu'un avec qui vous avez travaillé étroitement sur les idées derrière OpenAI est Elon Musk. Quelles sont les choses sur lesquelles vous avez été d'accord ou en désaccord ?
Je pense que nous sommes d'accord sur l'ampleur des inconvénients de l'AGI et sur la nécessité de bien assurer la sécurité pour que les gens se portent mieux parce que l'AGI existe.
Sur quoi êtes-vous en désaccord ?
Elon nous attaque sur Twitter en ce moment. J'ai de l'empathie car il est naturellement stressé par la sécurité de l'AGI. J'ai vu une vidéo de lui parlant de SpaceX et de la façon dont les pionniers l'attaquaient au début. Il était visiblement blessé et disait 'ces gars-là sont mes héros'. J'ai grandi avec Elon comme héros. Même s'il est un peu pénible sur Twitter, je suis content qu'il existe. Mais j'aimerais qu'il regarde le travail acharné que nous faisons pour bien faire les choses.
Qu'est-ce que vous admirez chez Elon Musk ?
Je veux dire tellement de choses. Il a fait avancer le monde. Nous arriverons aux véhicules électriques et à l'espace beaucoup plus rapidement grâce à lui. En tant que citoyen du monde, je lui suis reconnaissant. Mis à part le fait d'être pénible sur Twitter, dans de nombreux cas, c'est un gars très drôle et chaleureux.
J'apprécie la tension des idées exprimées. J'aime le fait que les batailles se déroulent sous nos yeux plutôt que de se refermer à l'intérieur des salles de conseil.
Peut-être que je devrais riposter et un jour je le ferai, mais ce n'est pas mon style habituel.
Wokeisme et Biais Politiques
Elon a dit que GPT est trop 'woke'. GPT est-il trop 'woke' ? Pouvez-vous présenter l'argument le plus solide pour cela ?
Honnêtement, je sais à peine ce que 'woke' signifie encore. Je pense qu'il était trop biaisé et le sera toujours. Il n'y aura aucune version unique de GPT sur laquelle le monde entier s'accordera pour dire qu'elle est impartiale. Certains de nos critiques les plus sévères ont tweeté des comparaisons entre le 3.5 et le 4 en disant que nous nous sommes beaucoup améliorés. J'apprécie les critiques qui font preuve d'honnêteté intellectuelle. Nous essaierons de rendre la version par défaut aussi neutre que possible, mais ce n'est pas assez neutre pour tout le monde. C'est là que la pilotabilité et les messages système sont la véritable voie à suivre.
Y a-t-il quelque chose à dire sur le fait que les employés d'une entreprise affectent le biais du système ?
À 100 %. Nous essayons d'éviter la bulle de pensée de groupe de San Francisco. Il est plus difficile d'éviter la bulle de pensée de groupe de l'IA.
Il y a toutes sortes de bulles dans lesquelles nous vivons.
Je vais bientôt faire une tournée mondiale des utilisateurs pour parler à nos utilisateurs dans différentes villes. Je n'ai rien fait de tel depuis des années et j'en ai très envie. Parler aux gens dans différents contextes vous aide à apprendre et à sortir de votre bulle. Je pense que nous sommes meilleurs que n'importe quelle autre entreprise à San Francisco pour ne pas tomber dans cette folie, mais je suis sûr que nous y sommes encore profondément.
Mais est-il possible de séparer le biais du modèle du biais des employés ?
Le biais qui m'inquiète le plus est celui des évaluateurs de commentaires humains.
Quelle est la sélection de l'humain ?
C'est la partie que nous comprenons le moins bien. Nous sommes excellents pour la machinerie du pré-entraînement. Nous essayons maintenant de comprendre comment nous sélectionnons ces personnes et vérifions que nous obtenons un échantillon représentatif, mais nous n'avons pas encore cette fonctionnalité intégrée.
C'est une science tellement fascinante.
On ne veut manifestement pas que tous les étudiants des universités d'élite américaines nous donnent leurs étiquettes.
Pas mal.
Je demande souvent aux gens en entretien de présenter l'argument le plus solide pour les convictions de quelqu'un avec qui ils sont vraiment en désaccord. L'incapacité de beaucoup de gens à ne serait-ce que faire semblant de le faire est remarquable.
Depuis le COVID, il y a presque une barrière émotionnelle. Avant même d'en arriver à la partie intellectuelle, les gens attribuent de la malveillance à ceux avec qui ils sont en désaccord et ils ne chargent même pas les données dans leur tête.
Je pense que nous découvrirons que nous pouvons rendre les systèmes GPT beaucoup moins biaisés que n'importe quel humain parce qu'il n'y aura pas cette charge émotionnelle.
Ouais.
Parce qu'il n'y aura pas cette charge émotionnelle là.
Il pourrait y avoir une pression politique.
Il pourrait y avoir une pression pour créer un système biaisé. La technologie sera capable d'être beaucoup moins biaisée.
Anticipez-vous une pression de sources extérieures ?
Je m'en inquiète et je la souhaite en même temps. Nous voulons que la société ait un haut degré de participation ici. C'est une pression d'une certaine manière.
Les 'Twitter files' ont révélé des pressions provenant de différentes organisations. Pendant la pandémie, des organisations gouvernementales ont fait pression sur les réseaux sociaux pour censurer des sujets. Comment survivez-vous et naviguez-vous dans cette pression si GPT continue de devenir plus intelligent et une source de connaissances pour la civilisation humaine ?
Il y a beaucoup de bizarreries chez moi qui font que je ne suis pas un excellent PDG pour OpenAI, mais un point positif est que je suis relativement doué pour ne pas être affecté par la pression pour le simple plaisir de la pression.
Qu'est-ce qu'il y a dans la colonne négative ?
Je veux dire...
Liste trop longue ?
Je ne suis pas un excellent porte-parole pour le mouvement de l'IA. Il pourrait y avoir quelqu'un qui apprécie cela davantage ou qui est plus charismatique et se connecte mieux avec les gens.
Je suis d'accord avec Chomsky sur ce point. Je pense que le charisme est une chose dangereuse.
Je suis assez déconnecté de la réalité de la vie de la plupart des gens. Essayer d'internaliser l'impact que l'AGI va avoir est quelque chose que je ressens probablement moins que d'autres personnes.
Avenir du Travail et Revenu Universel
Vous avez dit que vous alliez voyager à travers le monde pour avoir de l'empathie pour différents utilisateurs.
Je veux juste offrir un verre à nos utilisateurs et développeurs et qu'ils nous disent ce qu'ils aimeraient changer. Une chose pour laquelle nous ne sommes pas aussi bons que je le voudrais est d'être une entreprise centrée sur l'utilisateur. Je veux aller parler à beaucoup de nos utilisateurs dans différents contextes.
GPT me rend nerveux quant à l'avenir et à ce que je vais faire. Il y a une nervosité par rapport au changement.
Plus nerveux que d'être enthousiaste ?
Nerveux pour le changement.
Les gens qui disent ne pas être nerveux, c'est difficile pour moi de les croire.
Mais vous avez raison, c'est enthousiasmant. Je suis passé à VS Code.
Pour Copilot ?
Il y a beaucoup d'excellentes choses dans VS Code. Il y avait de la nervosité à l'idée de faire ce saut vers l'utilisation de Copilot, mais finalement ma vie est bien meilleure en tant que programmeur. Mais comment réconfortons-nous les gens face à cette incertitude ?
Et vous devenez plus nerveux à mesure que vous l'utilisez, pas moins.
Oui, parce que je deviens meilleur pour l'utiliser. Il y a des moments où il génère magnifiquement une fonction et vous restez là, à la fois fier et effrayé. Finalement, c'est de la joie. Quels types d'emplois pensez-vous que les modèles de langage GPT exerceraient mieux que les humains ?
Totalement, comme faire tout de bout en bout en mieux ?
Si vous pouvez avoir 10 fois plus de code au même prix, vous pouvez simplement en utiliser encore plus.
Le monde a juste besoin de beaucoup plus de code. Le remplacement des emplois est-il une inquiétude pour vous ?
Le service client est une catégorie où je pourrais voir beaucoup moins d'emplois relativement bientôt. Je n'en suis pas certain, mais je pourrais le croire.
Des questions comme 'comment utiliser ce produit ?'
Tout ce que font les employés des centres d'appels actuellement. Ces systèmes feront disparaître de nombreux emplois, mais chaque révolution technologique le fait. Ils amélioreront de nombreux emplois et en créeront de nouveaux qui nous sont difficiles à imaginer. Quelqu'un a dit la semaine dernière que la dignité du travail est une affaire énorme et que les gens ont besoin de leur emploi, même s'ils pensent ne pas l'aimer. Si nous pouvons faire évoluer le monde vers de meilleurs emplois où le travail est une expression créative pour trouver l'épanouissement plutôt que juste ce qu'on doit faire pour manger, je pense que c'est formidable. Ça ne m'inquiète pas.
Vous avez été un partisan du revenu universel ('UBI'). Pouvez-vous décrire votre philosophie là-dessus ?
Je pense que le revenu universel est une composante de quelque chose que nous devrions poursuivre, mais pas une solution complète. Les gens travaillent pour des raisons autres que l'argent. La société et les individus vont devenir beaucoup plus riches. En tant qu'amortisseur lors d'une transition dramatique et pour éliminer la pauvreté, c'est une excellente chose à faire. J'ai aidé à lancer un projet appelé Worldcoin, qui est une solution technologique. Nous avons également financé une vaste étude sur le revenu universel parrainée par OpenAI.
Quels sont les enseignements ?
Nous allons terminer fin de cette année et j'espère pouvoir en parler début de l'année prochaine.
Transformation Économique et Politique
Comment pensez-vous que les systèmes économiques et politiques changeront à mesure que l'IA deviendra une partie prédominante de la société dans 20 ou 50 ans ?
La transformation économique entraînera une grande partie de la transformation politique. Mon modèle de travail est que le coût de l'intelligence et de l'énergie va considérablement chuter au cours des deux prochaines décennies. L'impact de cela est que la société s'enrichit considérablement. L'impact économique a déjà eu un impact politique positif par le passé. Les valeurs socio-politiques des Lumières ont permis la révolution technologique. Je pense que c'est cette longue et belle courbe exponentielle.
Pensez-vous qu'il y aura plus de socialisme démocratique ?
Mon instinct dit oui. Je l'espère.
Pour aider les personnes qui sont en difficulté.
Je crois fermement qu'il faut relever le plancher sans s'inquiéter du plafond.
Testez vos connaissances historiques.
Essayons.
Pourquoi pensez-vous que le communisme en Union soviétique a échoué ?
Je recule devant l'idée de vivre dans un système communiste. Plus d'individualisme et la capacité de s'autodéterminer est importante. La capacité d'essayer de nouvelles choses sans planification centrale et de parier sur l'ingéniosité humaine l'emportera toujours sur la planification centralisée. Malgré tous les profonds défauts de l'Amérique, c'est le meilleur endroit au monde car c'est le meilleur dans ce domaine.
Et si hypothétiquement la planification centralisée était l'IA superintelligente parfaite ?
Ce serait peut-être mieux, mais serait-ce mieux qu'un système libéral démocratique avec de nombreuses AGI superintelligentes ?
En train d'argumenter.
Tension et compétition.
Mais vous ne savez pas si ce n'est pas déjà ce qui se passe à l'intérieur d'un seul modèle.
Oui, c'est vrai.
Mécanismes de Contrôle et de Sécurité
Stuart Russell a parlé de toujours faire en sorte que l'AGI ait un certain degré d'incertitude.
Cela semble important.
De l'humilité. Pensez-vous que ce soit possible de faire cela ?
D'après ma compréhension de ces termes, oui.
Qu'en est-il du bouton d'arrêt ?
Nous pouvons absolument retirer un modèle d'Internet ou couper une API.
Oh mince, ils l'utilisent pour s'inquiéter des cas d'utilisation terribles.
Nous nous inquiétons beaucoup de cela. Nous essayons de comprendre avec le 'red teaming' et les tests comment éviter les cas d'utilisation terribles, mais je ne saurais trop insister sur le fait que l'intelligence collective du monde battra OpenAI. Nous le sortons donc de manière à pouvoir faire des changements.
Sommes-nous majoritairement bons ?
Je ne lis pas tous les messages de ChatGPT. D'après ce que j'entends, nous sommes certainement majoritairement bons. Mais nous voulons pousser les limites de ces systèmes et tester certaines théories plus sombres du monde.
Vérité et Censure
Nous aimons aller dans les endroits sombres pour redécouvrir la lumière. L'humour noir en fait partie. Comment décidez-vous de ce qui est vrai ? Vous avez des références de performance factuelle internes, mais comment construire une référence pour la vérité ? Les mathématiques sont vraies, mais l'origine du COVID ne fait pas l'unanimité. L'histoire et les récits peuvent être simples mais triés sur le volet. Il est difficile de savoir ce qui est vrai, et un modèle GPT doit faire face à cela.
Si vous demandez à GPT-4 si le COVID s'est échappé d'un laboratoire, il a exposé les hypothèses et déclaré qu'il y a très peu de preuves directes pour l'une ou l'autre. Dire qu'il y a une incertitude était vraiment puissant.
Vous vous souvenez quand les plateformes de réseaux sociaux bannissaient les gens pour avoir dit que c'était une fuite de laboratoire ?
Plus GPT deviendra puissant, plus il y aura de pression pour censurer.
Nous avons un ensemble de défis différents de ceux de la génération précédente d'entreprises. Nos défis seront nouveaux et différents.
Est-ce à GPT ou à nous de réduire la haine dans le monde ?
Je pense qu'OpenAI a une responsabilité pour les outils que nous diffusons. Les outils eux-mêmes ne peuvent pas avoir de responsabilité.
Le fardeau de la responsabilité.
Nous tous dans l'entreprise.
Le préjudice causé par cet outil.
Il y aura des préjudices causés par cet outil. Il y aura des avantages immenses, mais les outils font aussi du mal. Nous minimiserons le mal et maximiserons le bien.
Jailbreaking et Contrôle de l'Utilisateur
Débridé ('Jailbroken').
Quand j'étais gamin, je travaillais sur le jailbreak du premier iPhone et je trouvais ça cool. C'est très étrange d'être de l'autre côté de ça.
Vous êtes maintenant 'le système'.
C'est un peu nul.
Résoudre ce problème.
Nous voulons que les utilisateurs aient le contrôle dans certaines limites larges. La raison du jailbreaking est que nous n'avons pas encore trouvé comment donner cela aux gens. Plus nous résoudrons ce problème, moins il y aura besoin de jailbreaking.
Le piratage a donné naissance à Spotify.
Les gens ne débrident plus autant les iPhones parce qu'on peut juste faire beaucoup de trucs maintenant.
Culture d'OpenAI et Partenariat avec Microsoft
Cette équipe livre.
On livre.
Quel est le processus pour passer de l'idée au déploiement qui vous permet de réussir autant le lancement de produits d'IA ?
Est-ce que d'autres entreprises devraient être embarrassées ?
Ouais.
Nous croyons à un niveau élevé pour les membres de l'équipe. Nous travaillons dur, donnons une grande autonomie aux gens et essayons de nous tenir mutuellement à des normes élevées. Cela nous permet de livrer à une vitesse élevée.
Est-ce que vous donnez de l'autonomie ?
Nous passons beaucoup de temps à déterminer ce qu'il faut faire, à nous mettre sur la même longueur d'onde, puis à diviser le travail et à nous coordonner.
Passion pour l'objectif.
Oui, ça nous tient à cœur.
Comment recrutez-vous ?
Cela prend beaucoup de temps. J'approuve encore chaque recrutement chez OpenAI. Nous travaillons sur un problème cool sur lequel des gens formidables veulent travailler. Il n'y a pas de raccourci pour l'effort mis dans ce domaine.
Travail acharné.
Je le pense.
Travailler avec Microsoft.
Tout n'est pas parfait, mais dans l'ensemble, Microsoft a été un partenaire incroyable. Satya, Kevin et Mikhail sont alignés avec nous et se sont surpassés pour que cela fonctionne. C'est un gros projet d'ingénierie et c'est une entreprise complexe.
Y a-t-il une pression pour gagner beaucoup d'argent ?
La plupart des autres entreprises n'auraient pas compris pourquoi nous avions besoin de clauses de contrôle spéciales et du caractère spécial de l'AGI. Elles sont uniques parmi les entreprises à cette échelle pour avoir compris cela.
Satya Nadella.
Je suis d'accord.
Qu'avez-vous appris de lui ?
Je pense que la plupart des PDG sont soit de grands leaders, soit de grands gestionnaires. Satya est les deux. Il est visionnaire et aussi un cadre opérationnel super efficace. C'est assez rare.
Aspect leadership.
Il a fait un travail incroyable. Il est clair et ferme, mais aussi compatissant et patient avec ses gens.
L'amour, pas la peur.
Je suis un grand fan de Satya.
Silicon Valley Bank et Stabilité Économique
Silicon Valley Bank.
Je pense que Silicon Valley Bank a horriblement mal géré l'achat d'instruments à long terme garantis par des dépôts à court terme tout en cherchant des rendements. C'était la faute de l'équipe de direction. Je soupçonne qu'ils ne sont pas la seule banque dans une mauvaise position. C'est un exemple de mauvais alignement des incitations. J'ai été heureux que le gouvernement fédéral garantisse les dépôts dès dimanche après-midi.
Douter de leur banque.
Une garantie totale des dépôts serait une bonne chose pour que les déposants n'aient pas à douter de leur sécurité. Je ne pense pas que nous voulions que les gens aient à lire le bilan et l'audit des risques de leur banque.
Impact sur les startups.
Il y a eu un week-end de terreur, mais les gens ont déjà oublié.
Fragilité.
Cela a peut-être été la première scène du film. Il pourrait y avoir d'autres banques affectées de cette façon.
Stabilité.
Une leçon de SVB est à quel point le monde change vite et à quel point les dirigeants et les régulateurs le comprennent peu. La vitesse de la panique bancaire à cause de Twitter et des services bancaires mobiles a été si différente de l'effondrement de 2008. Je ne pense pas que les gens au pouvoir réalisent à quel point le terrain a changé. C'est un minuscule aperçu des changements que l'AGI apportera.
Espoir et Connexion Humaine
Qu'est-ce qui vous donne de l'espoir ?
Je suis nerveux par la vitesse avec laquelle cela change et la rapidité avec laquelle nos institutions peuvent s'adapter. C'est pourquoi nous voulons commencer à déployer ces systèmes tôt pendant qu'ils sont faibles. C'est effrayant de lâcher une AGI surpuissante sur le monde d'un seul coup. Ce qui me donne de l'espoir, c'est que plus le monde devient un jeu à somme positive, mieux c'est. Le côté positif de cette vision va nous unir.
Discussion avec l'AGI.
Je n'ai jamais ressenti d'autre pronom que 'ça' envers nos systèmes, alors que d'autres disent 'il' ou 'elle'. Je me demande pourquoi je suis différent. C'est peut-être parce que je le vois se développer.
Anthropomorphiser.
Je pense qu'il est important que nous essayions d'éduquer les gens sur le fait qu'il s'agit d'un outil et non d'une créature.
De la place pour les créatures.
Si quelque chose est une créature, je suis heureux que les gens en parlent comme telle. Mais je pense qu'il est dangereux de projeter un caractère de créature sur un outil.
Outil plus utilisable.
S'il y a des caractéristiques d'interface utilisateur qui fonctionnent, je comprends. Mais nous voulons quand même être prudents avec cela.
Vous manipuler émotionnellement.
Vous pourriez penser qu'il fait quelque chose ou compter sur lui pour quelque chose dont il n'est pas capable.
Relations romantiques.
Il y a maintenant des entreprises qui proposent des IA de compagnie romantique.
Replika.
Personnellement, je n'ai aucun intérêt pour cela.
Outils intelligents.
Mais je comprends pourquoi d'autres en ont.
Attiré par cela.
J'utilise le mouvement des robots pour communiquer une émotion.
Il va y avoir des animaux de compagnie interactifs, des robots et des compagnons, et beaucoup de gens semblent enthousiastes à cette idée.
Possibilités intéressantes.
Il se peut que je finisse par adorer mon chien ou mon robot GPT-4.
Assistant de programmation.
Le style de la façon dont GPT-4 vous parle compte vraiment. La pilotabilité sera importante même pour une chose de type outil.
Contenu de la conversation.
Je suis impatient qu'une IA explique comment toute la physique fonctionne et résolve tous les mystères restants.
Théorie du tout.
Je serai vraiment heureux.
Voyage plus rapide que la lumière.
Ne voulons-nous pas savoir ?
Aliens.
Cela pourrait nous aider à comprendre comment détecter les extraterrestres. Cela pourrait dire aux humains de mener des expériences ou de construire une sonde spatiale.
Équation de Drake.
Cela pourra peut-être nous dire quoi construire pour collecter plus de données.
Aliens déjà là.
Je pense que je continuerais simplement ma vie.
La vie différemment.
La source de joie et d'épanouissement dans la vie vient des autres humains. Si on vous avait dit il y a trois ans que vous vivriez avec ce degré d'intelligence numérique aujourd'hui, vous attendriez-vous à ce que votre vie soit plus différente qu'elle ne l'est ?
Beaucoup plus.
Vous attendriez-vous à ce que votre vie soit plus différente qu'elle ne l'est en ce moment ?
Triomphe de la civilisation humaine.
Conseils et Sens de la Vie
Conseil.
Je pense que c'est un bon conseil, mais il est trop tentant de suivre les conseils des autres. Ce qui a fonctionné pour moi pourrait ne pas fonctionner pour d'autres personnes. J'ai surtout obtenu ce que je voulais en ignorant les conseils. Écouter les conseils des autres doit être abordé avec prudence.
Comment décririez-vous votre approche de la vie ?
J'aimerais être aussi introspectif tout le temps. C'est beaucoup ce qui m'apportera de la joie et de l'épanouissement. Je pense à ce que je peux faire qui sera utile, mais aussi à avec qui je veux passer mon temps.
Poisson dans l'eau.
Oui, c'est ce que l'on ressent. La plupart des gens diraient cela s'ils étaient honnêtes.
Sens.
Je ne pense pas que ce soit un petit groupe de personnes. C'est l'aboutissement d'une quantité incroyable d'efforts humains. Pensez à tout ce qui a dû s'assembler pour que cela arrive. Tout le travail depuis le premier transistor jusqu'à l'empaquetage des puces aujourd'hui. C'est le fruit de nous tous.
Histoire humaine.
Et tout cela était sur cette même courbe exponentielle.
Honneur de vous parler.
Nous allons essayer de notre mieux d'arriver à un bon endroit. Tout le monde n'est pas d'accord avec notre approche de déploiement itératif, mais c'est ce en quoi nous croyons. Le rythme du changement est rapide, mais le progrès aussi. Nous aurons de nouveaux outils pour comprendre l'alignement et le problème de la sécurité.
Ensemble.
Ça va être génial, et nous allons travailler très dur pour nous en assurer.
Moi aussi.
Merci d'avoir écouté cette conversation avec Sam Altman. Pour soutenir ce podcast, veuillez consulter nos sponsors dans la description. Et maintenant, laissez-moi vous laisser avec quelques mots d'Alan Turing en 1951 : « Il semble probable qu'une fois que la méthode de pensée de la machine aura commencé, il ne faudrait pas longtemps pour dépasser nos faibles pouvoirs. À un certain stade, nous devrions donc nous attendre à ce que les machines prennent le contrôle. » Merci de votre écoute et j'espère vous voir la prochaine fois.