Entretien avec John Schulman : OpenAI, Mise à l'échelle et ChatGPT
14 novembre 2024
Intelligence Artificielle
Introduction et Parcours
Sur ce, je suis très heureux d'accueillir John Schulman sur scène. John est l'un des cofondateurs d'OpenAI.
Alors, j'aimerais vous poser un tas de questions sur votre travail chez OpenAI. Mais avant d'aborder cela, pouvez-vous nous dire un peu comment vous vous êtes intéressé à l'IA au départ ?
Je lisais beaucoup de science-fiction quand j'étais enfant. J'aimais les livres d'Isaac Asimov et de Vernor Vinge. Je me souviens avoir acheté « The Singularity Is Near » de Ray Kurzweil dans un vide-grenier un jour et avoir regardé tous les beaux graphiques de mise à l'échelle, comme la loi de Moore et toutes ses variantes. Ensuite, j'ai fait quelques projets en tant qu'étudiant de premier cycle en faisant des choses avec l'apprentissage automatique, par exemple j'ai travaillé sur la transcription de l'écriture manuscrite en LaTeX pour un cours, et c'était passionnant pour moi.
Vous avez aussi fait des projets de physique, n'est-ce pas ? C'était...
Oh oui, j'ai fait une licence en physique.
D'accord. Sympa. Et cela vous a donc conduit à faire un doctorat en apprentissage automatique, n'est-ce pas ?
Ouais.
Études Supérieures et Robotique
Mais vous ne travailliez pas toujours sur les modèles de langage, n'est-ce pas ? Pouvez-vous nous parler du type de travail que vous avez effectué pendant vos études supérieures ?
Oui, j'ai commencé mes études supérieures en neurosciences, mais j'ai fini par passer à la robotique dans un groupe d'apprentissage automatique, le groupe de Pieter Abbeel qui travaillait sur la robotique. J'ai donc travaillé un peu avec les robots de l'époque, comme le PR2, Personal Robot 2, et nous faisions des choses comme l'utiliser pour plier du linge d'une manière très lente et délibérée et je travaillais sur le fait de faire des nœuds, de lui faire faire des nœuds...
Je m'en souviens.
...comme une sorte de simulation de chirurgie robotique. C'était l'application motivante, comme faire des sutures avec un robot. Alors, oui, j'ai travaillé un peu sur la robotique pendant un certain temps, puis à la moitié du doctorat, je suis passé à l'apprentissage par renforcement.
Si vous regardez en arrière votre travail de doctorat, je suis curieux, quels projets ont le mieux résisté à l'épreuve du temps selon vous ?
Je dirais le travail sur l'apprentissage par renforcement et plus particulièrement son application aux réseaux de neurones, certainement, c'est ce qui a fini par faire la différence à long terme. Certains des premiers travaux sur la robotique ont certainement produit de belles démonstrations à l'époque, mais je ne pense pas que les méthodes soient si générales.
Transition d'OpenAI vers les Produits
Ouais. Cool. Nous savons tous qu'OpenAI fait d'excellentes recherches et construit d'excellents produits. Mais OpenAI n'a pas commencé de cette façon, n'est-ce pas ? Elle a commencé en se concentrant purement sur la recherche, n'est-ce pas ? Pouvez-vous nous parler de cette transition ? Qu'est-ce qui a conduit à la décision de faire les deux ?
Eh bien, nous étions intéressés par la sortie d'un certain type de produit ou par la diffusion de quelque chose dans le monde dès le début, mais nous ne voulions pas non plus nous écarter trop de notre chemin pour construire un produit. Nous avions donc quelques idées qui circulaient, mais rien de bien concret. Nous voulions lever plus d'argent et c'était comme si, même si notre structure ne nous obligeait pas à gagner de l'argent immédiatement ou à être rentables, il semblait que nous allions pouvoir lever plus de fonds si nous avions réellement un type de produit sur le marché. Et aussi, nous pensions que c'était bien si vos recherches étaient réellement connectées au monde réel au lieu de se contenter de publier des choses et de monter des démonstrations.
Développement de l'API OpenAI
Ouais. Et donc votre premier produit a été le produit API, n'est-ce pas ? Combien de temps, une fois que vous avez décidé de commencer à construire des produits et à les livrer, a-t-il fallu pour décider de construire une API ? Y avait-il d'autres idées que vous avez envisagées ?
Oui, nous avions d'autres idées, beaucoup d'entre elles étaient plutôt des applications spécifiques à un domaine, comme la traduction. Donc, après GPT-3, nous savions que ces modèles étaient d'une intelligence impressionnante et qu'il devait y avoir quelque chose à faire avec eux. Nous avons donc fini par réfléchir à un tas d'applications de traitement du langage naturel, mais à l'époque, nous pensions que le modèle n'était pas assez bon dans quoi que ce soit pour être utile par lui-même, nous aurions donc probablement besoin de l'ajuster et de le construire pour le rendre vraiment bon pour une application spécifique. Mais en fait, je ne pense pas que nous aurions pu réussir avec l'un de ces produits parce que cela aurait nécessité de développer une tonne d'expertise dans le domaine et de vraiment creuser ce domaine, et cela aurait nécessité beaucoup de travail séparé de notre recherche principale. Donc, la bonne chose à propos d'une API, c'est qu'elle consiste essentiellement à prendre ce que l'équipe de recherche a construit et à le commercialiser directement, plutôt que d'aller construire tout cet autre produit séparé de ce que fait l'équipe de recherche.
Avez-vous été dissuadé par le fait qu'il existait d'autres API d'IA ? D'autres entreprises ont essayé de créer des API d'IA, mais aucune n'a connu un immense succès.
Un peu. C'était certainement une préoccupation, qu'il y avait d'autres API comme pour la reconnaissance d'objets en vision et je pense que certaines d'entre elles étaient modérément bien utilisées, mais ce n'étaient pas des produits spectaculaires. Nous avions donc des inquiétudes à ce sujet et je pense qu'avec le recul, ces inquiétudes étaient justifiées parce que je dirais que le modèle original avec lequel nous avons lancé l'API n'était pas assez bon pour la plupart des gens. Je veux dire, c'était une assez petite entreprise pendant un certain temps. Et je pense que les modèles ont commencé à être assez bons seulement depuis environ un an et demi.
Ce ne fut donc pas un succès du jour au lendemain. Quand avez-vous réalisé que l'API était le bon choix ou que cela allait fonctionner ?
Eh bien, je pense que vous auriez pu regarder les tendances et prédire ce que je viens de décrire, à savoir que le modèle initial n'était peut-être pas assez bon, mais que certains modèles futurs le seraient. Et servir des modèles semblait être une chose généralement utile à faire. Je dirais donc que l'API n'a connu une forte croissance qu'en 2022, juste après la sortie des modèles basés sur GPT-3.5, et nous avons alors eu une courbe de croissance assez raide. Ensuite, ChatGPT lui-même a rendu l'API beaucoup plus populaire car beaucoup plus de gens se sont passionnés pour les modèles de langage en général.
L'Importance de la Mise à l'Échelle
Ouais. Maintenant, avant de parler de ChatGPT, parlons de la mise à l'échelle. C'est un événement sur les systèmes distribués dans une certaine mesure. Nous savons tous qu'OpenAI utilise une énorme quantité de calcul. Et en fait, je pense qu'OpenAI a peut-être été la première à vraiment tout miser sur la mise à l'échelle. D'où est venue cette conviction de l'importance de la mise à l'échelle des modèles et du calcul ?
L'idée que les modèles plus grands sont meilleurs était un peu dans l'air du temps, car les gens avaient produit les meilleurs résultats de référence avec des modèles assez grands. Mais je suppose que ce n'était pas, je dirais que l'équipe fondatrice d'OpenAI penchait davantage vers cette esthétique de mise à l'échelle de choses simples plutôt que d'essayer de construire quelque chose de complexe et d'astucieux. Par exemple, nous étions convaincus que bien faire les choses simples tendait à l'emporter en apprentissage automatique. Mais je dirais que pour la mise à l'échelle, cela semble facile quand on voit le résultat final, ou cela semble évident quand on voit le résultat final, que la courbe monte vers le haut et vers la droite, mais il y a souvent beaucoup de complexité pour y arriver. Rien que faire l'ingénierie est très difficile pour obtenir quelque chose qui soit réellement performant à grande échelle, et ensuite il y a généralement tous ces petits détails comme le fait de devoir ajuster vos taux d'apprentissage juste ce qu'il faut, sinon vous obtenez de moins bons résultats avec de grands modèles, et vous devez mettre à l'échelle vos données en même temps que la taille du modèle, donc je dirais qu'il a fallu plusieurs années pour trouver quelles étaient les bonnes recettes pour mettre les choses à l'échelle.
Ouais. Maintenant, nous parlons de mise à l'échelle comme s'il s'agissait d'une seule chose, mais il existe de nombreuses dimensions différentes que l'on pourrait mettre à l'échelle, n'est-ce pas ? La quantité de données, la taille du modèle, juste la quantité de calcul que vous y mettez, peut-être d'autres choses aussi. Est-il évident de savoir lesquels comptent et lesquels ne comptent pas ?
Eh bien, ce n'est généralement pas complètement évident. La taille du modèle et les données sont les deux plus importants, mais vous avez ensuite généralement beaucoup d'hyperparamètres qui doivent être mis à l'échelle correctement et vous devez faire beaucoup de science pour comprendre comment les mettre à l'échelle.
Ouais. Alors, pouvez-vous nous donner une intuition sur la raison pour laquelle la mise à l'échelle est difficile ? Qu'est-ce qui nous empêche d'utiliser des modèles de 70 billions de paramètres aujourd'hui, voire plus ?
Oui, je pense qu'une grande partie de cela concerne l'efficacité de calcul. Nous savons maintenant que l'on peut entraîner un petit modèle pendant très longtemps ou un grand modèle pendant peu de temps et qu'il y a un compromis, et il s'avère que quelque part au milieu, on obtient la meilleure efficacité de calcul. Donc, si vous placez les FLOPS sur l'axe des x et que vous dessinez vos courbes d'apprentissage de la perte par rapport aux FLOPS, il existe une taille de modèle optimale pour obtenir les meilleures performances. Je pense donc que ce que nous avons maintenant, c'est simplement l'utilisation de transformers et de la recette d'entraînement que nous avons ; il s'avère que certaines tailles de modèles sont les plus efficaces compte tenu de la quantité de ressources de calcul que nous y consacrons. Mais cela va probablement changer à mesure que nous commencerons à mettre plus de calcul dans les cycles d'entraînement et aussi peut-être à mesure que nous commencerons à changer les méthodologies d'entraînement et les types de données que nous utilisons, nous pourrions également constater que des modèles de tailles différentes finissent par mieux fonctionner.
Avez-vous le sentiment qu'il s'agit d'une chose aux rendements décroissants ou non ? Jusqu'où cela nous mènera-t-il ?
Oui, je dirais que les rendements diminuent souvent à mesure que l'on met à l'échelle la chose actuelle, mais qu'il y a ensuite d'autres innovations qui continuent. Donc, je ne vois pas l'apprentissage profond en général atteindre un plateau ou des rendements décroissants. Peut-être que le fait de faire la chose la plus basique finit par atteindre des rendements décroissants.
Systèmes Distribués et Infrastructure (Ray)
Ouais. C'est logique. Puisque c'est le Ray Summit, parlons un peu des systèmes distribués et de l'infrastructure. Alors, je suis sûr que presque personne dans ce public ne le sait, mais au début ou peut-être à la moitié de votre doctorat, vous avez en fait construit votre propre framework d'apprentissage profond appelé Computation Graph Toolkit. Pouvez-vous nous dire un peu pourquoi vous avez construit cela et ce que vous essayiez d'accomplir ?
Oui, à l'époque, certains se souviennent peut-être de Theano. C'était le framework d'autodiff d'avant TensorFlow et PyTorch. Theano était incroyable, mais il commençait aussi à atteindre ses limites, par exemple, il fallait parfois une demi-heure pour compiler votre graphe avant de pouvoir effectuer une seule étape. Et je voulais faire certaines choses avec des réseaux récurrents et Theano n'était pas génial pour ça. J'ai donc fini par travailler à la construction de l'un de ces trucs. Et en fait, je pense que ce fut une excellente expérience d'apprentissage. Il s'est avéré que Google a sorti TensorFlow et PyTorch est arrivé juste après, et ceux-là ont fini par...
Je pense que vous travailliez sur CGT à l'automne 2015, et puis TensorFlow est sorti juste après ça.
Oui, j'ai commencé à travailler dessus avant de connaître TensorFlow, puis j'en ai entendu parler et peut-être qu'une partie de moi était déçue de me faire évincer par Google, mais c'est pas grave. Je pense que tout le monde devrait écrire sa propre petite bibliothèque d'autodiff à un moment donné pour apprendre et acquérir une très bonne intuition de la rétropropagation.
C'est une excellente idée. J'avais oublié les temps de compilation lents pour les réseaux de neurones récurrents, c'était il y a longtemps. Mais si je me souviens bien, cétait assez rapide et bien architecturé. Vous avez en fait utilisé Ray il y a assez longtemps, avant qu'il ne soit vraiment prêt. Pouvez-vous nous dire pour quoi vous l'aviez essayé et quelle a été votre expérience ?
Oui, c'était en 2016 ou 2017, quand vous veniez de commencer, et à l'époque, je faisais quelque chose dans le domaine de la recherche d'architecture, et je me souviens que Ray créait des problèmes sur GitHub concernant le fait que le planificateur ne faisait pas ce qu'il fallait, ce que vous avez corrigé depuis...
Oui, ça a fait du chemin. Il y a encore des problèmes sur GitHub, donc probablement pourquoi...
Vous avez fermé ce ticket à un moment donné, donc je me souviens avoir vu une notification à ce sujet. Ouais.
Sympa. Pouvez-vous nous dire un peu ce qui rend l'infrastructure difficile pour le type de travail d'IA que vous faites chez OpenAI, alors que vous repoussez les limites de l'échelle dans de nombreuses dimensions différentes ?
Oui, nous avons une bibliothèque pour faire de l'entraînement distribué et elle fait du parallélisme de modèle, donc vous envoyez des poids, des gradients et des activations. Nous utilisons Ray pour une grande partie de cela afin d'effectuer toutes les communications et cela a été très utile d'avoir ce composant solide sur lequel nous pouvons construire. OpenAI a beaucoup de gens qui aiment écrire leur propre code de systèmes distribués.
Oh oui, je connais bien.
Tout le monde aime donc écrire son propre truc et nous avons eu nos propres bibliothèques internes. Souvent, quand vous développez quelque chose en interne, cela fonctionne très bien pour la personne qui l'a écrit, mais cette personne ne veut généralement pas le maintenir pendant des années et cela finit par être peu documenté ou général. C'est bien de passer à Ray pour avoir ce composant solide, très bien documenté et supporté, sur lequel nous pouvons construire.
Ouais. Donc si vous n'utilisiez pas Ray, qu'utiliseriez-vous ?
Ouais, nous ferions probablement notre propre truc et utiliserions d'autres outils de plus bas niveau comme Redis et MPI et nous les assemblerions simplement.
La Création et le Succès de ChatGPT
Beaucoup de MPI, beaucoup de Redis. C'est logique. Sympa. Alors parlez-nous de ChatGPT. Comment avez-vous eu l'idée ? Quand avez-vous commencé à travailler dessus ?
Personnellement, je travaillais sur un projet appelé WebGPT avant cela, qui est un système de question-réponse qui fait de la recherche d'informations. Vous posez une question et il trouve un tas de sources pertinentes en effectuant une recherche sur le Web et en parcourant les pages qu'il trouve pour rédiger une réponse avec des citations. Nous essayions d'amener les modèles de langage à utiliser des outils et nous essayions de travailler sur ce problème de véracité, par exemple comment obtenir des modèles qui n'inventent pas des choses et disent simplement des choses vraies basées sur...
Est-ce que celui-là a été résolu ?
Je dirais que nous avons fait des progrès. Ce n'est pas complètement résolu, mais nous avons fait du chemin. Nous étions vraiment intéressés par la véracité, donc après avoir publié notre premier article sur ce projet, nous avons essayé de concevoir la version suivante. Pour le question-réponse, le chat commence à avoir beaucoup de sens car vous devez faire des choses comme des questions de suivi et des questions de clarification. Nous avions joué avec le chat en interne chez OpenAI et il semblait que les modèles étaient assez bons à cela. Nous avons donc décidé d'avoir un système basé sur le dialogue pour la prochaine itération. Nous avons commencé à collecter des données début 2022 spécifiquement pour le chat, et il devait s'agir à l'origine d'un successeur de ce système WebGPT. Finalement, nous avons vraiment fini par aimer les modèles de chat et toute la partie recherche d'informations s'est avérée un peu compliquée, nous l'avons donc temporairement abandonnée et avons simplement décidé de nous concentrer sur les modèles de chat. Je dirais que nous avons été surpris par l'utilité des modèles. J'utilisais beaucoup la démo interne pour de l'aide au codage car les modèles sont vraiment doués pour répondre aux questions sur le code. Nous avons commencé à penser que cétait une bonne idée de faire une sortie publique. Cela a fini par être retardé un peu parce que nous avions GPT-4 qui finissait son entraînement et tout le monde était enthousiasmé par ce modèle, et le modèle de chat basé sur GPT-3.5 a été un peu mis de côté pendant un moment. Quoi qu'il en soit, nous avons fini par décider de faire une sortie quand même et avons travaillé avec l'équipe produit qui a mis en place l'interface utilisateur et l'a lancé fin novembre de cette année-là.
Cétait une excellente décision. Avez-vous été surpris par la réaction du monde à ChatGPT, ou étant donné que vous aviez beaucoup d'expérience avec son utilisation en interne, l'aviez-vous vu venir ?
Oui, nous avons été très surpris. Je veux dire, nous avions des bêta-testeurs, des amis et de la famille qui l'utilisaient pendant quelques mois auparavant, et il y avait des utilisateurs enthousiastes, surtout pour le code. Mais ça na pas vraiment, je ne sais pas, les gens n'étaient pas si enthousiastes que ça et tous les utilisateurs ne finissaient pas par y revenir beaucoup. Je pense que ce qui s'est passé, c'est que lorsque tout le monde y a eu accès, les gens se sont en quelque sorte appris les uns aux autres comment l'utiliser et quels cas d'utilisation fonctionnaient. L'aspect social était assez important ; les gens s'apprennent mutuellement comment le prompter et pour quelles tâches il est bon. Le simple fait qu'il soit vraiment facile à utiliser et que les gens puissent partager leurs cas d'utilisation entre eux a provoqué cet enthousiasme massif.
Ouais. Maintenant, vous avez mentionné l'utiliser pour aider au codage. Et aujourd'hui ? Pour quoi utilisez-vous ChatGPT aujourd'hui ?
Je dirais que c'est toujours mon plus gros cas d'utilisation personnellement. Je l'utilise aussi ici et là pour poser des questions si j'ai des questions aléatoires sur l'histoire ou la science. Mais celui dont je tire le plus d'utilité est le codage.
Évolution de l'Apprentissage Automatique
Ouais. Vous êtes donc dans l'IA depuis plus d'une décennie. Quelles sont, selon vous, les plus grandes avancées ou percées conceptuelles qui ont eu lieu pendant cette période ?
Eh bien, j'ai commencé mes études supérieures en 2010, alors que l'apprentissage profond n'avait pas encore vraiment décollé. On ne savait même pas à quoi serviraient les réseaux de neurones. On ne savait pas si nous aurions un modèle plus puissant si nous saurions même quoi en faire. Il y avait donc beaucoup de choses qui étaient moins évidentes à l'époque, comme le fait que nous ne savions pas que l'apprentissage profond fonctionnait vraiment bien ou exactement quel objectif d'entraînement vous utiliseriez. La réponse là s'est avérée assez simple, par exemple vous pouvez faire de l'apprentissage par renforcement avec des réseaux de neurones, entraîner des classificateurs ou faire du maximum de vraisemblance sur des séquences, et toutes ces choses fonctionnent assez bien. Certaines choses qui étaient populaires à l'époque n'ont pas fini par fonctionner si bien ou n'ont pas été mises à l'échelle aussi bien. L'ensemble des choses qui ont fini par être mises à l'échelle n'était pas facilement prévisible à l'époque.
Et certainement l'importance de la mise à l'échelle et tout le paradigme des lois de mise à l'échelle.
Je suis sûr que vous avez probablement suivi un cours d'introduction à l'apprentissage automatique à un moment donné, n'est-ce pas ? Il y a dix ans, le cours commençait souvent par cadrer l'apprentissage supervisé par rapport à l'apprentissage non supervisé. Quand nous parlions d'apprentissage non supervisé, il s'agissait principalement de clustering comme les k-means. Je suis curieux de savoir si vous seriez d'accord pour dire que notre perspective sur l'apprentissage non supervisé a pas mal changé au cours de la dernière décennie.
Oh oui, définitivement. Maintenant, on ne sait même plus trop ce que signifie l'apprentissage non supervisé. Est-ce que la modélisation de séquences, comme la façon dont les modèles de langage sont entraînés, est de l'apprentissage non supervisé ? C'est un peu supervisé par la prédiction du futur étant donné le passé.
Je veux dire, ça rentre toujours dans le cadre de la régression ou de la classification, mais on n'a pas besoin de dépenser beaucoup d'énergie pour étiqueter les données.
Ouais. Mais c'est pas du clustering k-means, ça c'est sûr. Je veux dire, on peut dire que l'apprentissage supervisé est un cas particulier d'apprentissage non supervisé ou de maximum de vraisemblance.
Défis Actuels et Supervision à Grande Échelle
En regardant en arrière il y a dix ans, des problèmes comme l'apprentissage non supervisé n'étaient pas si bien compris. Selon vous, quels sont les problèmes d'aujourd'hui que nous essayons encore de formuler ?
Je dirais qu'il y a beaucoup de problèmes autour de la qualité des données et de la manière d'obtenir une très bonne supervision. GPT-4 est vraiment bon dans beaucoup de choses et a une telle étendue de connaissances qu'il est souvent difficile de collecter de bons labels pour l'améliorer. Il est difficile de trouver des personnes capables de fournir de bons labels pour des sujets obscurs ou très techniques. Il y a donc ce problème de comment superviser un modèle qui est en quelque sorte surhumain ? C'est ce qu'on appelle parfois la supervision évolutive ou supervision à grande échelle. Les gens se sont d'abord intéressés à cela sous l'angle de l'alignement et pour s'assurer que les modèles intelligents font ce que les humains veulent. Dans ce domaine, certains problèmes n'ont même pas encore été formulés précisément.
Vers une Intelligence de Niveau Humain
Ouais. Comment décidez-vous sur quels problèmes travailler ?
Je n'ai pas de cadre vraiment général. J'essaie de penser à certains cas d'utilisation du monde réel et à quelles limitations courantes de nos méthodes existantes débloqueraient beaucoup d'opportunités. J'essaie de penser aux avancées qui auraient beaucoup d'implications en aval.
Réfléchissez-vous à la manière dont nous parviendrons à une intelligence de niveau humain et travaillez-vous à rebours à partir de là, ou réfléchissez-vous davantage aux produits et aux applications ?
Je fais un peu de tout cela. Réfléchir au fonctionnement de l'esprit humain et essayer de faire de l'introspection est utile, mais cela peut aussi être trompeur. Il est utile de réfléchir aux points où les humains sont bien meilleurs que nos modèles et où nous pourrions manquer quelque chose. Il est difficile de prédire dans quel ordre l'IA va résoudre différents problèmes, car la difficulté d'une chose pour les humains n'est pas nécessairement corrélée à sa difficulté pour l'IA.
Eh bien, les maths sont difficiles pour nous deux, n'est-ce pas ?
C'est vrai. Absolument.
Alors, quand vous pensez au chemin vers l'intelligence de niveau humain, considérez-vous cela comme un défi de recherche, un défi d'ingénierie, ou les deux ?
C'est un peu des deux et la frontière est floue. Il faut faire beaucoup d'ingénierie pour obtenir plus de données et entraîner de plus grands modèles, et ensuite il y a beaucoup de recherche pour que cette mise à l'échelle fonctionne. Mais il y a encore des questions ouvertes sur des choses comme la qualité des données et la supervision.
Lorsqu'un humain apprend dans une expérience éducative normale, à quelle quantité de données de haute qualité avons-nous accès ?
Comme quand les humains apprennent de leurs parents ou à l'école, etc. ?
Ouais, je veux dire, nous avons accès à des tonnes de données, des manuels scolaires à toutes les entrées sensorielles que nous recevons. Considérez-vous que certaines sont de haute qualité et d'autres de basse qualité ?
Les humains sont capables d'apprendre à partir de données très peu diversifiées. L'une des choses les plus remarquables est qu'un humain peut grandir en passant la majeure partie de son temps dans un seul foyer et en parlant à un petit nombre de personnes, il n'y a donc pas beaucoup de diversité de données par rapport à ce avec quoi nous entraînons nos systèmes, et pourtant on obtient un système de vision extrêmement robuste même si on n'a vu que cette seule maison. C'est assez fou et je pense que nous en sommes loin.
Il y a des limites à cela quand même, n'est-ce pas ?
Ouais.
Idées Fausses sur OpenAI et Conclusion
Cela a été fascinant. Y a-t-il des idées fausses courantes que les gens ont à propos d'OpenAI que vous aimeriez clarifier ?
Parfois je lis Twitter et les gens ont des spéculations sur ce que nous faisons. Les gens pensent souvent que nous faisons beaucoup plus que ce que nous faisons réellement. Par exemple, ils pensent que nous surveillons Twitter et l'utilisation en temps réel et que nous affinons tout le temps pour résoudre tous ces problèmes.
Comme les jailbreaks.
Oh oui, corriger les jailbreaks et trouver quand le modèle se trompe dans une énigme et aller corriger cela. Nous aimerions corriger les choses plus rapidement, mais on ne veut pas simplement jouer au jeu de la taupe et corriger ces petits problèmes ; je préfère regarder la majeure partie des cas d'utilisation et rendre l'expérience de chacun meilleure. Quand nous recevons des retours des gens comme des pouces vers le bas, nous utilisons cela dans le cadre de notre effort d'étiquetage des données, mais les gens pensent que nous faisons toutes sortes de choses folles que nous ne faisons pas.
Ravi de l'entendre. John, ce fut un plaisir. Merci beaucoup d'être venu ; j'ai vraiment apprécié la conversation. Tout le monde, s'il vous plaît, joignez-vous à moi pour remercier John Schulman.
Merci de m'avoir invité.
Ouais.