Sam Altman et Ilya Sutskever à l'Université de Tel Aviv
5 juin 2023
Intelligence Artificielle
Introduction et parcours des fondateurs
Bienvenue à l'Université de Tel Aviv.
Sont présents avec nous aujourd'hui des soutiens de l'université, la direction, le corps professoral et des étudiants. Nous accueillons également des invités de Microsoft et d'autres secteurs de l'écosystème high-tech israélien. Je suis Nadav Cohen, enseignant à l'École d'informatique, et c'est avec un immense plaisir que j'invite sur scène Sam Altman et Ilya Sutskever, PDG et scientifique en chef d'OpenAI.
Alors, merci beaucoup d'être là. J'apprécie grandement votre présence.
Merci de nous recevoir.
Je pense que nous allons commencer par une brève présentation de vous-mêmes. Ilya, s'il vous plaît, mettez l'accent sur vos racines israéliennes.
Bonjour à tous. De l'âge de 5 à 16 ans, j'ai vécu à Jérusalem. J'ai étudié à l'Université ouverte de 2000 à 2002. Après cela, j'ai déménagé à l'Université de Toronto où j'ai passé 10 ans et obtenu mon baccalauréat, ma maîtrise et mon doctorat. Pendant mes études supérieures, j'ai eu la chance de contribuer à des avancées importantes dans l'apprentissage profond. Ensuite, avec quelques personnes, nous avons fondé une entreprise qui a été acquise par Google, et j'y ai travaillé pendant un certain temps. Puis un jour, j'ai reçu un e-mail de Sam disant : 'Allons traîner avec des gens sympas.' J'étais curieux et j'y suis allé. C'était le dîner original avec Elon Musk et Greg Brockman où nous avons décidé de lancer OpenAI. Nous y travaillons depuis pas mal d'années, et c'est là où nous en sommes actuellement. Merci.
Sam ? J'étais très enthousiasmé par l'IA quand j'étais enfant, un grand fan de science-fiction. Je n'ai jamais vraiment pensé que j'aurais la chance de travailler dessus, mais j'ai fini par aller à l'université. Je l'ai étudiée pendant un petit moment, mais ça ne fonctionnait pas du tout. C'était vers 2004. J'ai abandonné mes études, j'ai créé des startups et j'ai été investisseur en startups pendant un certain temps. J'ai vraiment été enthousiasmé par ce qui se passait avec l'IA après les avancées mentionnées par Ilya. Je lui ai envoyé cet e-mail, et nous y voilà.
Leadership et culture d'OpenAI
D'accord. Pour commencer, je voulais vous demander : selon vous, qu'est-ce qui fait d'OpenAI un leader de l'IA générative, surtout quand ses concurrents sont souvent beaucoup plus grands et disposent de plus de ressources ? Quels sont selon vous les avantages clés ?
La concentration et la conviction. Nous croyons en des horizons plus lointains que les grandes entreprises, et nous sommes plus concentrés sur ce que nous faisons. Je pense que nous avons une grande densité de talents, ce qui est super important et souvent mal compris. Nous avons également une culture de rigueur et d'innovation reproductible. Avoir ces deux éléments dans une seule culture est difficile et rare.
J'ajouterai à la réponse de Sam. Le progrès en IA est une question de foi. Plus vous avez la foi, plus vous pouvez progresser. Si vous avez une très grande foi, vous pouvez faire le plus de progrès. On dirait que je plaisante, mais ce n'est pas le cas. Il faut croire en l'idée et insister. Plus vous y croyez, plus vous pouvez insister fort. C'est ce qui mène au progrès. Maintenant, il est important que la chose en laquelle vous croyez soit correcte, mais avec cette mise en garde, tout est une question de conviction. Merci beaucoup.
IA et recherche académique
Passons à d'autres sujets. Le progrès de l'IA est aujourd'hui largement porté par l'industrie. Je me demandais quel devrait être selon vous le rôle de la recherche académique dans le domaine à mesure qu'il évolue.
Les choses ont beaucoup changé. Le milieu universitaire était autrefois l'endroit où se déroulait la recherche en IA la plus pointue. Maintenant, ce n'est plus tellement le cas, pour deux raisons : la capacité de calcul et l'ingénierie. L'université a moins de calcul et n'a généralement pas de culture de l'ingénierie. Pourtant, le milieu universitaire peut apporter des contributions spectaculaires et significatives à l'IA, mais pas sur les capacités les plus pointues. Il y a tellement de mystères sur les réseaux de neurones que nous entraînons. Nous produisons des objets d'une complexité miraculeuse. L'apprentissage profond est un processus d'alchimie ; nous prenons les matières premières des données et du calcul pour obtenir cette intelligence. Mais qu'est-ce que c'est ? Comment ça marche ? Comment le contrôler, le contenir ou le mesurer ? Ce sont des inconnues. Même la mesure est un défi : à quel point notre IA est-elle performante ? Nous ne savons pas le mesurer. Ce n'était pas un problème avant que l'IA ne devienne importante, mais maintenant nous réalisons que nous ne pouvons pas le mesurer. Ce sont des exemples de problèmes que personne ne peut encore résoudre. Vous n'avez pas besoin d'un cluster de calcul géant ou d'une équipe d'ingénierie pour poser ces questions. Les progrès dans ce domaine seraient une contribution significative que tout le monde remarquerait immédiatement.
Il semble qu'il n'y ait pas exactement un équilibre entre les progrès de l'industrie et ceux du milieu universitaire. Nous aimerions voir plus de contributions de ce type. Y a-t-il quelque chose qui, selon vous, puisse être fait pour améliorer la situation, surtout depuis votre position pour la soutenir ?
Je dirais deux choses. La plus importante est le changement de mentalité. Je suis un peu éloigné du milieu universitaire, mais je pense qu'il y a une crise concernant les recherches sur lesquelles se concentrer. Un grand volume d'articles est écrit, mais il est important de se concentrer sur les problèmes les plus fondamentaux. Une fois que vous comprenez le problème, vous commencez à avancer vers lui. C'est là que nous pouvons aider. Nous avons un programme d'accès académique où les universités postulent pour accéder à nos modèles les plus avancés. De nombreuses universités ont publié des articles étudiant nos modèles, leurs propriétés et leurs biais. Si vous avez d'autres idées, je serais ravi de les entendre.
Stratégie Open Source et Transparence
Nous devrions certainement discuter de ces choses plus en détail. Vous avez mentionné la publication. Il me semble que le niveau de transparence scientifique est quelque peu en déclin dans l'industrie. Alors que certaines entreprises promeuvent l'open source, d'autres le font moins, et certains disent que cela inclut OpenAI. Quelle est selon vous la bonne stratégie, et pourquoi la stratégie d'OpenAI est-elle ainsi ?
Nous mettons certains modèles en open source et nous en proposerons davantage au fil du temps, mais je ne pense pas que la bonne stratégie soit de tout ouvrir. Les modèles d'aujourd'hui sont primitifs par rapport à ce que nous allons créer. La plupart conviendraient que si vous créez une IAG super puissante avec des risques existentiels, l'open source n'est peut-être pas la meilleure réponse. Nous essayons de trouver cet équilibre. Nous avons publié beaucoup d'idées clés que d'autres utilisent maintenant pour construire des LLM, depuis les premiers articles GPT jusqu'aux lois d'échelle et aux travaux sur le RLHF. C'est un équilibre que nous devons gérer au fur et à mesure.
Envisagez-vous des modèles où vous divulgueriez des informations à des groupes sélectionnés, comme des scientifiques, même si ce n'est pas en open source pour le monde entier ?
Lorsque nous avons terminé l'entraînement de GPT-4, nous avons passé presque huit mois à travailler pour le comprendre, assurer sa sécurité et l'aligner. Nous avons fait appel à des auditeurs externes, des experts en 'red-teaming' et nous avons sollicité la communauté scientifique. Nous faisons cela et continuerons de le faire.
Risques et impacts sociétaux
Je veux parler un peu des risques. Il existe au moins trois classes de risques : les bouleversements économiques, les armes puissantes entre les mains d'acteurs malveillants, et les systèmes qui deviennent incontrôlables. Quel est selon vous le scénario probable pour chacun d'eux ?
Concernant les bouleversements économiques, nous savons déjà que les emplois sont affectés. Des parties d'emplois sont automatisées ; les programmeurs utilisent Copilot, et les générateurs d'images impactent les artistes. Ce sera une période d'incertitude économique. Même avec une IA de niveau humain, les gens pourraient encore avoir une activité économique, mais nous aurons besoin de systèmes sociaux pour amortir le choc pour une transition plus fluide. Sur les hackers, l'IA sera puissante et pourrait être utilisée par des acteurs malveillants. Nous aurons besoin de cadres similaires à ceux d'autres outils puissants. À mesure que les capacités augmentent, la technologie pourrait guérir toutes les maladies ou en créer de nouvelles, nous avons donc besoin de structures pour contrôler ce pouvoir. Sam a proposé une organisation comme l'AIEA spécifiquement pour l'IA. Enfin, une IA superintelligente incontrôlable serait très néfaste. Ce serait une grave erreur de construire quelque chose que nous ne saurions pas contrôler.
Je suis tout à fait d'accord avec ce dernier point. Sur le plan économique, il est difficile de prédire comment cela va évoluer. Il y a tellement de demande excédentaire, et ces systèmes aident actuellement pour des tâches plutôt que pour des emplois entiers. À court terme, la situation semble positive avec une croissance spectaculaire de la productivité. À plus long terme, certaines catégories d'emplois disparaîtront, mais d'autres nécessiteront toujours des humains d'une manière qui n'est pas évidente. Par exemple, quand Deep Blue a battu Kasparov, les gens pensaient que les échecs étaient finis, mais ils n'ont jamais été aussi populaires. Les gens se soucient de ce que font les autres humains. DALL-E peut créer de l'art, mais les gens apprécient l'humain derrière. Le désir humain de se différencier et de créer un statut ne disparaîtra pas, mais il aura un aspect différent. Nous aurons besoin d'un nouveau contrat socio-économique à mesure que l'automatisation atteindra ces sommets.
Réglementation et Menace Existentielle
Merci. Une autre question : Sam, vous avez récemment signé une pétition appelant à traiter la menace existentielle de l'IA avec le plus grand sérieux. Ilya aussi. Je me demandais quelles mesures l'humanité et des entreprises comme OpenAI devraient prendre pour s'attaquer à ce problème.
Ce dont nous parlons ici, ce ne sont pas les systèmes d'aujourd'hui, ni les petites startups, ni la communauté open source. Ce serait une erreur d'imposer une réglementation lourde au domaine en ce moment. Mais nous ne devrions pas traiter la superintelligence comme un risque de science-fiction ; c'est quelque chose auquel nous pourrions être confrontés dans la prochaine décennie. Une idée que nous avons partagée est une organisation mondiale qui pourrait accorder des licences aux modèles de pointe, auditer la sécurité et imposer les tests requis. Nous faisons la même chose pour l'énergie nucléaire.
IA, Science et Climat
Passons aux avantages. En ce qui concerne le rôle de l'IA dans les découvertes scientifiques, avez-vous des prédictions pour les prochaines années et au-delà ?
C'est ce qui me passionne le plus personnellement. L'IA peut nous aider à réaliser des découvertes scientifiques dont nous sommes actuellement incapables, en nous aidant à comprendre les mystères de l'univers. Le progrès scientifique et technique est le seul moyen durable d'améliorer nos vies. Nous voyons déjà les débuts de personnes utilisant ces outils pour être plus efficaces. Si vous imaginez un monde où vous pouvez demander à l'IA d'aider à guérir toutes les maladies, nous n'en sommes pas si loin.
Un autre problème majeur est le changement climatique. Que pensez-vous du rôle potentiel de l'IA dans ce domaine ?
Le changement climatique est un sujet sérieux et complexe, mais une fois que nous aurons une superintelligence puissante, s'y attaquer ne sera pas particulièrement difficile. Vous avez besoin d'une capture de carbone efficace, d'énergie et d'une fabrication à l'échelle planétaire. Une IA puissante pourrait accélérer la science et l'ingénierie nécessaires pour cela beaucoup plus rapidement. Cela illustre à quel point nous devrions rêver grand : un système où vous pouvez demander comment produire de l'énergie propre à bas prix, comment capturer le carbone, puis le laisser exécuter ces plans.
Retours d'expérience sur ChatGPT
Je veux poser quelques questions sur les produits d'OpenAI. Y a-t-il une application de ChatGPT que vous avez vue chez d'autres et qui vous a vraiment surpris ?
Quelque chose qui m'a personnellement apporté une joie immense, c'est quand mes parents m'ont dit que leurs amis utilisaient ChatGPT dans leur vie quotidienne. C'était définitivement très surprenant et agréable pour moi.
Il est difficile de choisir mes histoires préférées car la créativité du monde est remarquable. L'éducation a été incroyable à observer ; beaucoup de gens nous écrivent pour dire que cela a changé leur vie parce qu'ils peuvent désormais tout apprendre. Nous ne nous attendions pas vraiment à ce que le potentiel humain soit libéré à ce rythme. Une autre histoire amusante que j'ai entendue concernait un homme qui passe deux heures chaque soir avec son enfant à collaborer pour inventer des histoires avant de dormir. C'est devenu un moment spécial pour eux.
Évolution des modèles
Merci. Une dernière petite question avant de passer au public : quel est le produit ou le système le plus futuriste sur lequel OpenAI travaille ces jours-ci ?
Nous ne pensons pas en termes de produits, mais en termes d'amélioration de la prochaine génération de modèles pour qu'ils soient plus fiables, meilleurs en raisonnement et plus contrôlables. J'espère que le monde verra une courbe de progression continue. Chaque année, les attentes augmentent et nous répondons présent en fournissant un outil qui vous sert.
Q&A : Open Source et modèles de base
Merci. Passons maintenant à quelques questions du public. Nous allons demander aux gens de lever la main et nous choisirons.
Un LLM open source pourrait-il potentiellement égaler les capacités de GPT-4 sans avancées technologiques supplémentaires ? Ou y a-t-il une recette secrète dans GPT-4 inconnue du monde ? Est-ce que je perds mon temps à installer Stable Vicuna 13B plus Wizard ?
Ce n'est pas une situation binaire où il y aurait une recette secrète qui ne sera jamais redécouverte. Peut-être que GPT-4 sera un jour reproduit par des modèles open source, mais d'ici là, les entreprises disposeront de modèles beaucoup plus puissants. Il y aura probablement toujours un écart entre l'open source et les modèles privés, et cet écart pourrait même s'accentuer à mesure que l'effort et l'ingénierie nécessaires pour les produire augmentent. Les modèles open source seront de plus en plus le domaine des grandes entreprises.
Pouvez-vous nous en dire plus sur le modèle de base avant de l'aligner ? Comment était-il avant le RLHF ?
Nous réalisons que dans le processus de RLHF, le modèle perd certaines capacités, et nous étudions comment en préserver le plus possible. Le modèle de base n'est pas si facile à utiliser. Nous voulons fournir des modèles qui suivent les instructions et donnent aux utilisateurs autant de contrôle que possible sans problèmes juridiques. Nous entendons la demande pour des modèles plus flexibles et cherchons comment offrir plus de personnalisation aux utilisateurs.
Q&A : Opportunités pour les startups
D'accord. Nous avons une question là-bas.
Je suis curieuse de savoir quels sont selon vous les principaux secteurs qui peuvent être impactés positivement par les individus et les petites entreprises.
Pouvez-vous répéter la question s'il vous plaît ?
L'une des raisons pour lesquelles nous faisons ce voyage est de parler aux gens qui construisent sur notre API. Pour moi, la partie la plus amusante a été de rencontrer des développeurs et d'être étonné par leur créativité et l'ampleur des entreprises construites par seulement quelques personnes. Cela se produit dans tous les secteurs ; lors des tables rondes de développeurs, presque personne ne travaille dans le même secteur. N'importe quel domaine vertical que vous choisirez, l'IA va l'impacter. C'est probablement la période la plus magique pour une vague technologique depuis le lancement de l'iPhone. Trouvez un domaine qui vous passionne et lancez-vous.
Q&A : Éthique et Responsabilité
Que chaque personne commence sa question par son nom et son affiliation.
Dor Globerman de Keshet Broadcast. Si vous croyez vraiment que l'IA représente un danger pour l'humanité, pourquoi continuer à la développer ? N'avez-vous pas peur pour votre propre famille ? De plus, si une réglementation est imposée, obéirez-vous ou vous comporterez-vous comme Mark Zuckerberg qui a tenté de s'y soustraire ?
C'est une question légitime. La partie difficile de nos métiers est de trouver l'équilibre entre une promesse incroyable et des risques sérieux. Quand nous regarderons notre niveau de vie actuel depuis le futur, il paraîtra barbare. Tout le monde dans le futur aura une vie meilleure, et c'est un devoir moral de trouver comment y parvenir. De plus, le progrès technologique est imparable, nous devons donc trouver comment gérer le risque. OpenAI a une structure unique avec des profits plafonnés pour aligner les incitations. Nous plaidons pour une réglementation qui nous impactera le plus, et nous nous y conformerons certainement. Il est plus facile d'obtenir un bon comportement quand les gens font face à un risque existentiel. Vous verrez une réponse collective différente de celle des entreprises de réseaux sociaux.
Q&A : Capacités de GPT-4 et API
Netanel Betzalel, PDG d'une petite entreprise. Nous utilisons beaucoup GPT-4. Un vice-président de Microsoft m'a dit qu'ils avaient décidé d'écouter l'IA parce que tous les tests A/B montraient que l'IA avait raison. Je me demande quel est l'écart entre la puissance dont vous disposez et celle que nous pouvons utiliser via l'API ?
Pour l'instant, vous avez accès à GPT-4 tout comme nous. Nous travaillons sur les futurs modèles. À mesure que nous construisons des IA aux capacités de plus en plus grandes, il y aura des périodes de test et de 'red-teaming' plus longues avant le déploiement général. Par exemple, GPT-4 possède des capacités de reconnaissance visuelle que nous n'avons pas encore déployées car les touches finales manquaient, mais nous le ferons bientôt.
Probablement pas dans un futur trop lointain. Bientôt.
Q&A : Le fossé technologique et la superintelligence
Je suis David, scientifique des données chez Classified. J'aimerais connaître votre avis sur le document fuité intitulé 'Nous n'avons pas de fossé' (We Have No Moat).
Ce qui est spécial chez OpenAI, et mal compris par ce document, c'est notre capacité à comprendre ce qui vient ensuite. Il est facile de copier quelque chose une fois qu'on sait que c'est faisable. Il est très difficile de concevoir l'exécution minutieuse nécessaire pour atteindre la superintelligence. C'est cela notre fossé. Une fois que nous passerons au paradigme suivant, tout le monde essaiera de le copier aussi, mais nous serons déjà en train de travailler sur le suivant.
Shai Ben-Bassat, Youtubeur et PDG. Pouvez-vous nous en dire plus sur la position d'OpenAI concernant le dilemme du Basilic de Roko ?
Bien que le Basilic de Roko ne soit pas une préoccupation majeure, nous sommes préoccupés par la superintelligence. Un jour, il sera possible de construire un cluster informatique plus intelligent que n'importe quel humain, capable de faire de la science et de l'ingénierie bien plus vite que des équipes humaines. Cela aura un impact extrême. La superintelligence peut être incroyablement positive mais aussi dangereuse. C'est pourquoi nous proposons une approche de type AIEA pour les systèmes de pointe. Nous avons également besoin de recherches sur l'alignement pour garantir que sa puissance est utilisée au profit des gens. C'est le défi ultime de l'humanité. Si l'on regarde l'histoire de l'évolution, l'IAG et la superintelligence sont les défis finaux. Ils peuvent créer une prospérité inimaginable, mais nous devons surmonter les défis qu'ils présentent.
Q&A : Propriété des données et écosystème israélien
Roni Dori de Calcalist. C'est une question pour Sam Altman. Quelle est votre position sur la dignité des données dans le contexte de l'IA ?
Il est important que les personnes qui contribuent aux données ou aident ces systèmes soient récompensées. Ces systèmes aspirent à être des moteurs de raisonnement, et ils auront besoin de personnes pour leur apprendre à raisonner correctement. Nous explorons des idées de récompenses alignées pour ces personnes. Par exemple, si le style d'un artiste inspire une œuvre générée, il devrait en retirer un bénéfice économique. Nous essayons de trouver la bonne approche compte tenu des attentes des propriétaires de contenu et de l'évolution technologique.
J'ai une question de la communauté Machine and Deep Learning Israël, spécifiquement de Ben Netzer de Galey Tzahal. Quelles opportunités voyez-vous en Israël pour le développement et l'application de l'IA ?
Enfin, si vous en voyez.
À court terme, les opportunités sont innombrables ; c'est véritablement l'âge d'or de l'IA. Vous avez un territoire inexploré pour un nombre incroyable d'applications positives. Foncez.
Sam, vous avez travaillé avec des fondateurs et des startups israéliennes par le passé, n'est-ce pas ?
Oui. Deux choses que j'ai observées et qui sont spéciales à propos d'Israël sont la densité de talents et la détermination sans faille des entrepreneurs israéliens. Israël boxe bien au-dessus de sa catégorie. Ces deux éléments combinés devraient mener à une prospérité incroyable tant dans la recherche en IA que dans ses applications.
Q&A : Usage personnel et Recrutement
Nous allons en rester là alors. Merci.
Oui, nous pouvons prendre une question là-bas.
Je suis Dana de Nvidia. Si nous devions regarder votre utilisation personnelle de GPT, quelle est la mission la plus intéressante ou unique que vous lui avez confiée pour un usage privé ?
Vous voulez dire dans mon historique ChatGPT ?
Dans votre usage habituel.
Il a pratiquement remplacé Wikipédia pour moi. J'avais l'habitude de passer beaucoup de temps à apprendre des choses sur Wikipédia. C'est un outil étonnamment efficace pour acquérir de nouvelles connaissances rapidement dans ce style.
Je m'appelle Arbel. Je suis bénévole ici à Tel Aviv, j'ai dix-huit ans. Que recherchez-vous chez un nouvel employé chez OpenAI ?
Le dynamisme, le goût, le sens de la collaboration et l'intelligence. Nous recherchons la capacité de contribuer à l'ensemble de l'organisation, que ce soit par une percée, une excellente ingénierie ou simplement en aidant les autres. Nous apprécions également la foi en la superintelligence et le sens de la responsabilité pour mener à bien ce projet tout en gérant les risques.
C'est une réponse assez complète.
Vous devriez vraiment postuler.
Q&A : Éducation et Emploi
Je suis Alon, PDG de Benny Goren, un fournisseur de manuels de mathématiques en Israël. Comment prévoyez-vous d'améliorer les compétences en hébreu de ChatGPT, et quelle est votre vision de l'IA dans les écoles concrètement ?
Tu veux répondre ?
L'éducation en mathématiques et les manuels scolaires vont être modernisés. Les manuels ne répondent pas à vos questions, mais avec l'IA, vous pouvez avoir une conversation sur le sujet. Cela permet un apprentissage plus efficace. À terme, chaque étudiant disposera d'un tuteur privé dédié. Nous n'en sommes pas encore là, mais nous le serons.
Vous avez dit qu'il y avait de fortes chances qu'un événement de type 'cygne noir' se produise dans l'emploi. Pourquoi aucun gouvernement ne s'occupe-t-il du risque de déplacements massifs de main-d'œuvre ?
Je ne suis pas sûr qu'il s'agisse d'un événement de type 'cygne noir' ; il peut s'agir d'un changement progressif où les systèmes sont actuellement performants pour des tâches mais pas pour des emplois entiers. Le rôle du gouvernement sera de fournir un nouvel amortisseur. Différents gouvernements tenteront différentes expériences. Dans mes conversations lors de ce voyage, chaque gouvernement s'est montré très réfléchi à ce sujet. C'est une priorité pour les dirigeants mondiaux, donc les gens s'en occupent.
Q&A : Avenir de l'informatique et Conseils aux entrepreneurs
D'accord. Nous avons le temps pour une ou deux questions.
Je m'appelle Ben, je suis ici en haut.
Oui, allez-y.
Je m'appelle Ben Shkalim et je suis étudiant en informatique. Pourquoi devrais-je continuer à apprendre l'informatique si je veux avoir un emploi dans dix ou quinze ans ?
Apprendre l'informatique est bénéfique quoi qu'il arrive ; cela vous apprend à structurer votre pensée et à résoudre des problèmes. Même si le métier de programmeur change à l'avenir, la compétence principale réside dans la capacité d'apprendre vite, d'être adaptable et résilient. Je ne peux imaginer un monde où les gens ne créent pas de valeur pour les autres. À l'avenir, ce qui nous tiendra à cœur sera peut-être différent, mais il y aura toujours quelque chose.
Nous avons le temps pour une dernière question.
Je suis Hen Sagiv, co-fondateur de DeepPathology. Vous êtes en train de marquer l'histoire. Comment voulez-vous que l'histoire se souvienne de vous ?
De la meilleure façon possible.
Je suis Amir, un entrepreneur de dix-sept ans. Quels sont vos conseils pour ceux qui lancent leur première startup aujourd'hui ?
Je n'ai pas bien entendu la question.
Quels sont vos conseils pour ceux qui lancent leur première startup aujourd'hui ?
C'est véritablement le meilleur moment que j'aie connu pour lancer une startup. C'est mieux que le lancement de l'iPhone et comparable à l'avènement d'Internet. Vous êtes face à une vague technologique rapide, et c'est le moment où les startups gagnent et où les acteurs établis sont détrônés. Des choses inconcevables pour la plupart des gens sont désormais possibles, et l'opportunité de créer de la valeur avec une nouvelle approche est immense en ce moment.
Worldcoin et Conclusion
Sam, c'est vous l'acteur établi maintenant.
Dans quel domaine ?
C'est vous l'acteur dominant désormais.
Je ne suis absolument pas d'accord. Les gens vont construire tellement de choses en s'appuyant sur nous. Si vous essayez de concurrencer directement ChatGPT, vous manquez peut-être d'imagination, mais l'univers des possibilités est incroyable. Si vous craignez que nous soyons l'acteur dominant, vous ne réfléchissez pas correctement au problème.
Sam, je suis Rinat, scientifique des données à l'université. Ma question porte sur vos projets futurs et le projet Worldcoin.
J'étais un investisseur et j'ai aidé à structurer l'entreprise, mais je ne suis pas impliqué au quotidien. Je pense qu'expérimenter des méthodes préservant la vie privée pour prouver l'humanité et un revenu universel mondial est un excellent domaine d'exploration, mais je ne suis pas assez proche de l'entreprise pour commenter les plans spécifiques.
Sam Altman et Ilya Sutskever, PDG et scientifique en chef d'OpenAI. Merci beaucoup d'avoir été parmi nous.
Merci beaucoup.