Sam Altman

Sam Altman : L'avenir de l'IA et de la gouvernance mondiale

7 juin 2024

Intelligence Artificielle
Illustration de Sam Altman

Introduction et premiers impacts de l'IA

Nicholas Thompson

Bonjour Sam, comment vas-tu ? Merci d'être avec nous. Juste pour que tu le saches, tu t'adresses à une salle comble et tu passes après une princesse.

Sam Altman

J'ai vu ça. Très honoré.

Nicholas Thompson

Bienvenue. Je tiens à aborder—très reconnaissant de votre présence aujourd'hui—je veux couvrir beaucoup de sujets différents dans cette interview. Je veux parler un peu d'où nous en sommes avec l'IA, où nous allons, de certaines des grandes questions, et je veux parler de gouvernance. Alors, commençons par poser le décor. Nous sommes dans ce moment intéressant de l'IA où tout le monde est conscient de la puissance et du potentiel, mais cela n'a pas encore vraiment changé le monde. Cela n'a pas vraiment changé les ODD et les choses dont nous parlons. Je ne vais pas vous demander quand cela va arriver, mais laissez-moi plutôt vous poser cette question : quelle est la première grande chose positive que nous verrons se produire et quelle est la première grande chose négative que nous verrons se produire quand elle commencera à avoir un réel impact ?

Sam Altman

Je pense donc que le domaine où nous voyons déjà un impact aujourd'hui est la productivité. Les développeurs de logiciels sont l'exemple le plus souvent cité et je pense probablement toujours le meilleur à utiliser, là où les gens peuvent simplement faire leur travail beaucoup plus rapidement, plus efficacement, en travaillant davantage sur les parties qu'ils souhaitent. Et d'autres outils technologiques, ils s'intègrent à un flux de travail et il devient alors assez vite difficile d'imaginer travailler sans eux. Je m'attends donc à ce que ce modèle se reproduise dans d'autres domaines où nous verrons différentes industries devenir beaucoup plus productives qu'elles ne l'étaient parce qu'elles peuvent utiliser ces outils, et cela aura un impact positif sur tout, de l'écriture de code à la façon dont nous enseignons, dont nous apprenons, dont la santé fonctionne, et vous verrez cette augmentation de l'efficacité. Et je pense que ce sera la première chose positive réellement détectable et je dirais que nous y sommes déjà. Première chose négative, évidemment il y a déjà des choses négatives qui se passent avec les outils. Je dirais la cybersécurité, je ne sais pas si ce sera la première mais c'est une chose sur laquelle je veux attirer particulièrement l'attention car je pense que cela pourrait être un problème important.

Équité linguistique et itération des modèles

Nicholas Thompson

Oui, c'est un point extrêmement intéressant et je veux en venir à certaines des questions sous-jacentes à ce sujet. Mais d'abord, laissez-moi vous poser une question sur le nouveau modèle que vous entraînez. Vous venez d'annoncer que vous avez commencé à entraîner la prochaine itération, que ce soit GPT-5 ou quel que soit le nom que vous lui donnerez. L'une des grandes préoccupations ici à Genève est que GPT-4 et les autres grands modèles de langage sont bien meilleurs en anglais, en espagnol, en français qu'ils ne le sont, par exemple, en swahili. Quelle importance cela a-t-il pour vous ? Quelle est l'importance de l'équité linguistique pendant que vous entraînez la prochaine grande itération de votre produit ?

Sam Altman

Je ne sais pas si c'était une perche tendue ou non, mais je la saisis. L'une des choses dont nous sommes vraiment satisfaits avec GPT-4o, que nous avons sorti il y a quelques semaines, est qu'il est très bon dans une variété de langues beaucoup plus large. Nous améliorerons encore plus les prochains, mais je pense que la statistique que nous avons annoncée était une bonne couverture pour 97 % des gens pour leur langue principale. Nous avons donc pu faire un très grand pas en avant dans ce domaine. Les gens ont adoré ça et nous continuerons à progresser davantage.

Nicholas Thompson

Pendant que vous entraînez cette prochaine itération, restons sur la prochaine itération du modèle. Pendant que vous l'entraînez, quel niveau d'amélioration pensez-vous que nous verrons probablement ? Allons-nous voir une amélioration linéaire, une amélioration asymptotique ou une sorte d'amélioration exponentielle et très surprenante ?

Sam Altman

Excellente question. Nous ne pensons pas être proches d'une asymptote. Mais c'est un débat mondial et je pense que la meilleure chose à faire pour nous est simplement de montrer, et non de dire. Beaucoup de gens font beaucoup de prédictions et je pense que ce que nous allons essayer de faire, c'est simplement de mener les meilleures recherches possibles, puis de trouver comment publier de manière responsable tout ce que nous parvenons à créer. Je m'attends à ce qu'il soit énormément meilleur dans certains domaines et, étonnamment, pas autant dans d'autres, ce qui a été le cas pour chaque modèle précédent. Mais on a l'impression que c'est la conversation que nous avons eue à chaque sortie de modèle. Quand nous passions de 3 à 3.5 et de 3.5 à 4, il y avait beaucoup de débats sur la question de savoir si ce serait vraiment tellement meilleur. Si oui, de quelles manières ? Et la réponse est qu'il semble y avoir encore beaucoup de marge de progression, et je m'attends à ce que nous progressions sur certaines choses que les gens ne pensaient pas possibles dans l'ensemble.

Qualité des données et données synthétiques

Nicholas Thompson

C'est aussi la première fois que vous allez avoir un modèle qui sera entraîné en grande partie sur des données synthétiques. Je présume que c'est parce que le web contient désormais beaucoup de données synthétiques, c'est-à-dire des données créées par d'autres grands modèles de langage. Dans quelle mesure craignez-vous que l'entraînement d'un grand modèle de langage sur des données créées par d'autres grands modèles de langage n'entraîne une corruption du système ?

Sam Altman

Je pense que ce dont on a besoin, ce sont des données de haute qualité. Il existe des données synthétiques de mauvaise qualité, il existe des données humaines de mauvaise qualité. Et tant que nous pouvons trouver suffisamment de données de qualité pour entraîner nos modèles ou trouver des moyens de gagner en efficacité des données et d'apprendre davantage à partir de quantités de données plus faibles ou de n'importe quel nombre d'autres techniques, je pense que c'est correct et je dirais que nous avons le sentiment d'avoir ce dont nous avons besoin pour ce prochain modèle.

Nicholas Thompson

Avez-vous créé des quantités massives de données synthétiques pour entraîner votre modèle ? Avez-vous auto-généré des données pour l'entraînement ?

Sam Altman

Nous avons bien sûr fait toutes sortes d'expériences, y compris la génération de tonnes de données synthétiques. Mon espoir est qu'il y aurait quelque chose de très étrange si la meilleure façon d'entraîner un modèle était de simplement générer un quadrillion de jetons de données synthétiques et de les réinjecter. On se dirait que cela semble inefficace et qu'il devrait y avoir un moyen d'apprendre davantage à partir des données pendant l'entraînement. Je pense que nous avons encore beaucoup à découvrir. Mais bien sûr, nous avons généré beaucoup de données synthétiques pour expérimenter l'entraînement là-dessus. Encore une fois, je pense que le véritable cœur de votre question est de savoir comment apprendre plus avec moins de données.

Interprétabilité et sécurité des systèmes

Nicholas Thompson

C'est intéressant, je ne savais pas cela. Eh bien, parlons de l'une des questions clés qui influencera la façon dont ces choses se diffusent dans le monde. L'année dernière, vous avez accordé cette interview fascinante à Patrick Collison, le fondateur de Stripe. Et he a posé cette excellente question. Il a dit : y a-t-il quelque chose qui pourrait changer dans l'IA qui vous rendrait beaucoup moins inquiet du fait que l'IA aura des effets néfastes dramatiques dans le monde ? Et vous avez répondu : eh bien, si nous pouvions comprendre ce qui se passe exactement en coulisses, si nous pouvions comprendre ce qui se passe avec un neurone. Et si je comprends bien, cela signifie que vous voulez que le modèle d'IA soit capable d'enseigner la chimie à quelqu'un, mais vous ne voulez pas qu'il puisse lui apprendre à fabriquer une arme chimique. Et vous souhaiteriez pouvoir faire cela au cœur du système, pas seulement au niveau de l'interface. Est-ce la bonne façon d'y penser et avez-vous résolu ce problème ?

Sam Altman

Je pense que la sécurité va nécessiter une approche globale. Mais cette question d'interprétabilité semble effectivement être une chose utile à comprendre. Et il y a plusieurs niveaux auxquels cela pourrait fonctionner. Nous n'avons certainement pas résolu l'interprétabilité. Il y a un certain nombre de choses en cours qui m'enthousiasment beaucoup, mais rien qui ne s'approche du point où je dirais que tout le monde peut rentrer chez soi, nous avons compris le truc. Il me semble que plus nous pouvons comprendre ce qui se passe dans ces modèles, mieux c'est. Et je pense que cela peut faire partie de cet ensemble cohérent sur la façon dont nous pouvons formuler et vérifier des affirmations de sécurité.

Nicholas Thompson

Mais si vous ne comprenez pas ce qui se passe, n'est-ce pas un argument pour ne pas continuer à sortir de nouveaux modèles plus puissants ?

Sam Altman

Eh bien, nous ne comprenons pas ce qui se passe dans votre cerveau au niveau neurone par neurone. Et pourtant, nous savons que vous pouvez suivre certaines règles et nous pouvons vous demander d'expliquer pourquoi vous pensez quelque chose. Il existe d'autres façons de comprendre un système en dehors de la compréhension au niveau neurone par neurone. Les caractéristiques, le comportement de ces systèmes sont extrêmement bien caractérisés. Et l'une des choses qui, je pense, a surpris beaucoup de gens dans le domaine, y compris moi, est la mesure dans laquelle nous avons pu obtenir très rapidement, et en quelque sorte à l'échelle de l'histoire d'une nouvelle technologie, des systèmes généralement considérés comme sûrs et robustes.

Nicholas Thompson

Ma femme dit aussi qu'elle ne comprend parfois pas exactement ce qui se passe au niveau profond de mon cerveau. Nous avons donc cela en commun. Quel est le plus grand progrès que nous ayons fait ou y a-t-il eu de réelles percées dans la compréhension de cette question de l'interprétabilité ?

Sam Altman

Il y a eu une excellente publication récemment d'Anthropic qui a réalisé un modèle 'Golden Gate Bridge' qui montrait une caractéristique intéressante à ce sujet. Ce serait une chose récente que je citerais.

Équilibre entre capacités et sécurité

Nicholas Thompson

D'accord. Eh bien, laissez-moi passer à une proposition que Tristan Harris a faite ce matin alors que nous parlons de sécurité. Tristan était sur cette scène et il a dit que pour chaque million de dollars qu'une entreprise de grands modèles de langage consacre à rendre ses modèles plus puissants, elle devrait également consacrer un million de dollars à la sécurité. Un pour un. Pensez-vous que c'est une bonne idée ?

Sam Altman

Je ne sais pas ce que cela signifie. Comme pour la définition, je pense qu'il y a cette tentation de diviser le monde en capacités d'un côté et sécurité de l'autre. Et vous pouvez formuler toutes ces choses qui sonnent bien—nous devrions avoir telle politique et telle politique. Mais si vous regardez le travail que nous avons fait pour rendre réellement un modèle comme GPT-4 utilisable par des centaines de millions de personnes pour des tâches de plus en plus fréquentes, importantes et précieuses, si vous regardez comment rendre cette chose sûre, vous auriez du mal à caractériser où se situerait une grande partie du travail. Parce que, si vous utilisez un modèle en production, vous voulez qu'il accomplisse votre tâche et qu'il n'aille pas faire quelque chose qui va avoir un effet négatif d'une sorte ou d'une autre. Mais vous ne savez pas, en tant qu'utilisateur, est-ce que cela a fonctionné parce qu'il a fait ce que je voulais ? Est-ce que cela a fonctionné grâce au travail sur les capacités ou au travail sur la sécurité ou quelque chose entre les deux ? Amener le modèle à se comporter comme l'utilisateur le souhaite en respectant ces limites est une chose intégrée. C'est comme monter dans un avion—je suppose que c'est un mauvais exemple récent, mais je l'ai commencé alors je vais m'y tenir. Vous montez dans un avion et vous voulez savoir qu'il vous emmènera là où vous voulez aller et vous voulez aussi savoir qu'il ne va pas s'écraser en chemin. Mais je pense qu'il y a certains cas dans la conception de cet avion où l'on pourrait dire : 'bon, ça c'était clairement du travail sur les capacités et ça c'était clairement du travail sur la sécurité.' Mais dans l'ensemble, vous essayez de concevoir ce système intégré qui va vous amener en toute sécurité là où vous voulez aller, si possible rapidement, et si possible sans que le panneau ne se détache pendant le vol. Et la frontière n'est pas aussi claire qu'elle en a souvent l'air.

Nicholas Thompson

C'est juste. Donc d'une certaine manière, tous vos ingénieurs travaillent dans une certaine mesure sur la sécurité. Mais laissez-moi poser la question différemment.

Sam Altman

J'ai failli dire que la sécurité est la responsabilité de tous, mais cela ressemblait au pire de ces slogans d'entreprise, alors je ne l'ai pas fait.

Nicholas Thompson

Exact. L'une des raisons pour lesquelles j'y pense, bien sûr, est que le co-fondateur le plus associé à la sécurité, Ilya, vient de partir. Jan, qui était l'un des principaux intervenants sur la sécurité, est parti travailler chez Anthropic et a tweeté que l'entreprise ne donnait pas la priorité à cela. Alors convainquez tout le monde ici qu'ils n'ont pas raison, et que vous pilotez ce très—nous sommes tous dans votre avion en ce moment, Sam. Convainquez-nous que l'aile ne va pas tomber après le départ de ces personnes.

Sam Altman

Je pense que vous devez regarder nos actions, et les modèles que nous avons sortis et le travail que nous avons fait, la science que nous avons faite pour rendre—encore une fois, j'ai souligné ce point tout à l'heure, mais si vous revenez en arrière et regardez ce que les gens disaient à l'époque de GPT-3 sur la plausibilité que nous rendions un jour de tels systèmes sûrs et alignés—le fait que quelques années plus tard seulement nous ayons sorti quelque chose à ce niveau est un travail colossal de la part de nombreuses équipes. Il y a la recherche sur l'alignement, il y a le système de sécurité, il y a la surveillance. Nous avons récemment parlé de notre travail pour démanteler un certain nombre d'opérations d'influence. Le fait que nous soyons capables de tenir cette promesse—et bien sûr nous ne sommes pas parfaits, bien sûr nous apprenons du contact avec la réalité au fur et à mesure—mais le fait que nous soyons capables de tenir cette promesse au niveau où nous le faisons est quelque chose dont nous sommes très fiers. Je pense aussi que le fait de prendre les équipes de superalignement et de les rapprocher des équipes qui font une partie de la recherche sera une évolution très positive.

AGI et conception compatible avec l'humain

Nicholas Thompson

D'accord. Je veux parler un peu de l'AGI puisque c'est le point central de l'entreprise, une chose dont vous avez beaucoup parlé. Et laissez-moi formuler la question ainsi. Si je travaillais chez OpenAI, je frapperais probablement à votre porte et je dirais : 'Sam, je veux une courte réunion.' Et je dirais : 'Je comprends pourquoi l'AGI a été une telle priorité, n'est-ce pas ? C'est ce que tout le monde dans l'IA veut construire. Cela fait partie de la science-fiction. Construire une machine qui pense comme un humain signifie que nous construisons une machine comme la création la plus capable que nous ayons sur terre.' Mais je serais très inquiet parce que beaucoup de problèmes avec l'IA, beaucoup de mauvaises choses avec l'IA semblent provenir de sa capacité à se faire passer pour un humain. Vous avez parlé plus tôt de cybersécurité. Beaucoup de problèmes que nous voyons sont qu'il est si facile pour quelqu'un de se faire passer pour un humain. Et j'ai l'impression qu'il y a eu beaucoup de décisions chez OpenAI pour rendre la machine plus semblable à un humain, n'est-ce pas ? La façon dont la saisie ressemble un peu à celle d'un humain. Parfois, la machine utilise la première personne du singulier. La question de la voix, à laquelle nous viendrons, elle semble très humaine. Pourquoi continuez-vous à fabriquer des machines qui ressemblent davantage à des humains au lieu de dire, vous savez quoi, on comprend les risques, on va changer de direction ici ?

Sam Altman

Je pense qu'il est important de concevoir des systèmes compatibles avec l'humain, mais je pense que c'est une erreur de supposer qu'ils sont semblables à l'humain dans leur pensée, leurs capacités ou leurs limites, même si nous faisons ce clonage comportemental à partir de toutes ces données textuelles humaines. Ils peuvent déjà clairement faire des choses extrêmement surhumaines, puis des choses très non-humaines plus tard. J'essaie donc toujours de voir cela comme une intelligence étrangère et de ne pas essayer de projeter mes biais anthropomorphes dessus. La raison pour laquelle nous faisons certains des choix d'interface que nous faisons est que nous croyons en une conception pour un monde très compatible avec l'humain. Le fait que ces systèmes fonctionnent en langage naturel nous semble vraiment important pour un tas de raisons. Cela semble être le bon—il y a aussi beaucoup de propriétés de sécurité intéressantes autour de cela que vous pouvez imaginer par la suite. Mais cela semble être un objectif très important de faire en sorte que les IA soient au maximum compatibles avec l'humain et conçues pour les humains, et qu'elles fonctionnent d'une manière où elles communiquent avec nous par le langage, peut-être entre elles par le langage. Il existe d'autres versions de cela—je pense en quelque sorte que le monde devrait préférer les robots humanoïdes à d'autres formes ou structures de robots pour encourager le monde à rester orienté au maximum vers l'humain. Je pense donc à un usage facile pour les humains, ce qui inclut le langage comme méthode d'interface principale, mais sans essayer de projeter trop de ressemblance humaine sur eux au-delà de cela. Nous n'avons pas donné de nom humain à notre IA. Je pense que ChatGPT, bien qu'extrêmement lourd comme nom, a la propriété appréciable d'être un mot qui explique ce que c'est, puis trois lettres qui sonnent comme un robot, mais il est très clair que ce n'est pas un humain.

Nicholas Thompson

Et qu'en est-il d'aller plus loin dans cette direction ? Que diriez-vous, par exemple, de dire que ChatGPT ne peut jamais utiliser le 'je' ?

Sam Altman

Cela revient à la question de la compatibilité humaine. Nous avons testé des versions comme celle-là. Cela a tendance à frustrer les utilisateurs plus qu'autre chose, car nous sommes habitués à certains idiomes lorsque nous interagissons par le langage.

Nicholas Thompson

Ou qu'en est-il de votre voix—quand vous avez un modèle vocal—d'avoir un bip ou quelque chose avant qui signifie que ce n'est pas une personne ? Nous sommes sur le point d'entrer dans cette période d'élections. Tout le monde ici s'inquiète des deepfakes, de la désinformation. Comment vérifier ce qui est réel ? Que pouvez-vous faire pour que cela soit moins un problème au niveau de la conception de base ?

Sam Altman

Ouais. Je pense qu'il y a des signaux sonores intéressants comme un bip. Ce que les gens ne veulent certainement pas, c'est un langage qui sonne comme un robot. Cela revient au point de compatibilité humaine et à la façon dont nous sommes câblés. Je dirai qu'ayant utilisé le mode vocal, que j'aime beaucoup plus que ce à quoi je m'attendais, cela a vraiment franchi un seuil pour moi d'un seul coup. Je n'étais jamais le gars qui utilisait le mode vocal sur mon téléphone pour quoi que ce soit d'autre avant celui-ci. Il y a une valeur incroyable, bien plus que ce que je réalisais personnellement, à ce qui ressemble à une interface vocale très naturelle. Et je ne pense pas que cela fonctionnerait de la même manière pour moi ou que ce serait le même niveau de naturel et de fluidité si cela ne sonnait pas comme quelque chose pour lequel je suis déjà câblé. Mais un bip ou une autre indication pourrait tout à fait avoir du sens. Je pense que nous devons simplement étudier la façon dont les utilisateurs réagissent à cela. Nous le lancerons assez bientôt et je suis encouragé dans l'ensemble par la réaction des utilisateurs à ChatGPT, où les gens ont très vite compris qu'il s'agissait d'une IA, quelles étaient ses limites, quand l'utiliser ou ne pas l'utiliser, et comment l'intégrer. J'espère que des choses comme le mode vocal suivront une trajectoire très similaire, mais nous aurons une boucle de rétroaction très serrée et nous surveillerons cela de très près.

Interaction vocale et authenticité

Nicholas Thompson

Eh bien, j'espère que la traduction en temps réel fonctionne parce que je suis ici en Suisse et je courais dans les montagnes quand ce type me crie quelque chose en français. Et parce que je prétends améliorer mon français, j'ai fait semblant de le comprendre, mais ce n'était clairement pas le cas car ce que je faisais, c'était de me diriger vers une zone dangereuse où j'ai failli tomber d'une falaise. Donc une fois que nous pourrons régler ça, j'irai beaucoup mieux.

Sam Altman

C'est super bien pour ça.

Nicholas Thompson

Parlons de l'épisode Scarlett Johansson car il y a quelque chose là-dedans que je ne comprends pas. Donc, vous faites la démonstration de ces voix. Elle publie ensuite une déclaration qui attire beaucoup l'attention. Tout le monde ici l'a probablement vue, disant qu'ils m'avaient demandé si je pouvais utiliser ma voix, j'ai dit non. Ils sont revenus deux jours avant la sortie du produit, j'ai dit non à nouveau. Ils l'ont quand même sorti. OpenAI a ensuite publié une déclaration disant que ce n'était pas tout à fait exact, que nous avions fait auditionner tout un groupe d'acteurs, que nous avions sélectionné cinq voix. Après cela, nous lui avons demandé si elle voulait en faire partie, elle aurait été la sixième voix. Ce que je ne comprends pas, c'est que l'une des cinq voix ressemble exactement à Scarlett Johansson. On a donc presque l'impression que vous demandez qu'il y ait six voix, dont deux lui ressemblent exactement. Et je suis curieux de savoir si vous pouvez m'expliquer cela.

Sam Altman

Ouais, ce n'est pas sa voix. Ce n'est pas censé l'être. Désolé pour la confusion. Visiblement, vous pensez que c'est elle, mais ce n'est pas sa voix et je ne vois pas trop quoi dire d'autre.

Nicholas Thompson

D'accord. Parlons d'authenticité car c'est assez lié. Vous êtes en vidéo, je suis en personne, je suis réel. J'ai demandé à GPT-4o comment prouver qu'une personne est réelle lorsqu'on l'interviewe sur un écran vidéo. Et il a suggéré de lui demander quelque chose qui s'est passé au cours des dernières heures pour voir si elle peut répondre. Alors, que vient-il d'arriver à Magnus Carlsen ?

Sam Altman

Je ne sais pas.

Nicholas Thompson

D'accord. Eh bien, j'en ai quelques-unes à lui donner. Les résultats de quelle entreprise technologique font l'objet de discussions sur Twitter en ce moment ?

Sam Altman

Salesforce.

Nicholas Thompson

Boom. D'accord. Il disait aussi que vous pouviez demander à la personne de faire un mouvement physique compliqué : pouvez-vous lever la main droite tout en touchant votre nez avec votre main gauche ?

Sam Altman

[Sam Altman lève la main droite et touche son nez avec sa main gauche]

Mondialisation et avenir du web

Nicholas Thompson

D'accord. L'homme est réel. Bon, parlons un peu de la mondialisation de l'IA puisque c'est un sujet qui est souvent revenu durant cette conférence. Il est clairement dans votre intérêt qu'il y ait un ou peu de grands modèles de langage. Mais où voyez-vous le monde aller ? Pensez-vous que dans trois ans, il y aura de nombreux modèles de base de grande taille ou très peu ? Et surtout, y aura-t-il un modèle de langage distinct utilisé en Chine, un autre utilisé différemment au Nigeria, un autre utilisé différemment en Inde ? Où allons-nous ?

Sam Altman

Honnêtement, ni nous ni personne ne connaît la réponse à cette question. Il y a clairement des tonnes de modèles qui sont entraînés là-bas et cela va continuer. Et bien que nous ne sachions pas, je m'attendrais à ce que la Chine ait son propre grand modèle de langage qui soit différent du reste du monde. Je suppose qu'il y aura un petit nombre—10, 20, quelque chose comme ça—qui obtiendront la majeure partie de l'utilisation et qui seront entraînés avec le plus de ressources. Mais je pense que nous en sommes encore au tout début dans ce monde et qu'il reste encore tant à découvrir et tant de percées scientifiques à réaliser, que toute prédiction confiante ici est vraiment difficile.

Nicholas Thompson

D'accord, laissez-moi vous interroger sur une autre chose importante qui m'inquiète. L'une des choses qui me préoccupent le plus alors que nous nous dirigeons vers la prochaine itération de l'IA est que le web devienne presque incompréhensible, car il y a tellement de contenu mis en ligne parce qu'il est si facile de créer des pages web, si facile de créer des histoires, si facile de tout faire, que le web devient presque impossible à naviguer et à parcourir. Est-ce que cela vous inquiète ? Et si vous pensez que c'est une possibilité réelle, que peut-on faire pour rendre cela moins probable ?

Sam Altman

Je pense que la façon dont nous utilisons Internet est susceptible de changer quelque peu, même si cela va prendre beaucoup de temps. Mais je ne m'inquiète pas du fait qu'il devienne incompréhensible ou couvert d'articles générés par du spam. On le voit déjà un peu avec la façon dont quelqu'un utilise ChatGPT, où l'on peut parfois obtenir des informations plus efficacement qu'en cherchant quelque chose et en cliquant partout. Et cette idée que l'Internet peut en quelque sorte venir à vous est une chose géniale dans l'évolution de l'IA. Je pense donc qu'il pourrait y avoir des changements dans la façon dont nous utilisons tous Internet comme celui-là, mais je ne m'inquiète pas du fait qu'il devienne incompréhensible.

Nicholas Thompson

D'une certaine manière, en vous écoutant dire cela, je vois un monde où Internet s'effondre presque, où ce sont juste ces 10 ou 20 grands modèles de langage qui constituent votre interface. Est-ce plutôt cela que vous voyez ?

Sam Altman

No, je pense que les gens peuvent imaginer des versions où l'ensemble du web est transformé en composants et où vous avez cette IA qui assemble—c'est pour un futur lointain—la page web parfaite pour vous chaque fois que vous avez besoin de quelque chose et que tout est rendu en direct pour vous instantanément. Mais je ne peux pas imaginer que tout se résume à un seul site web. Cela me semble contraire à tous mes instincts.

Impact économique et inégalités

Nicholas Thompson

D'accord. Parlons de l'une des questions les plus intéressantes sur lesquelles des gens très intelligents dans le domaine de l'IA ne sont pas d'accord : est-ce que cela va aggraver l'inégalité des revenus ou est-ce que cela va l'améliorer ? J'ai écouté beaucoup de vos podcasts et vous dites d'une certaine manière que cela pourrait potentiellement aggraver l'inégalité des revenus et qu'il y a un besoin de revenu universel de base pour contrer cela. Mais ce matin sur cette scène, Azeem Azhar était présent et il citait des études économiques suggérant qu'en fait les outils d'IA, lorsqu'ils sont mis en œuvre dans un centre d'appels, aident davantage les travailleurs les moins bien payés que les plus payés. Au fur et à mesure que l'IA se déploie, cela a-t-il changé votre vision de ce qui va se passer avec l'inégalité des revenus dans le monde, tant au sein des pays qu'entre les pays ?

Sam Altman

Laissez-moi d'abord donner un exemple. Aujourd'hui, nous avons lancé OpenAI for Nonprofits, qui est une nouvelle initiative visant à rendre nos outils moins chers et plus largement accessibles aux organisations à but non lucratif. Il y a donc des réductions, des moyens de partager les meilleures pratiques. Et les gens ont fait un travail incroyable avec cela. Un exemple est l'International Rescue Committee qui utilise nos outils et obtient d'excellents résultats de cette intégration en soutenant des enseignants et des apprenants surchargés dans des zones de crise réelle. Et je pense que c'est un exemple de situation où ces outils, parce qu'on peut automatiser quelque chose qui a été difficile et rendre l'intelligence beaucoup plus largement disponible, peuvent vraiment aider les gens qui en ont le plus besoin plus qu'ils n'aideraient des gens dans un contexte déjà riche. Nous sommes donc très enthousiastes à l'idée de lancer ce programme en général et c'est un exemple de ce dont vous parlez—le fait que l'on puisse voir des manières dont l'IA fait plus pour aider les personnes les plus pauvres que les plus riches. Et nous y croyons vraiment, nous en sommes enthousiastes. C'est une part immense de la raison pour laquelle nous voulons construire ces outils. Et je pense que c'est une part immense de l'histoire de la technologie et de l'arc de ce qui s'est passé. Donc cela arrivera à coup sûr. Je pense que la technologie contribue énormément à élever le monde vers plus d'abondance, vers de plus hauts sommets, vers une meilleure prospérité, peu importe comment on l'appelle. Et je suis optimiste à ce sujet. Je ne pense pas que cela nécessitera une intervention spéciale. Je m'attends toujours, bien que je ne sache pas quoi—et c'est sur une longue période—à ce qu'il y ait des changements requis au contrat social compte tenu de la puissance que nous attendons de cette technologie. Je ne crois pas qu'il n'y aura plus d'emplois. Je pense que nous trouvons toujours de nouvelles choses à faire. Mais je pense que toute la structure de la société elle-même sera sujette à un certain degré de débat et de reconfiguration.

Nicholas Thompson

Et cette reconfiguration sera menée par les entreprises de grands modèles de langage ?

Sam Altman

Non. Juste par la façon dont toute l'économie fonctionne et ce que la société décide que nous voulons faire. Et cela se produit depuis longtemps à mesure que le monde s'enrichit. Les filets de sécurité sociale en sont un excellent exemple. Je m'attends à ce que nous décidions que nous voulons faire plus dans ce domaine.

Réglementation et contrat social

Nicholas Thompson

Eh bien, laissez-moi vous poser cette variante de la question. Vous avez beaucoup de dirigeants gouvernementaux et de personnes provenant de nombreux pays de la planète dans cette salle. Quels sont les exemples de réglementations qui ont été discutées au cours de l'année et demie écoulée et qui, selon vous, aideront à reconfigurer le contrat social pour un futur d'adoption massive de l'IA ? Et quels sont les exemples de réglementations dont vous avez entendu parler et qui, selon vous, nuiront à ce processus ?

Sam Altman

Je ne pense pas que la discussion actuelle sur la réglementation soit centrée sur ce genre de sujets. Il s'agit du fait que nous avons des élections, qu'allons-nous faire là-bas ? Et vous pouvez avoir ces autres questions à court terme vraiment importantes avec l'IA. Je ne pense pas que les réglementations aient porté sur des choses du genre : 'bon, on va fabriquer l'AGI et ce sera comme dans les livres de science-fiction, qu'est-ce qu'on fait là ?' Et je pense que ce serait prématuré parce que nous ne savons pas encore comment la société et cette technologie vont co-évoluer. Je pense que cela mérite un certain débat, c'est juste que cela ne—je ne pense pas que cela devrait être la priorité actuelle et cela ne l'a certainement pas été.

Nicholas Thompson

Existe-t-il donc des cadres réglementaires—on parle souvent du cadre de régulation des armes nucléaires—qui existent et qui, selon vous, sont utiles à considérer alors que nous entrons dans ce nouveau monde ?

Sam Altman

À long terme. Si nous avions une recommandation forte, nous réaliserions bien sûr que ce n'est pas notre décision, mais nous formulerions cette recommandation forte. Et nous dirions, étant donné ce que nous pensons être le plus susceptible d'arriver et là où nous prévoyons que cela aille, voici ce qui, selon nous, devrait être davantage pris en compte. Ces choses sont très difficiles à faire en théorie à l'avance. Il faut en quelque sorte observer l'évolution des choses. L'une des raisons pour lesquelles nous croyons en notre stratégie de déploiement itératif—qui consiste à mettre ces systèmes dans le monde, en réalisant qu'ils vont s'améliorer et que l'on va apprendre beaucoup en cours de route—est que la société ne fonctionne pas sur un tableau blanc en théorie. Et aussi, la société n'est pas cette chose statique. À mesure que l'on déploie la technologie, la société change, la technologie change, il y a cette véritable co-évolution. Je pense donc que la bonne façon pour nous de déterminer ensemble ce que cela va être est empirique. Déjà, depuis la sortie de ChatGPT, on voit beaucoup d'exemples de manières dont il commence à transformer des pans de l'économie et la façon dont les gens travaillent. Et je pense que cette approche—qui n'est pas du genre à nous asseoir un jour et à dire que nous allons concevoir le nouveau contrat social d'un seul coup—consistant à avancer par itérations semble beaucoup plus susceptible de fonctionner.

Gouvernance d'OpenAI

Nicholas Thompson

D'accord. Très bien. Parlons de la gouvernance d'OpenAI. L'une de mes citations préférées—je ne peux pas lire l'intégralité à cause des interdictions de l'ONU—mais cela provient d'une interview que vous avez accordée au New Yorker il y a huit ans. Et vous parliez de la gouvernance d'OpenAI. Et vous disiez : nous planifions un moyen de permettre à de larges pans du monde d'élire des représentants à un nouveau conseil de gouvernance de l'entreprise, parce que si je n'en faisais pas partie, je me dirais : pourquoi ces types-là ont-ils le droit de décider de ce qui m'arrive ? Alors, parlez-moi de cette citation et de ce que vous en pensez aujourd'hui.

Sam Altman

C'est toujours quelque chose comme ça que je crois qu'il serait bon de faire. Nous continuons à discuter de la manière de mettre en œuvre la gouvernance. Je ne devrais probablement pas en dire trop pour l'instant, mais je reste enthousiaste à l'idée de quelque chose dans cette direction.

Nicholas Thompson

Dites-en un peu plus.

Sam Altman

Je vais passer mon tour, je suis désolé.

Nicholas Thompson

D'accord. Eh bien, laissez-moi vous interroger sur la critique de la gouvernance actuelle. Deux de vos anciens membres du conseil d'administration, Tasha McCauley et Helen Toner, viennent de publier une tribune dans The Economist. Et elles disent qu'après leurs expériences décevantes avec OpenAI—ce sont les membres du conseil qui ont voté pour vous licencier avant que vous ne reveniez—elles disent qu'on ne peut pas faire confiance à l'auto-gouvernance d'une entreprise d'IA. Et plus tôt cette semaine, Toner a donné une interview au podcast TED AI et elle a déclaré que la surveillance avait été entièrement dysfonctionnelle et qu'en fait, elle et le conseil d'administration avaient appris la sortie de ChatGPT sur Twitter. Est-ce exact ?

Sam Altman

Écoutez, je suis respectueusement mais très significativement en désaccord avec ses souvenirs des événements. Mais je dirai que je pense que Mme Toner se soucie sincèrement d'un bon résultat pour l'AGI et j'apprécie cela chez elle. Je lui souhaite le meilleur. Je ne veux probablement pas me lancer dans une réfutation point par point ici. Quand nous avons sorti ChatGPT, c'était à l'époque appelé un aperçu de recherche discret. Nous ne nous attendions pas à ce qu'il se passe ce qui s'est passé, mais nous avions bien sûr beaucoup discuté avec notre conseil d'administration d'un plan de sortie vers lequel nous avancions. Nous avions à ce stade la version 3.5, sur laquelle ChatGPT était basé, disponible depuis environ huit mois ou quelque chose comme ça. Nous avions terminé l'entraînement de GPT-4 depuis longtemps et nous étions en train de concevoir une sorte de plan de sortie progressive pour celui-ci. Mais oui, je suis en désaccord avec son souvenir des événements.

Nicholas Thompson

D'accord. Vous allez en rester là ?

Sam Altman

Je pense, oui.

Humilité humaine et avenir de l'apprentissage

Nicholas Thompson

D'accord. Très bien. Il nous reste juste quelques minutes. Je veux vous poser des questions un peu plus vastes sur l'IA. Vous savez, j'étais justement à un événement avec beaucoup de gens qui parlaient d'IA et d'humanisme. Et l'un des participants a avancé un argument vraiment intéressant. Il a dit qu'il était possible que la création humaine de quelque chose qui est plus puissant que l'humain ne nous rende pas plus égoïstes, mais qu'elle nous rende plus humbles. Ce sera comme se regarder dans un miroir et se voir nu. Nous aurons un sentiment d'émerveillement face à la machine et un sentiment d'humilité par rapport à nos vies, et cela nous enseignera une nouvelle façon de vivre. Pensez-vous que c'est ce qui va se passer ? Est-ce que cela vous arrive parfois ? Regardez-vous parfois la machine en éprouvant un plus grand sentiment d'humilité quant à votre place dans le monde ?

Sam Altman

Personnellement, oui. Vraiment. Et je pense que cela va se produire plus largement. Je parierais qu'il y aura une augmentation généralisée de l'émerveillement pour le monde et de notre place dans l'univers, ainsi qu'une humilité de la perspective humaine qui, je pense, sera très positive. Je réfléchissais récemment au fait que, d'une certaine manière, l'histoire de la science a consisté à ce que les humains soient de moins en moins au centre. On peut regarder tous ces exemples où nous croyions autrefois que le soleil tournait autour de la terre, ce qui était une façon très centrée sur l'humain de penser les choses. Et puis nous avons réalisé qu'en fait c'est la terre qui tourne autour du soleil et qu'en fait ces petits points blancs dans le ciel sont de nombreuses étoiles et qu'il y a de nombreuses galaxies au-delà. Et puis, selon la distance à laquelle vous voulez aller avec l'analogie, vous pouvez dire, d'accord, il y a le truc du multivers et c'est vraiment assez étrange et nous ne sommes vraiment presque rien. Et l'IA pourrait être un autre exemple où nous obtenons une perspective supplémentaire qui nous donne plus d'humilité et d'émerveillement pour la chose beaucoup plus vaste dont nous faisons tous partie. Et je pense que c'est une chose continue et vraiment positive.

Nicholas Thompson

Vous allez faire plaisir à mon fils de 10 ans. On rentrait d'un match de foot et j'écoutais beaucoup de podcasts de Sam Altman, il en écoutait un et il a dit : 'Ce gars-là ne parle pas assez de la nature et des animaux.' Je suis donc content d'avoir un peu de cela dans cette question. Merci de la part de James Thompson. Je veux vous interroger sur l'une des positions les plus radicales dont je vous ai entendu parler. Vous avez mentionné que vous pouvez imaginer un avenir où la gouvernance appartient en fait à chaque individu. Il y a donc 12 milliards de personnes et on peut presque saisir ses préférences sur les décisions que l'on veut voir prises, et une IA qui comprend vos préférences peut alors mener à une meilleure prise de décision. Pensez-vous que c'est une possibilité réelle et est-ce que l'ONU devrait faire cela ?

Sam Altman

Eh bien, tout d'abord, j'espère que ce sera à un moment où il y aura 12 milliards de personnes et non 4 milliards. Je suis définitivement un peu inquiet des tendances là-dessus. Mais oui, je pense que ce serait un excellent projet pour l'ONU que de commencer à discuter de la manière dont nous allons collecter l'ensemble d'alignement de l'humanité et aussi, au sein de cela, où sont les paramètres par défaut, où sont les limites, comment les gens peuvent faire bouger les choses à l'intérieur. Je pense que ce serait une excellente chose à faire pour l'ONU.

Nicholas Thompson

Vous pensez donc que nous pourrions concevoir d'y arriver. Quelles seraient certaines des étapes intermédiaires afin de créer un système de gouvernance où une IA peut aider à le rendre plus collaboratif, plus athénien, et non l'inverse ?

Sam Altman

Nous avons publié quelque chose d'assez récent appelé la 'Spec', qui était une première étape vers cela où nous disions : 'Bon, d'après ce que nous avons appris, voici comment nous allons essayer de fixer les règles. Voici ce que le modèle va essayer de faire.' Et une raison pour laquelle c'est important est qu'au moins cela explique quand quelque chose est un bug par rapport à un comportement voulu. Et nous pouvons donc soit corriger le bug, soit débattre du principe. Et nous essayons maintenant d'avoir beaucoup de débats sur cette spécification et sur les raisons pour lesquelles nous faisons certaines choses. Celles-ci descendent à un niveau de détail assez élevé. Peut-être qu'il y a quelque chose que le modèle ne devrait pas dire en réponse si vous lui demandez de faire quelque chose de douteux, mais si vous lui demandez de traduire cela de l'anglais vers le français, il devrait se conformer à la demande de traduction. Essayer d'atteindre ce niveau de spécificité est important. Je pense que d'autres choses à faire consistent maintenant à pousser cela vers quelque chose de plus large. On pourrait imaginer un monde où, à terme, les gens pourraient discuter avec ChatGPT de leurs préférences individuelles et faire en sorte que cela soit pris en compte pour le système plus large et certainement dans la façon dont il se comporte rien que pour eux. Une autre chose dans ce monde est notre message système, pour lequel des gens ont fait un travail très créatif afin que le modèle se comporte comme ils le souhaitent.

Nicholas Thompson

Pensez-vous qu'il y ait quoi que ce soit dans le cerveau humain qui ne puisse être reproduit par des machines ?

Sam Altman

Peut-être les expériences subjectives. Je ne sais pas. Je ne veux pas entrer dans le débat sur l'IA et la conscience parce que je pense n'avoir rien à y ajouter.

Nicholas Thompson

Eh bien, je me suis dit que je vous poserais la question à la fin parce qu'on ne peut fondamentalement donner qu'une réponse par oui ou par non sur l'IA ou la conscience. Laissez-moi vous poser une autre question de l'un de mes enfants. Ils ont parfois cette sagesse. J'ai trois garçons. L'aîné, je lui parlais de ce qu'il craint à propos de l'IA et sa réponse était intéressante. Il utilise l'IA pour la préparation aux débats, mais il l'utilise comme tuteur à l'école et j'ai essayé de lui montrer différents modèles. Et il a dit qu'il craignait de se diriger vers un avenir où réapprendre les choses va être incroyablement important. Le monde va changer de façon spectaculaire. Pour prospérer, il devra réapprendre. Et il craint que nous devenions si dépendants que nous n'apprendrons plus comment apprendre. Est-ce que cela vous inquiète ?

Sam Altman

Il y a beaucoup d'autres choses qui m'inquiètent dans un monde qui change très rapidement et où nous devons trouver comment nous adapter à cette nouvelle chose qui évolue si vite. Mais apprendre à apprendre semble être une compétence humaine si profonde. Évidemment, elle me semble plus forte tôt dans la vie que plus tard, mais elle ne disparaît jamais. Et je pense qu'il y aura un avantage à cultiver cette compétence. Je pense que nous serons encore plus incités à l'avenir qu'aujourd'hui à être vraiment excellents dans ce domaine. Mais cela semble profond et inné, et nos cerveaux sont bien configurés pour cela. Je suis donc d'accord avec lui sur le fait que cela va être de plus en plus important, mais je suis optimiste quant au fait que nous serons vraiment bons dans ce domaine.

Conclusion et message final

Nicholas Thompson

D'accord. Je lui dirai qu'il peut faire son prochain devoir avec ChatGPT. Dernière question puisque nous sommes à la fin du temps imparti. Vous avez beaucoup de gens vraiment intelligents dans cette salle, beaucoup de gens qui vont aider à réguler l'IA, aider à façonner son avenir. Quel est votre message de conclusion sur la chose la plus importante à laquelle ils devraient penser ou la chose que vous aimeriez qu'ils retiennent de cette conversation alors qu'ils s'apprêtent à essayer d'utiliser l'IA, de réguler l'IA, pour mettre l'IA au service du bien ?

Sam Altman

Votre défi est qu'il y a simultanément un potentiel incroyable et un devoir moral d'apporter cela au monde, ainsi que de sérieuses préoccupations au niveau de la sécurité et de la société à atténuer. Nous avons lancé cette semaine un nouveau comité de sécurité et de sûreté au sein de notre conseil d'administration et de notre équipe pour nous aider à nous préparer pour ce prochain modèle. Il y a eu un certain nombre de bons forums à travers le monde débattant des questions de sécurité de l'IA et on parle beaucoup maintenant de cadres de préparation. Mais si nous avons raison de dire que la trajectoire d'amélioration va rester raide, alors il faut déterminer quelles structures et politiques les entreprises et les pays devraient mettre en place, ainsi que la communauté internationale dans son ensemble, pour s'assurer que le monde bénéficie des avantages immenses de cela—ce que le monde exigera et qui, je pense, est tout à fait un bien moral—tout en évitant les risques sur différentes échelles de temps. Il ne faut donc pas se laisser trop distraire uniquement par le court terme ou uniquement par le long terme et par ce que tout cela impliquera. C'est très important et je dirais de considérer le problème de manière holistique. C'est extrêmement difficile. Je pense qu'il y a beaucoup à apprendre de ce qui se passe déjà et beaucoup de nouvelles choses à découvrir. Mais je suppose que ce sur quoi je terminerais, c'est de ne pas négliger le long terme et de ne pas supposer que nous allons plafonner ici.

Nicholas Thompson

D'accord. Eh bien, quand j'ai demandé à GPT-4o comment savoir si quelqu't était un humain, il y avait en fait trois choses : le test du bras, le test de l'actualité, et la troisième consistait à poser une question ouverte et à voir s'il peut donner une bonne réponse complexe sans temps de chargement. Alors merci beaucoup. Vous avez prouvé une fois de plus que vous êtes humain. Merci beaucoup, Sam Altman.

Sam Altman

Merci.