La course à l'IA entre les États-Unis et la Chine et l'avenir de l'AGI
23 janvier 2025
Intelligence Artificielle
Introduction et parcours d'Alexandr Wang
Première fois dans l'émission, le fondateur et PDG de Scale AI, Alexandr Wang. Son entreprise fournit des données étiquetées avec précision pour aider les entreprises à entraîner leurs outils d'IA, et en 2022, il est devenu le plus jeune milliardaire autodidacte au monde. C'est assez incroyable.
Merci de m'avoir invité.
La rivalité IA entre les États-Unis et la Chine
Je veux en venir directement à ce dont nous parlions juste avant, hors caméra, à savoir où en sont les États-Unis en matière d'IA par rapport à la Chine, car vous avez des statistiques très surprenantes qui, je pense, vont probablement, franchement, effrayer certains téléspectateurs.
Tout d'abord, la course à l'IA et la guerre de l'IA entre les États-Unis et la Chine est, selon moi, l'un des enjeux les plus importants d'aujourd'hui. Nous avons publié une annonce d'une page entière dans le Washington Post mardi, affirmant que l'Amérique doit gagner la guerre de l'IA. Cette course relative à l'IA entre les États-Unis et la Chine est donc cruciale. Aujourd'hui, nous avons publié 'Humanity's Last Exam', qui est une nouvelle évaluation ou référence (benchmark) des modèles d'IA que nous avons produite en demandant à des professeurs de mathématiques, de physique, de biologie et de chimie de fournir les questions les plus difficiles qu'ils pouvaient imaginer, en lien avec leurs recherches récentes, pour vraiment mettre les modèles à l'épreuve. Pour vous donner une idée, aucun modèle ne dépasse les 10 % à ce test. Cela dit, ce que nous avons constaté, c'est que DeepSeek, qui est le principal laboratoire d'IA chinois, a un modèle qui est en fait le plus performant ou à peu près au même niveau que les meilleurs modèles américains, qui sont O1 de...
L'accès aux puces NVIDIA et les contrôles à l'exportation
D'accord, donc je pense que nous avions tous l'impression que les États-Unis étaient loin devant la Chine en ce qui concerne l'IA, en grande partie parce que nous avons accès aux GPU et aux puces NVIDIA et à d'autres choses que les Chinois ne sont pas censés avoir. J'entends toute la semaine des dirigeants chinois de l'IA dire : « Nous sommes si proches, et d'ailleurs, nous le faisons avec une main attachée dans le dos. Nos algorithmes sont meilleurs. Nous allons en fait trouver comment faire, faire mieux que les États-Unis et de manière encore plus efficace sur le plan énergétique parce que nous n'avons pas besoin de ces puces super puissantes. » Ont-ils raison ?
Il se passe deux choses. Premièrement, il est vrai, et c'est vrai depuis longtemps, que les États-Unis ont eu de l'avance. Et c'est vrai depuis peut-être une décennie. Cela dit, l'événement très récent du jour de Noël, il y a environ un mois : DeepSeek a sorti un modèle, ce qui, soit dit en passant, est symbolique selon moi qu'un laboratoire chinois sorte un modèle bouleversant le jour de Noël alors que nous célébrons les fêtes. Ils l'ont lancé en grande pompe, puis ils ont enchaîné avec leur modèle de raisonnement, DeepSeek-R1, qui est celui que nous avons classé en tête du classement. La réalité est oui et non. Les laboratoires chinois ont plus de H100 que les gens ne le pensent, les...
Et ce sont les puces NVIDIA les plus puissantes qu'ils ne sont pas censés avoir.
Oui. D'après ce que je comprends, DeepSeek possède environ 50 000 H100, ce dont ils ne peuvent évidemment pas parler car cela va à l'encontre des contrôles à l'exportation que les États-Unis ont mis en place. Et je pense qu'il est vrai qu'ils ont plus de puces que ce à quoi les gens s'attendent, mais à l'avenir, ils seront limités par les contrôles sur les puces et les contrôles à l'exportation que nous avons instaurés.
Évaluation et classement des modèles de langage
Comment faites-vous, vous travaillez avec tout le monde. Je ne sais pas si c'est juste ou injuste, mais comment classeriez-vous ces grands modèles de langage et qui finira par gagner ? Ou sont-ils tous si proches que cela devient une commodité ?
Ce que nous voyons d'intéressant en ce moment, c'est que nous sommes spécialisés dans ce domaine. Nous avons produit nos évaluations SEAL, nos évaluations de sécurité et nos évaluations de laboratoires d'alignement, qui mesurent de nombreuses dimensions différentes. Nous mesurons les capacités en mathématiques, en codage, en multilingue et en raisonnement, ainsi que de nombreuses autres dimensions, notamment l'utilisation d'outils et les capacités d'agent. Et ce que nous voyons, c'est que différents modèles sont meilleurs dans différents domaines. Il est donc difficile d'établir un classement clair entre tous les modèles. Par exemple, les modèles d'OpenAI sont extrêmement bons en raisonnement, mais les modèles d'Anthropic pourraient être très bons en code. Il y a donc une diversité de capacités. Cela dit, je pense que ce que nous voyons en général, c'est que le secteur devient de plus en plus compétitif, et non l'inverse.
Open Source vs Modèles Propriétaires
J'entends sans cesse des chefs d'entreprise ici dire qu'ils essaient tous OpenAI, ou Claude (le modèle d'Anthropic), ou Gemini, etc. Puis ils finissent par utiliser Llama. Ils vont chercher une version open-source pour essayer de se rapprocher de ce que font les autres, simplement à cause des différents niveaux de prix. Pensez-vous que c'est l'avenir ? Comme dans le monde de Linux ?
C'est certainement une dimension, cela revient en fin de compte au niveau de capacités et d'intelligence requis pour votre cas d'utilisation. Je pense qu'au final, ce que nous allons voir, c'est ce que nous faisons avec tous les principaux laboratoires, y compris OpenAI, Google DeepMind, Meta et bien d'autres : continuer à repousser les frontières et les limites. Comment exploiter les données alors qu'en tant qu'industrie, nous n'avons plus de données publiques disponibles ? Comment générer de nouvelles données pour continuer à repousser les frontières ? Notre conviction est que les capacités avancées permettront des cas d'utilisation incroyables pour lesquels on sera prêt à payer. Mais pour les cas plus simples, on s'orientera probablement vers l'open source ou des modèles plus basiques.
Infrastructure, Énergie et Projet Stargate
Nous avons parlé toute la matinée de Stargate et du débat sur Twitter entre Sam Altman et Elon Musk pour savoir s'ils ont vraiment 100 ou 500 milliards de dollars. Satya Nadella était assis à votre place hier encore, disant qu'il a 80 milliards et que son argent est réel. Il s'est exprimé sur Twitter. Que pensez-vous de tout cela ? Vous connaissez tous ces acteurs.
Tant de choses se passent sur Twitter de toute façon, alors je ne suis pas sûr que je...
Ou X, devrions-nous dire.
Ou oui, X. Mais je pense qu'une chose est très réelle, indépendamment de Stargate spécifiquement en tant que programme, c'est que les États-Unis vont avoir besoin d'une quantité énorme de capacité de calcul, d'une infrastructure gigantesque. C'était d'ailleurs dans une lettre que nous avons écrite à l'administration Trump contenant des recommandations sur la manière de garantir que les États-Unis gardent leur avance. L'une d'elles portait sur l'infrastructure. Nous devons libérer l'énergie américaine pour permettre ce boom de l'IA. C'est clairement ce que nous voyons en ce moment : en plus du projet Stargate, la plupart des grandes entreprises d'IA et des grands fournisseurs de cloud vont chercher à construire des centres de données géants.
Concurrence et Marché de l'IA
La raison pour laquelle j'ai posé la question sur les différentes entreprises qui font cela, c'est de savoir si vous pensez qu'au final, nous avons besoin de cinq, six, sept entreprises essayant toutes de construire des modèles de pointe ? On dit depuis toujours que si Lina Khan ne dirigeait pas la FTC, Amazon aurait peut-être déjà voulu racheter Anthropic, par exemple ? Ou Microsoft aurait racheté OpenAI ? Il n'y aurait peut-être pas autant de concurrence frontale. Je ne sais pas, peut-être trouvez-vous que la concurrence est une excellente chose. Je me demande simplement combien de modèles de ce type il restera à long terme.
Notre avis est qu'il s'agira potentiellement de l'un des plus grands marchés ou de l'une des plus grandes industries de l'histoire. Actuellement, les revenus basés sur les LLM se situent entre 10 et 20 milliards de dollars. Et si vous croyez que nous sommes sur la voie de la superintelligence ou de l'IA forte (AGI), il va de soi que cela passera à un billion de dollars ou plus de revenus. Donc, si vous regardez un marché qui va passer de 10 milliards à 1 billion en je ne sais combien d'années... j'ai tendance à croire que ce sera en peu d'années. Je pense qu'on est dans une fourchette de deux à quatre ans.
Définition et Horizon de l'AGI
Deux à quatre. Pour arriver à l'AGI. Et quelle est votre définition de l'AGI ?
Il y a évidemment beaucoup de définitions. Celle en laquelle je crois, ce sont des systèmes d'IA puissants capables d'utiliser un ordinateur tout comme vous ou moi le ferions, d'utiliser tous les outils d'un ordinateur et d'être essentiellement un travailleur à distance de la manière la plus compétente possible.