Sommet Axios AI+ SF : Grand Final avec Demis Hassabis
5 décembre 2025
Intelligence Artificielle
Introduction et impact du Prix Nobel
Merci beaucoup. Grand final. Je suis Mike Allen, cofondateur d'Axios. Au nom de mes cofondateurs, Roy Schwartz, Jim VandeHei, merci à vous tous qui, depuis maintenant neuf ans, êtes fans d'Axios. Et merci d'être venus ici à San Francisco dans cette banque historique, ce cadre très cool pour ce sommet Axios AI plus SF. Bienvenue à vous tous à travers le monde pour notre grand final, Demis Hassabis, PhD, cofondateur et PDG de Google DeepMind. C'est un neuroscientifique, un entrepreneur et un pionnier de l'IA. Demis était un prodige des échecs à cinq ans, un prix Nobel à 48 ans. C'est un génie d'origine britannique. Il a été anobli. Demis Hassabis, bienvenue chez Axios.
Merci beaucoup.
Merci de m'avoir invité.
Nous attendions cela avec impatience. Nous apprécions.
Ravi d'être ici.
Il y a un peu plus de 400 jours, vous avez appris que vous étiez lauréat du prix Nobel. Et vous avez dit à ce moment-là que c'était surréaliste, que c'était le grand moment. Qu'est-ce qui a changé depuis dans votre vie et votre travail ? Qu'est-ce que cela a rendu possible ?
Eh bien, écoutez, c'est encore assez surréaliste, en fait. Cela n'a pas encore totalement pénétré les esprits. Mais cela a fait une assez grande différence. Ce qui fait la différence, c'est quand vous parlez à des gens qui ne sont pas de votre domaine, y compris des hauts responsables gouvernementaux, des choses comme ça, qui ne connaissent peut-être pas grand-chose à l'IA. Si vous avez le prix Nobel, c'est un raccourci pour que presque tout le monde sache que vous êtes expert dans votre domaine. Donc ce sera utile, je pense, à l'avenir.
Et vous aviez des ressources infinies à votre disposition. Y a-t-il de nouvelles ressources dont vous disposez ou que vous pensez pouvoir exploiter maintenant ?
Pas vraiment. Vous avez raison. Nous avons de la chance chez Google et chez DeepMind. Nous avons beaucoup de ressources. Elles ne sont pas infinies. Nous avons toujours besoin de plus de calcul, peu importe la quantité de calcul dont vous disposez. Mais nous avons beaucoup de choses formidables, c'est pourquoi nous sommes capables de réaliser un portefeuille d'activités aussi large. Mais c'est surtout, encore une fois, cette plateforme que cela vous donne pour vous exprimer sur des choses qui vous tiennent à cœur. Et je n'ai pas encore fait beaucoup de cela, mais je pense que ce sera important. Peut-être que nous allons parler de la sécurité de l'IA et d'autres choses. Je pense que le Nobel et la plateforme qu'il vous donne pourraient être utiles pour cela.
Responsabilité et préparation de la société
Et qu'y a-t-il sur la courte liste, en plus de la sécurité de l'IA, dont vous pensez parler davantage en utilisant votre plateforme ?
Oui, eh bien, il ne s'agit pas seulement de sécurité à long terme, la sécurité de l'AGI. Évidemment, je pense que nous y réfléchissons beaucoup. Mais il s'agit aussi de l'utilisation responsable de l'IA aujourd'hui. Quels sont les types de choses pour lesquelles nous devrions utiliser l'IA pour améliorer, renforcer et accélérer ? Et peut-être sur quels types de choses nous devrions être prudents, même à court terme. Je pense donc que c'est une chose. Je pense aussi qu'il s'agit simplement de préparer la société à ce qui est à venir. L'AGI, probablement le moment le plus transformateur de l'histoire de l'humanité, est à l'horizon. Et nous devons nous préparer en tant que société et en tant qu'espèce. Et je pense, bien sûr, que les gouvernements et d'autres dirigeants importants vont être essentiels à cet égard. Et je pense qu'avoir quelque chose comme la plateforme du Nobel ouvre pratiquement toutes les portes.
La science au cœur de l'innovation
L'une des choses qui vous distingue, c'est que vous êtes plongé dans la science, et pourtant vous êtes aussi sur la ligne de front de cette lutte et de cette course entre entreprises, hyperscalers, superpuissances. Et vous, dans le moule de Steve Jobs, avez aussi un esprit de produit. Vous voulez créer des choses ravissantes pour les gens. Mais vous dites toujours que vous êtes d'abord un scientifique.
Oui, la science, je suis d'abord un scientifique. La raison pour laquelle je dis cela est que c'est l'approche par défaut que j'adopte pour tout. Et ce que je veux dire par là, c'est la méthode scientifique, vraiment. Cette façon de penser. J'adore ça. Je pense que la méthode scientifique est l'idée la plus importante que l'humanité ait jamais eue ; elle a créé les Lumières, puis la science moderne. Donc, fondamentalement, la civilisation moderne dépend de cette idée de méthode scientifique, d'expérimentation, puis de mise à jour de vos hypothèses, etc. Et je pense que c'est une méthode incroyablement puissante, mais je pense qu'elle peut être appliquée à plus que la simple science. Je pense qu'elle peut être appliquée à la vie quotidienne et même aux affaires. Et c'est ce que j'ai essayé de faire, c'est de pousser cela à sa limite. Et je pense que c'est ce qui nous donne un avantage à certains égards en tant qu'organisation de recherche, en tant qu'organisation d'ingénierie. Oui, nous sommes au milieu de cette bataille compétitive féroce, probablement la plus féroce que la technologie ait jamais connue. Et l'une des choses qui, je pense, nous donne un avantage est la rigueur et la précision que nous apportons à notre travail parce que nous avons une sorte de méthode scientifique en son cœur. Et nous mélangeons une recherche de classe mondiale avec une ingénierie de classe mondiale et une infrastructure de classe mondiale. Et je pense que vous avez besoin de ces trois choses pour être à la frontière de quelque chose comme l'IA. Et je pense que nous sommes assez uniques pour avoir des capacités de classe mondiale dans tous ces domaines.
Perspectives pour les 12 prochains mois
Donc, à la manière d'Axios, nous allons diviser notre conversation entre le zoom arrière et le zoom avant. Zoom arrière : obtenir votre avis précieux sur l'état de l'IA. Nous allons donc parler de l'état brut de l'IA. Et ce que je vais vous demander, c'est compte tenu des faits connus aujourd'hui, d'être direct, clinique, sans battage médiatique, sans vente en douceur. Pouvons-nous faire cela ?
Je ferai de mon mieux.
D'accord. À quoi ressemblent les 12 prochains mois de progrès ? Que croyez-vous que si nous sommes assis ici dans un un an, et j'adorerais ça, qu'est-ce qui aura changé dans le monde ?
Je pense que les choses sur lesquelles nous insistons fortement sont la convergence des modalités. Gemini, qui est notre principal modèle de base, a toujours été multimodal dès le début. Il prend des images, de la vidéo, du texte, de l'audio, et peut maintenant de plus en plus produire ces types de résultats également. Et je pense que nous obtenons des pollinisations croisées vraiment intéressantes en étant multimodaux. Le meilleur exemple en est notre dernier modèle d'image, Imagen 3, qui, je pense, montre une compréhension étonnante du visuel et peut en quelque sorte créer des infographies vraiment précises, etc. Donc, je pense qu'au cours de l'année prochaine, vous allez voir cela progresser beaucoup. Et je pense, par exemple, dans la vidéo, quand cela convergera avec les modèles de langage, vous allez voir des combinaisons de capacités très intéressantes là-bas. Je pense que les autres choses que nous allons voir au cours de l'année prochaine et sur lesquelles je travaille personnellement sont les modèles mondiaux. Nous avons donc ce système appelé Genie, Genie 3, qui est comme un modèle vidéo interactif, si l'on peut dire. Vous pouvez donc générer une vidéo, mais vous pouvez ensuite commencer à vous y promener comme si vous étiez dans un jeu ou une simulation et cela reste cohérent pendant une minute. Je pense que c'est très excitant. Et puis l'autre chose, ce sont les systèmes basés sur des agents. Le domaine a beaucoup parlé des agents, mais ils ne sont pas encore assez fiables pour effectuer des tâches complètes. Mais je pense qu'au cours de la prochaine-
On en a beaucoup entendu parler aujourd'hui ici sur la scène d'Axios. Que diriez-vous dans un an, comment les agents auront-ils progressé ? Quel est un exemple de la façon dont cela fonctionnera dans la vie quotidienne dans un an ?
Eh bien, écoutez, je pense que nous avons ce concept d'assistant universel que nous voulons que Gemini devienne un jour. Je pense que c'est aussi ce que vous allez voir de notre part au cours de l'année prochaine, ce sera aussi sur plus d'appareils. Par universel, nous voulons dire que ce n'est pas seulement sur votre ordinateur, votre portable ou votre téléphone, mais qu'il vous accompagne peut-être sur des lunettes ou d'autres appareils. Et je pense qu'il a besoin — nous voulons créer quelque chose qui vous soit utile dans votre vie quotidienne et que vous consultiez plusieurs fois par jour. Cela devient une partie du tissu de votre vie et cela améliore simplement votre productivité, mais aussi votre vie personnelle, des recommandations de livres, de films et d'autres activités que vous aimeriez. Mais les agents pour le moment, vous ne pouvez pas leur déléguer une tâche entière et être sûr qu'ils vont l'accomplir de manière totalement fiable. C'est donc la partie-
Mais dans un an, vous pensez qu'ils le pourront ?
Je pense que dans un un an, nous commencerons à avoir des agents qui seront proches de le faire.
Visions d'avenir : Abondance vs Risques
Et scénario optimiste, scénario pessimiste. Quel est le meilleur cas de ce que l'IA peut faire pour le monde et qu'est-ce que vous craignez le plus ?
Eh bien, écoutez, le meilleur scénario dont j'ai toujours rêvé et pourquoi j'ai travaillé toute ma vie sur l'IA et que je me rapproche de ce moment vers lequel nous travaillons depuis des décennies maintenant, pour beaucoup d'entre nous, est une sorte de ce que j'ai parfois appelé l'abondance radicale. Donc cette idée que nous avons résolu beaucoup des plus grands problèmes auxquels la société et l'humanité sont confrontées aujourd'hui. Qu'il s'agisse d'énergie libre, renouvelable et propre, peut-être que nous résolvons la fusion ou de meilleures batteries, des batteries et des matériaux solaires optimaux, des semi-conducteurs, la science des matériaux. Nous avons guéri beaucoup de maladies. Nous sommes alors dans une situation où nous sommes dans cette nouvelle ère, l'ère de l'après-pénurie, et nous sommes potentiellement dans une humanité florissante qui voyage vers les étoiles et propage la conscience dans la galaxie.
Et qu'est-ce que vous craignez le plus ?
Eh bien, même cette vision utopique soulève des questions sur ce que sera notre but en tant qu'humains s'il y a ces technologies qui sont là pour résoudre tous ces problèmes. Que restera-t-il à résoudre ? Je m'inquiète de cela en tant que scientifique et même vis-à-vis de la méthode scientifique. Il y a donc cela. Mais il y a aussi évidemment les défis et les risques bien connus de l'IA, qui sont doubles. L'un est celui d'acteurs malveillants utilisant l'IA à des fins nuisibles, ou l'IA elle-même, à mesure qu'elle se rapproche de l'AGI et devient plus agentique, déraille d'une manière ou d'une autre qui nuit à l'humanité.
Sécurité et risques catastrophiques
Alors vous avez mentionné le fait de dérailler. Oui. À quel point êtes-vous inquiet de ces issues catastrophiques ? Votre niveau d'inquiétude. Et je vais juste les énumérer. Premièrement, des agents pathogènes créés par un acteur malveillant utilisant l'IA.
Je pense que c'est certainement l'un des mauvais scénarios d'utilisation contre lesquels nous devons nous prémunir, c'est certain.
Cyberterrorisme énergétique ou hydrique utilisant l'IA par un acteur étranger.
Oui, c'est probablement déjà le cas actuellement, je dirais. Peut-être pas encore avec une IA très sophistiquée, mais je pense que c'est le vecteur de vulnérabilité le plus évident, et c'est pourquoi nous nous concentrons beaucoup et nous nous concentrons beaucoup, en tant que Google et DeepMind, sur l'IA pour la cybersécurité afin de renforcer le côté défensif de cette équation.
Une IA fonctionnant en dehors du contrôle humain par elle-même.
Eh bien, cela renvoie aux trucs agentiques où je pense que, à mesure que cela devient plus sophistiqué — et on comprend pourquoi l'industrie construira ces choses parce qu'elles seront plus utiles en tant qu'assistants — elles vont donc certainement arriver. Mais plus elles sont agentiques et autonomes, plus il y a de place pour que ces choses s'écartent de ce que vous aviez peut-être prévu lorsque vous avez donné l'instruction initiale ou l'objectif initial. Il s'agit donc d'un domaine de recherche très actif, qui consiste à s'assurer que les systèmes capables d'apprentissage continu ou d'apprentissage en ligne restent dans les garde-fous que vous avez fixés. Je pense que la bonne nouvelle est que, parce que l'IA est devenue si importante commercialement et pour les entreprises, si vous envisagez de louer ou de vendre l'un de vos agents en tant que fournisseur de modèles à une autre grande entreprise, ces entreprises voudront des garanties sur le comportement de l'agent, ce qu'il fait avec leurs données, ce qu'il fait avec leurs clients. Et si ces choses tournent mal, elles ne seront pas existentielles de quelque manière que ce soit, mais vous perdrez le contrat, c'est certain. Pourquoi cette entreprise choisirait-elle ce fournisseur ? Elle choisirait un autre fournisseur plus responsable et offrant de meilleures garanties. Je pense donc que ce qui est formidable, c'est que le capitalisme récompensera naturellement, idéalement, les acteurs les plus responsables.
Mais il est possible que l'IA franchisse le fossé, saute par-dessus le garde-fou.
Potentiellement, si c'est mal fait. Je veux dire, cela a toujours été une possibilité. Personne ne sait vraiment quelles sont les... c'est l'une des grandes inconnues. Je pense que c'est non nul, ce potentiel. Il vaut donc la peine de l'envisager très sérieusement et de s'en prémunir. Mais j'entends des gens donner des pourcentages très précis sur les chances que ces choses arrivent.
Oui, le P doom.
Un P doom, ce que je trouve un peu absurde parce que personne ne sait ce que c'est. Ce que je sais, c'est que ce n'est pas zéro.
Donc vous ne le quantifiez pas, mais vous dites que c'est-
C'est non nul. Donc clairement, si votre P doom est non nul, alors vous devez consacrer des ressources et une attention significatives à cela.
Géopolitique de l'IA : USA vs Chine
Où les États-Unis gagnent-ils la course à l'IA contre la Chine et où perdons-nous ?
Je pense que nous sommes toujours en tête aux États-Unis et en Occident, si l'on regarde les derniers benchmarks et les derniers systèmes. Mais ils ne sont pas loin ; la Chine n'est pas loin derrière. Si vous regardez le dernier DeepSeek ou les derniers modèles, ils sont très bons. Et il y a des équipes très compétentes là-bas. Donc, peut-être que l'avance n'est qu'une question de mois plutôt que d'années à ce stade.
Parce que quand on met les puces de côté, l'IA chinoise gagne probablement.
Non. Je pense que les puces sont une chose, mais je pense qu'en termes d'innovation algorithmique, l'Occident a toujours l'avantage. Je ne pense donc pas qu'aucune des entreprises ou aucun des modèles chinois n'ait montré qu'ils pouvaient innover algorithmiquement sur quelque chose de nouveau au-delà de l'état de l'art. Ils ont été très doués pour copier rapidement, en suivant l'état de l'art actuel.
La puissance de la multimodalité
Notre dernière question de zoom arrière et celle-ci va vous plaire. Quelle est la chose la plus étonnante à propos de l'IA qui, selon vous, reçoit étonnamment peu d'attention ? La chose la plus étonnante à propos de l'IA qui reçoit étonnamment peu d'attention.
Oui, je pense que si je pense aux choses sur lesquelles nous travaillons et qui fonctionnent déjà, c'est la compréhension multimodale qu'ont ces modèles. Comme si vous-
Multimodal, c'est la vidéo-
Oui, vidéo, image et audio. Mais je pense spécifiquement à la vidéo, en fait. Donc si vous donnez à Gemini une vidéo YouTube à traiter, vous pouvez lui demander toutes sortes de choses incroyables sur la vidéo qu'il est tout simplement époustouflant pour moi qu'il puisse comprendre conceptuellement dans beaucoup de cas — pas toujours, mais dans de nombreux cas vraiment impressionnants — ce qui se passe. Il peut comprendre la nuance-
Quel est un exemple de question ?
Eh bien, j'ai posé des questions sur quelque chose que j'ai testé avec Gemini l'autre jour — j'adore le film Fight Club et il y a une scène où Brad Pitt ou Ed Norton retire sa bague avant de se battre. J'ai demandé à Gemini quelle était la signification de cette action. Il a proposé un point de vue philosophique très intéressant sur le fait de laisser derrière soi la vie quotidienne et de montrer cela symboliquement, ce qui était une sorte d'aperçu méta très intéressant que ces systèmes ont maintenant. Et je pense que si vous l'utilisez — l'autre chose qui n'est pas appréciée, c'est que nous avons cette chose appelée Gemini Live où vous pouvez pointer votre téléphone vers quelque chose et dire que vous êtes un mécanicien, il peut en fait simplement vous aider avec n'importe quelle tâche que vous avez devant vous. Idéalement, cela devrait être des lunettes parce que vous voulez avoir les mains libres pour cela. Mais je pense que les gens ne réalisent pas encore à quel point cette capacité de multimodalité est puissante.
Gemini 3 : Nuance, personnalité et création de jeux
D'accord. Vous nous avez donné le pont et la transition parfaits vers le zoom avant. Félicitations pour Gemini 3 le mois dernier, votre modèle qui change la donne. Vous dites qu'il raisonne avec une profondeur et une nuance sans précédent. Dites-nous ce qu'il y a d'unique dans la partie nuance de Gemini 3.
Oui, je pense que nous sommes vraiment satisfaits de sa personnalité, de son style, ainsi que de ses capacités. J'aime la façon dont il répond de manière succincte. Il s'oppose un peu ; il ne se contente pas d'être d'accord avec tout ce que vous dites. Il rejette doucement certaines idées si elles n'ont pas de sens. Et je pense que les gens apprécient — il me semble que c'est un peu un changement d'étape dans son intelligence et donc son utilité.
Et qu'est-ce que Gemini a répondu ou produit où vous vous êtes dit, je ne savais pas qu'il pouvait faire ça ou je ne savais pas qu'il ferait ça ?
Eh bien, en fait, c'est la chose incroyable de pourquoi nous aimons tant ce que nous faisons : cette ère dans laquelle nous sommes maintenant avec la recherche connectée au produit. Ce qui est formidable, c'est que vous avez des millions et potentiellement chez Google des milliards d'utilisateurs qui profitent immédiatement de la nouvelle technologie que vous mettez à disposition. Et nous sommes continuellement surpris par les choses cool que les gens trouvent très rapidement à faire avec ces modèles. Beaucoup de ces choses ont tendance à devenir virales. Mais ce que j'ai le plus apprécié avec Gemini 3, c'est la création de jeux en un clin d'œil. Pour en revenir à ma toute première carrière de création d'IA pour les jeux, je pense que nous sommes très proches maintenant avec ces modèles — peut-être la prochaine version de modèles — où l'on pourrait commencer à vraiment créer des jeux peut-être de qualité commerciale en les codant par l'intention en quelques heures, ce qui prenait auparavant des années.
Et cela montre de la nuance. Qu'est-ce que cela montre à propos du modèle ?
Eh bien, je pense que c'est tout simplement une profondeur et une capacité incroyables de ces modèles à comprendre des instructions de très haut niveau et à produire des résultats très détaillés. Et les autres choses pour lesquelles Gemini 3 est spécifiquement bon, c'est le travail sur le front-end et le développement de sites Web. Il est assez bon esthétiquement et créativement ainsi que techniquement.
Quelque chose sur lequel nous avons pas mal écrit chez Axios, c'est que même les auteurs, les créateurs de ces modèles ne les comprennent pas totalement. Quelle est la chose à propos de Gemini 3 que vous avez l'impression de ne pas tout à fait saisir ?
En fait, j'ai l'impression qu'avec tous ces modèles — et peut-être que tout le public ressent cela aussi — il y a un tel rythme d'innovation et d'amélioration. Nous passons presque tout notre temps à construire ces choses. J'ai ce sentiment à chaque fois que nous publions une nouvelle version : je n'ai même pas eu le temps d'explorer un dixième de ce que les systèmes existants peuvent probablement faire parce que, bien sûr, nous nous concentrons immédiatement sur la prochaine innovation et nous nous assurons qu'elle est sûre et fiable. Donc, encore une fois, nos utilisateurs finissent par les emmener beaucoup plus loin que ce que nous avons essayé en interne.
Le virage vers les grands modèles de langage (LLM)
Et une question de plus sur Gemini 3. Un peu d'histoire. Et vous aviez un certain nombre de fers au feu. Mais les LLM, les grands modèles de langage basés sur le texte, vous n'y étiez pas nécessairement allé à fond comme étant le Saint Graal. Quelque chose que Walter Isaacson, le grand auteur et penseur et votre ami, m'a dit, c'est que lorsque vous avez vu la puissance du LLM, vous avez fait un pivot, une pirouette, comme Walter l'a dit, et avez pu bondir vers un grand succès. Et le point de vue de Walter était que la plupart des gens d'affaires auraient été têtus, auraient pu doubler ou tripler la mise sur leurs autres paris. Comment avez-vous pris cette décision d'aller à fond sur votre LLM ?
Eh bien, je pense que c'est à nouveau la beauté d'une adhésion à la méthode scientifique. Si vous êtes un vrai scientifique, vous ne pouvez pas être trop dogmatique à propos d'une idée que vous avez. Vous devez suivre là où les preuves empiriques vous mènent. Walter fait probablement référence à l'ère 2017-2018. Nous avions beaucoup de fers au feu, comme nous l'avons dit. Nous avions nos propres modèles de langage très performants. Ils s'appelaient Chinchilla puis Sparrow. Ils n'ont pas été rendus publics, mais ils étaient internes. En fait, certaines des lois d'échelle ont été initialement découvertes par notre équipe ; on les appelle les lois d'échelle de Chinchilla. Mais nous avions aussi d'autres types de programmes : AlphaZero, des choses s'appuyant sur AlphaGo, des systèmes de RL pur. Et nous avions aussi des architectures de sciences cognitives, plus inspirées des neurosciences. À l'époque, nous n'étions pas sûrs. Mon travail est de m'assurer que nous construisons l'AGI en premier, rapidement et en toute sécurité — cela a toujours été notre mission chez DeepMind. Et donc je suis en quelque sorte agnostique en fait quant à l'approche qui est adoptée. Je suis assez pragmatique là-dessus. C'est peut-être mon côté ingénieur — j'ai quelques théories comme le ferait un bon scientifique — mais au bout du compte, il faut que cela fonctionne de manière pragmatique. Et donc quand nous avons commencé à voir les débuts du fonctionnement de la mise à l'échelle, alors nous avons de plus en plus mis de ressources sur cette branche de l'arbre de recherche.
La quête de l'AGI (Intelligence Artificielle Générale)
Quelque chose qui est rafraîchissant dans votre approche, c'est qu'avec l'intelligence artificielle générale, l'IA capable de capacités humaines, vous ne l'éludez pas. D'autres disent, eh bien, nous ne saurons pas ou nous y sommes déjà ou ça n'a pas d'importance. Vous dites que cela compte et que nous le saurons et vous dites que ce n'est pas loin.
Oui, nous n'y sommes certainement pas maintenant.
En fait, assez proche est la façon dont vous-
Oui, assez proche. Je pense que nous sommes à cinq ou dix ans, si vous me demandez.
Je suis désolé, redites-le.
Cinq à dix ans.
D'accord. Oui.
Je pense que ma barre est assez haute cependant. Nous définissons l'AGI comme un système qui présente toutes les capacités cognitives que nous avons. Et cela inclut les capacités inventives et créatives. Il manque des pièces ; comme vous avez tous utilisé les LLM actuels, ils sont incroyables à certains égards, mais dans d'autres domaines, ils sont très imparfaits. Ce sont ces sortes d'intelligences inégales. On s'attendrait à une cohérence générale de la part d'une véritable AGI. Et il leur manque d'autres capacités comme l'apprentissage continu, l'apprentissage en ligne, la planification à long terme et le raisonnement. Ils ne peuvent faire aucune de ces choses actuellement. Je pense qu'ils le pourront, mais peut-être qu'une ou deux percées supplémentaires seront nécessaires.
Et une question de la grande Ina Fried, que nous avons vue aujourd'hui et dont la couverture dès le premier jour d'Axios a aidé à faire d'Axios ce qu'elle est. Elle dit que vous êtes manifestement, vous avez dit que l'IA pourrait être à une avancée, deux avancées de l'AGI. Y arriverons-nous simplement en améliorant les LLM et l'IA générative ? Ou pensez-vous qu'une approche différente pourrait être nécessaire pour atteindre l'AGI dans vos cinq à dix ans ?
Je pense qu'encore une fois, c'est une question empirique, mais ce que je sais — ce serait ma meilleure supposition — c'est que la mise à l'échelle des systèmes actuels doit être poussée au maximum parce qu'au minimum, ce sera un composant clé du système AGI final. Cela pourrait être l'intégralité du système AGI. Il y a une chance que la simple mise à l'échelle vous y mène. Mais ma supposition, de mon point de vue actuel, est qu'une ou deux autres grandes percées — ce que j'entends par innovation constante, y compris dans la mise à l'échelle des techniques existantes — mais je parle d'une percée de type transformeur ou de type AlphaGo. Je soupçonne que lorsque nous regarderons en arrière une fois que l'AGI sera faite, une ou deux de ces choses étaient encore nécessaires en plus de la mise à l'échelle.
Économie de l'IA et guerre des talents
Nous sommes sur le point de terminer, donc un round super rapide. Une autre question d'Ina. Vous croyez évidemment beaucoup en l'IA. Mais si vous regardez ce qui est dépensé, cela ne signifie pas qu'il n'y ait pas une bulle assez grosse pour secouer l'économie. À quel point êtes-vous inquiet de cela ?
Je pense que ce n'est pas binaire. Je pense que certaines parties de l'industrie de l'IA sont probablement dans une bulle — comme des levées de fonds d'amorçage de 50 milliards de dollars — ce qui semble un peu insoutenable. Mais d'un autre côté, bien sûr, je crois plus que quiconque que l'IA est la technologie la plus transformatrice de tous les temps. Donc je pense qu'avec le temps, tout cela sera plus que justifié. Et mon travail en tant que responsable de Google DeepMind et moteur de Google est de m'assurer que nous gagnons dans tous les cas. Si la soi-disant bulle éclate ou si les choses continuent d'être bonnes comme elles le sont maintenant, nous sommes dans une position forte.
Les guerres de recrutement dans l'IA. Quel est l'état final de cette compétition pour le talent ?
Eh bien, écoutez, c'est devenu assez fou récemment, des choses comme ce que Meta a fait, et chacun doit faire ce qui a du sens pour lui. Ce que nous avons constaté, c'est que nous voulons des gens qui sont mus par une mission. Nous avons, je pense, la meilleure mission. Nous avons la pile complète. Je pense donc que si vous voulez faire le travail le plus percutant et avoir l'impact le plus positif sur le monde, alors il n'y a pas de meilleur endroit que Google DeepMind. En fin de compte, je pense que les meilleurs scientifiques, chercheurs et ingénieurs veulent travailler sur les choses les plus pointues. Donc si vous êtes au sommet des classements avec les meilleurs systèmes, cela s'auto-alimente.
Autonomie, jeux et adaptabilité humaine
C'est une question de James VandeHei, un entrepreneur, esprit jeune à l'Université High Point en Caroline du Nord. Il dit qu'il y a beaucoup de conversations sur l'IA acquérant un esprit qui lui est propre. Existe-t-il un scénario où l'IA pourrait agir dans son propre intérêt ?
Eh bien, c'est une excellente question et elle est liée à certains des résultats les plus catastrophiques : si cela tournait mal, l'un des problèmes avec les systèmes basés sur des agents ou très autonomes est si, d'une manière ou d'une autre, ils développaient un intérêt personnel qui était en quelque sorte en conflit avec ce que les concepteurs ou même peut-être l'humanité voulaient qu'ils fassent.
Et pour finir sur une note ludique. Vous êtes toujours un joueur. Qu'est-ce que le jeu nous apprend sur le monde et qu'est-ce que le jeu nous apprend sur la direction que prennent ces machines ?
Eh bien, écoutez, je pense que mon passé de joueur d'échecs et ma formation dans ce domaine et d'autres jeux par la suite ont été essentiels à la façon dont je fais mon travail tant dans les affaires que dans la science. J'aime la créativité de la création de jeux, mais le simple fait d'y jouer est aussi le meilleur moyen d'entraîner votre esprit parce que les meilleurs jeux — qu'il s'agisse des échecs, du Go ou du poker — sont des microcosmes de quelque chose dans le monde réel. En général, dans le monde réel, vous n'avez pas l'occasion de vous exercer plusieurs fois à prendre la décision correctement à ce moment-là. Peut-être que dans le monde réel, vous n'avez qu'une douzaine de ces moments critiques. Mais vous pouvez exercer vos capacités de prise de décision autant que vous le souhaitez au sein de la simulation du monde avec les jeux. Tant que vous prenez les jeux très au sérieux et que vous réfléchissez beaucoup à votre prise de décision, cela entraîne vraiment vos capacités de prise de décision et de planification à mon avis.
Maintenant, vous avez souligné que nos cerveaux biologiques ont évolué pour être des chasseurs-cueilleurs. Et pourtant nous sommes confrontés à une perturbation qui, comme vous l'avez dit au Guardian, sera 10 fois plus grande que la révolution industrielle et peut-être 10 fois plus rapide. Sommes-nous face à une situation où la plupart des humains ne peuvent pas suivre et peut-être qu'aucun humain, vous y compris, ne peut suivre ?
Eh bien, la bonne news est — et je pense que mon point sur le chasseur-cueilleur était — regardez à quel point nos cerveaux ont été adaptables. Nous avons évolué pour être des chasseurs-cueilleurs, et pourtant nous voici assis dans nos villes modernes et notre civilisation avec toute la technologie qui nous entoure. Le même cerveau humain a été capable de s'adapter à cela. Je crois beaucoup en l'ingéniosité humaine et je pense que nous sommes infiniment adaptables. Nos cerveaux sont la seule preuve d'existence de l'intelligence générale dans l'univers connu jusqu'à présent. Nous sommes donc nous-mêmes des intelligences générales et nous devrions être capables de nous adapter à l'infini. Il y a une question sur l'après-AGI — quels types de technologies pourrions-nous créer, des interfaces cerveau-machine ou d'autres choses que certains d'entre nous pourraient choisir d'utiliser en plus de nos technologies existantes, ce qui pourrait être un moyen pour nous de suivre.
L'IA dans le sport et conclusion
Et alors que nous nous disons au revoir, vous êtes un fan inconditionnel de Liverpool. Vous les avez aidés avec leurs analyses. Comment l'IA va-t-elle affecter et éclairer la Coupe du Monde ici en Amérique du Nord ?
Eh bien, nous avons eu beaucoup d'équipes qui nous ont approchés pour de l'aide aussi et je dois essayer d'être équitable avec cela, mais c'est dur d'être un supporter de Liverpool depuis toujours. Mais j'ai hâte d'essayer de venir ici, peut-être pour la finale de la Coupe du Monde.
Mais mais soyons sérieux. Qu'est-ce que qu'est-ce que cela changera d'ici là ? C'est une c'est une vie entière dans l'IA d'ici là, n'est-ce pas ?
Eh bien, dans l'IA ou l'IA pour le sport ou simplement-
Oui. Le sport possède une immense quantité de données et tout tourne autour de la performance extrême. C'est donc en fait un allié naturel pour que l'IA intervienne et aide à optimiser ce processus encore plus.
Et sans trahir de secret de fabrication, qu'est-ce qu'elle pourra faire pour une équipe de Coupe du Monde ?
Peut-être marquer plus de têtes sur corners. Si vous placez le — c'est l'une des choses que notre système a découvert, comme le positionnement précis des joueurs.
Demis Hassabis, merci d'avoir fait Axios et le monde-