Résumé de l'entretien entre Lex Fridman et Demis Hassabis
3 janvier 2026
Intelligence Artificielle
Introduction et contexte
Bienvenue sur la chaîne Podcast Summary English.
Lex Fridman a eu une conversation vraiment fascinante avec Demis Hassabis.
La vidéo originale est longue ; elle dure 2 heures et 28 minutes.
C'est un marathon.
Nous allons résumer toute cette discussion pour vous. Cette tentative vise à vous faire gagner du temps et à vous donner le maximum d'informations de cette vidéo ici même.
Et quelle conversation.
C'était une plongée profonde absolue au cœur de l'IA, de la physique et même de la philosophie.
Nous parlons de Demis Hassabis, le dirigeant de Google DeepMind, un pionnier de l'intelligence artificielle.
Et un récent lauréat du prix Nobel. Ce gars est d'un autre niveau.
Il l'est. Notre mission actuelle est de vous faire gagner ce temps et de vous livrer le maximum d'enseignements de cette discussion incroyable.
C'était bien plus qu'une discussion technologique typique.
C'était un voyage profond dans la structure même de la réalité. Hassabis est l'un des esprits les plus brillants au monde.
Sans aucun doute. Il travaille sur cette tâche monumentale qui consiste à comprendre et à construire l'intelligence générale.
Au cours des 30 à 40 prochaines minutes, nous allons décortiquer ses idées les plus provocatrices.
Nous parlons de tout, d'une conjecture radicale sur l'aptitude inhérente de l'univers à être appris...
...à la façon dont l'IA réalise maintenant l'ingénierie inverse des lois de la physique.
Et la quête ultime de l'origine de la vie elle-même.
Préparez-vous à des concepts vraiment époustouflants.
La conjecture de l'univers apprenable
Décortiquons cela. Nous devons commencer par l'idée la plus grande et la plus ambitieuse qu'il ait présentée.
Celle de sa conférence du prix Nobel.
C'est cette conjecture qui forme le socle philosophique de tout ce que fait DeepMind. Il a dit qu'elle était délibérément provocatrice, ce qui est la tradition lorsqu'on reçoit un tel honneur.
Cela recoupe la physique, les mathématiques et l'informatique.
Quelle est la proposition, exactement ?
Elle est d'une ampleur étonnante, mais aussi très précise. Il affirme que l'univers est fondamentalement apprenable.
Apprenable. La formulation exacte qu'il a utilisée était : Tout motif pouvant être généré ou trouvé dans la nature peut être découvert et modélisé efficacement par un algorithme d'apprentissage classique.
Quand il parle de nature, qu'est-ce qu'il inclut là-dedans ?
La portée est l'ensemble du monde naturel.
Vous voulez dire tout ?
Tout. Physique, biologie, chimie, cosmologie, neurosciences. Des plus petites particules subatomiques à la façon dont les protéines se replient, jusqu'à la formation des galaxies.
L'implication est que l'apprentissage profond, basé sur l'informatique classique, est assez puissant pour découvrir les lois cachées régissant tout ce que nous voyons.
Mais cela semble être une affirmation massive. Pourquoi supposerait-il qu'un algorithme classique standard, un réseau neuronal sophistiqué sur une machine de Turing, pourrait modéliser l'univers entier efficacement ?
Ce qui est si fascinant, c'est le pourquoi. Il soutient que cela doit être vrai parce que les systèmes naturels sont fondamentalement non aléatoires.
Ils ne sont pas arbitraires ou désordonnés ; ils ont une structure. Ils ont cette structure parce qu'ils ont été soumis à d'énormes processus évolutifs inéluctables sur de vastes échelles de temps.
Vous voulez donc dire la sélection naturelle pour tout ?
Ces processus façonnent tout, tous les phénomènes complexes, en formes optimales ou du moins stables.
La stabilité même de l'univers est la clé de son caractère apprenable.
Si un système est assez stable pour survivre pendant des millions ou des milliards d'années, qu'il s'agisse d'une protéine, d'un système stellaire ou d'un organisme vivant, il doit occuper un espace relativement restreint, efficace et structuré au sein de l'espace total des possibilités, qui est astronomiquement vaste.
Et c'est la preuve AlphaX dont il parle.
C'est la preuve en pratique dérivée directement du succès de systèmes comme AlphaGo et AlphaFold.
Complexité, P contre NP et raccourcis algorithmiques
Développons cette idée de l'espace.
Parce que quand on regarde la complexité en biologie, par exemple, le nombre de façons possibles dont une protéine peut se replier est...
D'une dimensionnalité combinatoire élevée.
Des nombres comme 10 à la puissance 300 possibilités.
Ou pour le jeu de Go, c'est environ 10 puissance 170.
Ces chiffres définissent ce problème d'explosion combinatoire.
Si l'on essayait de résoudre ces problèmes par la force brute en vérifiant chaque possibilité, il n'y aurait pas assez de temps dans la vie de l'univers pour le faire.
L'espace de recherche est essentiellement infini pour tout but pratique.
Et c'est ce qui tombe traditionnellement dans cette catégorie NP-difficile en informatique. Ce sont les problèmes que nous pensons être fondamentalement intraitables.
Et pourtant, la nature les résout, instantanément.
Les protéines se replient en quelques millisecondes dans notre corps. Les planètes maintiennent des orbites stables et prévisibles pendant des milliards d'années.
Puisque la nature résout ces problèmes rapidement et de manière fiable, il doit y avoir une sorte de mécanisme qui réduit cet espace de recherche massif.
Il doit y en avoir un. Et Hassabis suggère qu'il existe une variété ou une structure de faible dimension découvrable, cachée dans cet immense espace à haute dimension.
Un raccourci.
Un raccourci. Une fois qu'un système d'apprentissage automatique apprend cette variété, le problème devient traitable. Il devient résoluble dans ce que nous appelons un temps polynomial, ou P.
C'est une distinction fondamentale, n'est-ce pas ? Nous ne parlons pas de calculer plus vite.
Pas du tout.
Nous parlons de trouver une structure géométrique sous-jacente qui simplifie le problème lui-même.
Cela permet à l'IA de naviguer dans cet immense espace de recherche en utilisant une descente de gradient efficace. C'est comme trouver le chemin le plus rapide pour descendre d'une montagne. Vous n'avez pas besoin de vérifier chaque brin d'herbe sur la pente ; vous suivez l'inclinaison.
Et c'est le grand booster de confiance pour l'IA classique. La logique est que si la physique peut le résoudre, nous devrions être capables de mimer ce processus par calcul avec des réseaux neuronaux.
La survie du plus stable
Il a un nom génial pour ce concept : la survie du plus stable.
C'est une idée incroyablement puissante car elle généralise la sélection naturelle bien au-delà de l'ADN et de la biologie.
La pression sélective s'applique à tout. Pensez à la géologie. Pourquoi les rivières creusent-elles certains chemins, ou pourquoi les montagnes s'érodent-elles en formes spécifiques au fil des millénaires ?
Parce que ce sont les formes les plus stables sous une pression constante.
Un motif qui survit sur de vastes échelles de temps doit avoir une structure apprenable sous-jacente. Il en va de même pour les systèmes cosmologiques. Les orbites des planètes, les motifs de lentille gravitationnelle persistent car ce sont les arrangements de matière et d'énergie les plus stables.
Cela déplace donc toute la question de : l'univers est-il complexe ? à : l'univers est-il fondamentalement explorable ?
S'il a survécu, il a une structure. S'il a une structure, un puissant algorithme d'apprentissage classique devrait être capable de la cartographier. Et cela nous mène directement au grand défi non résolu de l'informatique théorique.
P contre NP.
P contre NP. C'est un point critique que la conjecture aborde de front. Si P est égal à NP, cela signifie que tout problème dont on peut vérifier rapidement une solution...
...qui est NP...
...peut aussi être trouvé rapidement, ce qui est P. Mais nous supposons tous que P n'est pas égal à NP.
Cette supposition, P différent de NP, est ce qui sous-tend la conviction qu'il existe des limites fondamentales à ce que l'informatique classique peut accomplir. Mais Hassabis la renverse. En considérant l'univers comme un système d'information...
...où l'information est la chose primaire...
Une fois que vous faites cela, la question P contre NP se transforme. Elle cesse d'être une question d'informatique et devient une question de physique fondamentale sur la structure réelle de la réalité.
Si la nature est bâtie sur des problèmes résolubles efficacement, alors les règles de l'univers sont fondamentalement simples, même si elles nous semblent incroyablement complexes.
C'est la synthèse centrale. La question devient : les lois naturelles elles-mêmes sont-elles contraintes d'être calculables efficacement ? Et sa conjecture suggère que oui.
Alors, où cela s'arrête-t-il ? Où aurions-nous besoin de quelque chose au-delà de l'apprentissage classique ?
Ce serait dans les systèmes abstraits non naturels.
Des problèmes mathématiques abstraits comme la factorisation de nombres extrêmement grands, qui est la base même de notre cryptographie à clé publique, pourraient ne pas adhérer à la conjecture.
Et pourquoi pas ?
Parce que ces systèmes sont mathématiquement uniformes. Ils manquent de gradients évolutifs physiques ou de structures stables dont un réseau neuronal a besoin pour trouver un raccourci. Si l'espace des possibilités est vraiment uniforme et non structuré, la seule façon de le parcourir est la force brute.
Ce qui est NP-difficile.
Et c'est là qu'intervient l'ordinateur quantique.
La factorisation de grands nombres est l'exemple classique où un ordinateur quantique, utilisant l'algorithme de Shor, offre un gain de vitesse exponentiel potentiel. Si l'univers était comme ça, alors l'IA classique se heurterait à un mur.
Mais il semble que ce ne soit pas le cas.
Le succès de l'IAG construite sur des réseaux neuronaux, repoussant les frontières de ce que nous pensions impossible, suggère que le monde naturel est conçu pour l'efficacité classique. Le travail de DeepMind est un test de la limite supérieure de la machine de Turing, et il prouve qu'elle peut aller beaucoup plus loin que nous ne le pensions. C'est un fondement philosophique génial.
Veo 3 et la physique intuitive
Le cadre théorique est époustouflant. Passons de cette grande théorie à une percée pratique spécifique qui montre cette conjecture en action. Nous parlons de Veo 3, le nouveau modèle de génération de vidéo de Google DeepMind. C'est là que ça devient intéressant. Parlons de la dynamique des fluides.
La dynamique des fluides est l'exemple parfait d'un système incroyablement difficile à simuler de manière classique. Ce sont des systèmes dynamiques hautement non linéaires régis par les célèbres équations de Navier-Stokes.
Pour ceux d'entre nous qui ne traitent pas la dynamique des fluides computationnelle tous les jours, pourquoi ces équations sont-elles si notoirement difficiles, même pour un supercalculateur ?
Ce sont des équations aux dérivées partielles non linéaires. Ce que cela signifie, en termes simples, c'est que de minuscules changements dans l'entrée peuvent entraîner des différences imprévisibles massives dans la sortie.
Comme la turbulence et le chaos.
C'est pourquoi les systèmes de prévision météorologique, qui tentent de résoudre ces équations pour l'atmosphère, exigent une puissance de calcul énorme et ne sont fiables que pour quelques jours. Les humains trouvent extrêmement difficile de faire des prédictions propres à long terme sur ces systèmes.
Un défi fondamental dans la modélisation physique.
Absolument. Mais l'IA contourne entièrement ce casse-tête traditionnel de la simulation.
Hassabis a noté que Veo modélise les liquides, la fumée, la turbulence et l'éclairage spéculaire, la façon dont la lumière se reflète sur les surfaces...
Il modélise tout cela.
Étonnamment bien. Il a mentionné des exemples incroyables générés par le modèle, comme des liquides clairs pressés par des presses hydrauliques ou des éclaboussures d'eau incroyablement réalistes.
Wow, quelle surprise.
C'est particulièrement évocateur compte tenu de son parcours. Il a passé le début de sa carrière à écrire des moteurs physiques et graphiques pour des jeux.
C'est vrai. Pour des jeux comme Theme Park et Black & White. Il sait de première main à quel point il est fastidieux de coder manuellement toutes ces règles physiques, la détection de collision et les chemins de rendu.
C'est le contexte clé. Il souligne que la complexité du codage manuel de ces règles est immense. Il faut des simulateurs de haute fidélité très spécialisés.
Veo, leur IA générative, a réalisé l'ingénierie inverse de toute cette complexité en regardant passivement de vastes quantités de données vidéo.
Des vidéos YouTube, des films et des choses de ce genre.
C'est ça. Cela n'a nécessité aucune programmation explicite des équations de Navier-Stokes ; cela a appris.
L'implication scientifique ici est stupéfiante. Le modèle extrait une sorte de structure sous-jacente, une variété de plus faible dimension sur la façon dont les matériaux se comportent.
Il n'a pas appris les équations, mais il a appris la dynamique.
Il a découvert les motifs de stabilité, ce principe de survie du plus stable, qui régit le comportement des fluides.
Il capture quelque chose de fondamental sur la façon dont l'univers est structuré de manière profonde. Cela lui permet de prédire la dynamique avec suffisamment de précision pour être, pendant de courtes périodes, indiscernable de la réalité. Il a appris un modèle physique intuitif.
L'incarnation contre l'observation passive
Et cette physique intuitive, obtenue par observation passive, est vraiment époustouflante car elle remet directement en question une théorie de longue date en IA et en neurosciences.
La nécessité de l'incarnation.
Pendant des années, l'argument était que pour vraiment développer un sens commun du monde physique, comme savoir que si l'on pousse un verre d'une table il va tomber et se briser...
...une IA devait être incarnée et interagir activement avec le monde. L'idée de l'action dans la perception.
Il faut ressentir la gravité, pousser des objets et voir les conséquences de ses actions pour construire un modèle du monde précis.
Et Hassabis lui-même l'a admis. Il a dit que si on lui avait posé la question il y a 5 ou 10 ans, he aurait été d'accord. Il aurait dit que l'incarnation et l'interaction simulée sont nécessaires pour obtenir ce genre de compréhension physique.
Et pourtant, Veo 3 atteint ce réalisme et ce sens commun en regardant.
Son succès suggère que l'on peut modéliser la physique intuitive par une pure observation passive de jeux de données suffisamment vastes.
Ce qui laisse entrevoir la nature inhérente hautement structurée de la réalité elle-même. Cela correspond parfaitement à sa conjecture.
Les motifs sont si robustes et si répandus dans les données que le modèle peut les apprendre sans jamais avoir à toucher ou ressentir quoi que ce soit.
Le rythme des progrès est incroyable. Cela implique que la structure de l'univers est si forte qu'elle se révèle même dans des données vidéo projetées en 2D.
L'application produit immédiate est la capacité de générer les images suivantes de manière cohérente dans une vidéo. C'est un défi technique énorme.
Mais l'implication plus profonde est que le modèle possède une forme de compréhension intuitive du sens commun, un peu comme un jeune enfant qui sait instinctivement qu'une pile de blocs va s'écrouler si l'on frappe celui du bas. L'IA a appris les forces sous-jacentes, pas le formalisme mathématique de ces forces.
Jeux vidéo et mondes ouverts génératifs
Et cette compréhension physique intuitive de Veo pose les jalons de la prochaine étape logique : passer de la vision passive à l'expérience interactive.
Hassabis étant un joueur de longue date, il avait même un Commodore Amiga 500 à l'époque, ce qui est un joli petit morceau d'histoire.
À cent pour cent. Il rêve du saut ultime : des modèles de monde jouables. Il a même cité l'idée d'une vidéo Veo jouable en demandant : ne serait-ce pas quelque chose ?
Les jeux sont définitivement son premier amour. Sa carrière a commencé avec l'IA pour les jeux, construisant des systèmes d'IA complexes dès son adolescence.
Et cette expérience de construction de mondes simulés et d'essai de les rendre intelligents est le fil conducteur qui relie ses premiers travaux à DeepMind aujourd'hui.
Son rêve est de combiner l'incroyable physique simulée de Veo avec une narration générative dynamique pour créer le jeu d'aventure ultime dont vous êtes le héros.
Il a toujours aimé les jeux en monde ouvert. Il a mentionné des classiques comme Theme Park et Black & White.
L'attrait réside dans la profondeur de la simulation. Le monde s'adapte à vos choix uniques, de sorte que l'expérience de chaque joueur est fondamentalement différente.
Traditionnellement, ce genre de complexité en monde ouvert se heurtait à un goulot d'étranglement massif : le dilemme du monde ouvert. Quel était ce problème avant l'IA générative ?
Le dilemme porte sur la mise à l'échelle du contenu et la création d'actifs. Pour faire un monde ouvert vraiment sans contraintes, il faut être capable de créer du contenu convaincant, des missions uniques et des réactions réalistes, quel que soit le chemin obscur que le joueur décide de prendre.
Et si l'on doit coder manuellement chaque actif, chaque ligne de dialogue et chaque événement possible...
Le coût et le travail deviennent exponentiellement massifs. C'est irréalisable. On finit par avoir l'illusion du choix, où tous ces chemins différents mènent finalement à l'une des cinq fins pré-écrites.
Cela force les développeurs à limiter la portée.
Mais l'IA générative résout le problème des actifs infinis.
Comment ?
Les systèmes d'IA peuvent changer dynamiquement l'histoire, peupler les environnements et générer des actifs à la volée, créant cette personnalisation profonde. Cela devient comme le maître de donjon dynamique ultime, improvisant constamment en fonction de ce que vous faites.
On obtient donc un véritable monde ouvert, pas une illusion de choix.
Ce que vous voyez est généré uniquement pour vous, et non conçu pour limiter vos possibilités narratives.
Son travail précurseur sur Black & White en était un signe avant-coureur, n'est-ce pas ?
C'était pionnier pour l'époque. Black & White avait ce premier système d'apprentissage par renforcement où le comportement de la créature, votre animal de compagnie, était un reflet émergent direct de la façon dont vous la traitiez.
Que vous soyez méchant ou protecteur.
C'était une première tentative de création d'une simulation dynamique qui reflétait l'entrée de l'utilisateur, montrant le pouvoir de l'IA adaptative à l'intérieur d'un monde simulé.
Il voit clairement les jeux comme quelque chose de bien plus profond qu'un simple divertissement trivial.
Il les considère comme un média profond. Alors que l'IAG commence à automatiser le travail difficile dans notre économie, les jeux deviendront un lieu clé pour que les humains trouvent du sens, s'améliorent et atteignent la maîtrise.
Des environnements sûrs pour explorer différentes façons de vivre.
Qu'il s'agisse de construire une société dans Civilization ou de gérer un monde physique dans une simulation Veo jouable.
Il est aussi intéressant qu'il ait plaisanté sur ses plans de congé sabbatique post-IAG.
Il a dit qu'il avait deux projets majeurs après avoir guidé en toute sécurité l'IAG dans le monde.
L'un est de créer un jeu simulé en monde ouvert aussi réaliste que possible, ce qui renvoie à la question P et NP.
Et l'autre est de travailler sur sa théorie de la physique. Les deux sont clairement inséparables dans son esprit. Ils représentent cette fusion de l'art et de la science qui a défini le début de sa carrière.
C'est vrai. Les jeux étaient à la pointe dans les années 90. Ils stimulaient les progrès en IA, en graphisme, en moteurs physiques, et poussaient même le matériel comme les GPU.
C'était un domaine intrinsèquement multidisciplinaire. Il a toujours aimé cette convergence. Son jeu préféré de tous les temps, celui qui capturait cette complexité pour lui...
Civilization II.
Ce jeu où vous gérez les ressources, la technologie et la gouvernance sur ces vastes échelles de temps reflète parfaitement la complexité des problèmes scientifiques auxquels il s'attaque aujourd'hui.
Le projet de cellule virtuelle
En passant de ces mondes virtuels du jeu vidéo aux enjeux les plus élevés de la réalité scientifique, parlons de l'ambition scientifique ultime de Hassabis.
Le projet de cellule virtuelle.
C'est la pièce maîtresse de la mission de DeepMind. C'est une ambition qu'il porte depuis des décennies, n'est-ce pas ?
Depuis des décennies. Cela vient de conversations qu'il a eues avec le lauréat du prix Nobel Paul Nurse il y a environ 25 ans. L'ambition est monumentale : modéliser l'intégralité du fonctionnement interne d'une cellule vivante fonctionnelle.
Cela ressemble à une tâche informatique astronomique. Par quoi commence-t-on pour quelque chose comme ça ?
On commence petit avec un organisme unicellulaire bien compris et relativement simple comme la levure de boulanger, Saccharomyces cerevisiae.
L'objectif n'est pas une carte statique ; c'est une simulation de travail entièrement dynamique.
Un jumeau numérique. Pour pouvoir réaliser des expériences in silico.
Quel est l'avantage pratique d'avoir une cellule virtuelle ? Pourquoi faire cela ?
L'objectif est une efficacité radicale. Une accélération de 100 fois dans la recherche et la prédiction biologiques. Actuellement, la biologie est dominée par le laboratoire humide.
Ce qui signifie une expérimentation coûteuse, lente et itérative avec du matériel physique.
Si l'on peut déplacer 99 % de cette expérimentation et de ces tests d'hypothèses dans la cellule virtuelle, on gagne énormément de temps et d'argent. On n'utilise le laboratoire humide que pour la validation cruciale finale.
Cela débloquerait la découverte de médicaments et la biologie fondamentale à un rythme sans précédent.
Et les briques de ce projet sont déjà en cours de mise en place, à commencer par AlphaFold.
AlphaFold nous a donné l'image 3D statique des protéines.
C'est exact. Mais la biologie est dynamique. L'action réelle et le véritable défi résident dans les interactions, et c'est là qu'intervient AlphaFold 3. C'est le premier grand pas vers la modélisation de cette dynamique critique.
Comme les interactions protéine-protéine, protéine-ARN...
Les interactions protéine-ADN. Ces dynamiques sont ce qui dicte la fonction cellulaire, la signalisation et les voies de maladies.
AlphaFold 3 est donc le pont entre la structure statique et la fonction dynamique.
Les étapes suivantes consistent à modéliser des voies biologiques entières. Il a mentionné la voie mTOR, qui est très complexe et impliquée dans le cancer et le vieillissement. Il faut modéliser tout le réseau de protéines en interaction et lier ces voies entre elles jusqu'à obtenir toute la complexité de la cellule.
Mais modéliser une cellule doit présenter ces énormes défis avec des dynamiques temporelles différentes. Le repliement des protéines est super rapide, de l'ordre de la milliseconde.
Mais la division cellulaire ou l'expression génétique peuvent prendre des minutes ou des heures. Comment concilier ces énormes différences d'échelle ?
C'est ce qu'on appelle le problème multi-échelle. C'est probablement le plus grand défi de la biologie computationnelle.
On ne peut pas tout simuler au niveau quantique sur toute la durée.
Non, les pas de temps seraient trop petits, le coût de calcul trop élevé, c'est impossible.
Ils ont donc besoin d'une approche hiérarchique.
Cela nécessite soit plusieurs systèmes simulés en interaction, chacun optimisé pour une échelle de temps spécifique, soit un modèle hiérarchique capable de passer d'un stade temporel à l'autre.
Et ils doivent choisir le bon niveau de granularité.
En effet. Hassabis espère modéliser au niveau des protéines, évitant ainsi de simuler les aspects de mécanique quantique extrêmement coûteux et s'appuyant sur des modèles de haute fidélité comme AlphaFold comme socle pour les structures de protéines elles-mêmes.
L'origine de la vie et AlphaVolve
Prenons un peu de recul et réfléchissons à la question philosophique la plus profonde que ce projet pourrait potentiellement résoudre.
L'origine de la vie.
L'IA pourrait-elle réellement modéliser l'origine de la vie ?
C'est la question ultime, et Hassabis pense que l'IA pourrait la résoudre. S'ils peuvent simuler la physique et la chimie d'une cellule, ils pourraient alors tenter la plus grande expérience de l'histoire.
Qui serait ?
Mener un processus de recherche massif en partant des conditions de la soupe primordiale et des composants chimiques de base présents sur la Terre primitive.
Quel serait l'objectif de cette recherche simulée ? Voir si la vie émerge ?
Voir si des phénomènes cellulaires auto-entretenus et auto-réplicateurs émergent spontanément. Ce serait la démonstration ultime de sa conjecture en biologie.
Cela briserait efficacement ce mur artificiel que nous avons érigé entre la matière inanimée et la matière vivante.
Cela démontrerait un continuum reliant la physique, la chimie et la biologie en un seul processus apprenable unifié. Trouver ce point de transition serait le coup 37 pour le mystère de la vie elle-même, un moment de pure émergence imprévisible.
En parlant de trouver une émergence inattendue, le système AlphaVolve de DeepMind est un exemple incroyable d'IA effectuant cette recherche en ce moment.
C'est une approche hybride fascinante.
Dites-nous comment fonctionne ce système.
AlphaVolve s'appuie sur des grands modèles de langage (LLM) pour proposer des solutions ou des séquences scientifiques possibles, plutôt que de simplement écrire du code ou de la prose.
Il utilise ensuite l'informatique évolutive, qui est une forme de recherche par essais et erreurs, pour explorer de nouvelles régions de l'espace de recherche basées sur ces propositions.
Le LLM est le cerveau créatif, et la recherche évolutive est l'expérimentateur infatigable.
C'est une excellente analogie. La combinaison est efficace car elle intègre les connaissances et le pouvoir de correspondance de motifs d'un modèle de base avec des algorithmes de recherche établis comme la recherche arborescente Monte Carlo.
C'est ce qui a rendu célèbre le coup 37 au jeu de Go.
Ce mouvement contre-intuitif, risqué et très gratifiant que les grands maîtres humains avaient rejeté au début. Cette approche combinée permet au système d'aller au-delà de ce qui est actuellement connu et de s'aventurer dans une véritable découverte créative.
Et cela répond à une limite connue des anciennes méthodes de recherche, n'est-ce pas ?
Tout à fait. Le défi de la percée. L'informatique évolutive traditionnelle avait du mal à faire évoluer des propriétés entièrement nouvelles. Elle avait tendance à trouver des maxima locaux et ne pouvait optimiser qu'un sous-ensemble des propriétés initialement fournies.
L'espoir ici est qu'en combinant la capacité du LLM à synthétiser et à proposer des structures inédites avec la capacité de la recherche à les tester rigoureusement, le système puisse surmonter cette limite.
Et atteindre de véritables capacités émergentes.
En espérant reproduire en accéléré l'histoire de la vie, en passant de composants simples à des entités utiles complexes. Nous voyons déjà des premiers succès, comme l'IA trouvant des algorithmes nettement plus rapides pour la multiplication de matrices grâce à ce genre d'approche.
Le goût de la recherche et le chemin vers l'IAG
Tout cela nous amène à ce que Hassabis appelle le défi le plus difficile, même pour les scientifiques humains les plus brillants : le goût de la recherche.
C'est un concept tellement génial.
Tous les scientifiques professionnels qui arrivent au sommet sont techniquement doués. Ils sont excellents pour exécuter des expériences et des calculs. Mais les grands scientifiques ont le goût de flairer la bonne question ou hypothèse.
La différence n'est donc pas la technique ; c'est l'intuition sur le chemin à suivre.
Le point idéal est de formuler une bonne conjecture qui soit intrinsèquement intéressante, révolutionnaire et, surtout, susceptible d'être prouvée.
Qu'est-ce que cela signifie, susceptible d'être prouvée ?
Elle doit être conçue pour diviser efficacement l'espace des hypothèses en deux. Une approche de recherche binaire. Si votre expérience échoue, vous apprenez quelque chose d'aussi précieux sur l'endroit où ne pas aller ensuite.
Ainsi, une mauvaise expérience fait perdre du temps quoi qu'il arrive, mais une bonne conjecture fait progresser le domaine même si elle est fausse.
Quel est donc le test ultime de l'IAG lié à cette idée de goût ?
Hassabis suggère qu'une véritable IAG devrait réussir ce test du goût. Pourrait-elle formuler une conjecture si digne d'étude qu'un esprit de classe mondiale comme le légendaire mathématicien Terence Tao la regarderait et dirait : wow, c'est profond, c'est intéressant et c'est structurellement prometteur ?
Cela demande un véritable saut d'imagination.
Un moment de véritable invention comme le saut d'Einstein vers la relativité. Une découverte qui va au-delà de la reconnaissance de formes ou d'améliorations incrémentales. Cette capacité d'invention fondamentale inspirée est ce que nous recherchons ultimement.
Déplaçons maintenant notre attention sur l'aboutissement de tout cela : l'intelligence générale artificielle. Quel est le chemin et comment saurons-nous quand nous serons arrivés ?
Hassabis estime à 50 % les chances d'atteindre l'IAG d'ici 2030.
C'est un calendrier assez progressiste étant donné l'ampleur du défi.
En effet. Et sa définition de l'IAG place la barre très haut. Il est très méticuleux pour éviter ce qu'il appelle l'intelligence en dents de scie.
Qu'entend-il par là ?
Sa définition exige d'égaler toutes les fonctions cognitives du cerveau humain de manière cohérente et robuste. Les modèles actuels ont une intelligence en dents de scie. Ils sont surhumains dans certains domaines, comme l'écriture de code, mais défaillants et peu fiables dans d'autres, comme le raisonnement ou le sens commun.
L'IAG doit donc être uniformément excellente partout.
Il propose deux tests spécifiques pour cela, n'est-ce pas ?
Le premier est la réplication historique. L'IAG pourrait-elle inventer une nouvelle hypothèse de physique ? Plus précisément, pourrait-elle reproduire la découverte de la relativité restreinte ou générale en utilisant uniquement les connaissances scientifiques disponibles avant 1900 ?
Cela démontre la capacité à généraliser à partir d'anciennes données et à faire un énorme saut conceptuel.
C'est cela. Et le second test est esthétique et abstrait. Pourrait-elle inventer un jeu aussi profond, élégant et esthétiquement beau que le Go ? Un jeu qui perdure depuis des millénaires.
Ce sont des barres hautes pour une véritable invention libre. On va bien au-delà de l'imitation pour arriver à une création authentique.
Énergie, abondance et impact sociétal
Le voyage vers l'IAG est alimenté par cette mise à l'échelle massive du calcul, qui crée actuellement d'énormes défis géopolitiques et énergétiques.
C'est le goulot d'étranglement, n'est-ce pas ?
Oui. Hassabis souligne qu'il existe trois fronts de mise à l'échelle concurrents exigeant une puissance de calcul exponentiellement plus élevée. D'abord, l'entraînement des modèles de fondation. C'est extrêmement coûteux au départ.
Deuxièmement, l'inférence.
L'exécution de l'IA dans des produits utilisés par des milliards de personnes, comme la recherche ou la génération de vidéos. Et troisièmement, ce qu'il appelle les systèmes de pensée, des IA qui deviennent plus intelligentes plus on leur laisse de temps pour réfléchir, ce qui nécessite des ressources dédiées pour une amélioration continue.
Cette demande intense signifie que résoudre la pénurie d'énergie n'est plus seulement un problème climatique ; c'est désormais une contrainte pour l'IAG.
Absolument. Et Hassabis pense que l'IA peut et doit aider matériellement à résoudre ces problèmes d'énergie.
Comment ?
Cela implique d'optimiser les infrastructures existantes comme le refroidissement des centres de données ou le réseau électrique. Mais l'impact le plus important viendra de deux domaines de recherche majeurs : la fusion et la science des matériaux.
Et je sais que DeepMind est déjà impliqué dans la fusion.
Ils le sont. Ils travaillent sur le confinement du plasma dans les réacteurs à fusion avec Commonwealth Fusion. Mais pour que la fusion soit réalisable, il faut de meilleurs modèles de réacteurs et de meilleurs matériaux.
Et c'est l'autre grande opportunité.
Les percées dans la conception de matériaux. Inventer de nouveaux panneaux solaires hautement efficaces, des batteries optimales pour le stockage, et sa percée de rêve : un supraconducteur à température ambiante.
Une solution à n'importe lequel de ces problèmes serait absolument révolutionnaire pour le climat et l'énergie.
Cela changerait fondamentalement le paysage énergétique mondial. La supraconductivité à température ambiante seule éliminerait la perte de puissance pendant le transport. C'est un changement de paradigme. Et c'est là que la capacité de l'IA à rechercher et à modéliser des structures est directement appliquée à nos problèmes d'ingénierie les plus pressants.
Le bénéfice ultime de la résolution de la pénurie d'énergie est ce qu'il appelle un état d'abondance radicale.
C'est la vision. Si l'énergie est propre, illimitée et bon marché, tout change. Les problèmes d'accès à l'eau disparaissent car le dessalement, qui est actuellement prohibitif, devient bon marché. On obtient aussi du carburant de fusée bon marché et illimité en utilisant cette énergie pour séparer l'eau de mer en hydrogène et en oxygène.
Et en combinant cela avec des fusées réutilisables, l'utilisation des ressources spatiales, comme l'exploitation minière des astéroïdes, commence soudainement à paraître réalisable.
Cette combinaison d'énergie bon marché, de fabrication bon marché et d'accès aux ressources extra-planétaires mène à une civilisation de type I sur l'échelle de Kardashev, capable d'exploiter toute l'énergie de sa planète d'origine, potentiellement d'ici cent ans.
C'est un rêve merveilleux pour l'avenir de l'humanité.
Ça l'est.
Mais cette abondance soulève des questions sociétales massives, particulièrement sur le travail, le sens et les conflits. Regardons la programmation, son propre domaine.
La programmation est sensible à l'assistance par l'IA car le code de données synthétiques est facile à vérifier. On peut tester s'il compile et s'exécute.
L'avenir des programmeurs est donc d'adopter les outils d'IA pour devenir surhumainement productifs.
En décuplant leur valeur. Mais le rôle humain passe radicalement de l'écriture de code à la spécification de l'architecture de haut niveau, à la définition des exigences et au guidage des assistants de codage IA.
Mais cela ressemble à une accélération massive des suppressions d'emplois.
C'est la plus grande crainte de Hassabis : la rapidité de la perturbation. Il pense que le changement aura 10 fois l'impact de la révolution industrielle, mais surtout, qu'il sera 10 fois plus rapide.
10 ans au lieu de 100.
Cette accélération rapide exige des améliorations rapides de nos systèmes politiques et de gouvernance. Nous avons besoin que les meilleurs économistes et philosophes planifient dès maintenant une fourniture de base universelle pour partager les gains ; sinon, les ondes de choc pourraient déstabiliser la société.
Et qu'en est-il de la réponse humaine innée à la compétition et au conflit dans un monde d'abondance ?
Il suggère que les jeux vidéo et le sport organisé comme le football ont un but essentiel. Ils canalisent notre besoin humain inhérent de conflit tribal et de compétition vers des activités constructives et sûres.
Ils sont un exutoire psychologique vital.
Un environnement sûr et reproductible pour s'exercer à la prise de décision à enjeux élevés et faire face à la perte, nous détournant potentiellement des guerres réelles aggravées par les armes de l'IAG.
Risques, optimisme et conclusion
Sur la question critique du risque, quelle est sa position globale ? Est-il optimiste ou pessimiste ?
Il prône un optimisme prudent. Il évite de donner un chiffre précis de P-doom, la probabilité de risque catastrophique.
Il ne veut pas mettre de chiffre dessus.
Il la qualifie de hautement incertaine, mais il affirme qu'elle est certainement non nulle et non négligeable. L'incertitude est énorme, mais les enjeux le sont aussi : le plein épanouissement humain d'un côté, un risque catastrophique de l'autre.
Et il identifie deux risques duaux que nous devons gérer avec soin.
D'abord, le risque à court terme d'une mauvaise utilisation par des acteurs malveillants ou des États voyous. C'est un problème complexe de gouvernance internationale. Deuxièmement, le risque d'alignement de l'IAG à long terme, pour garantir que le système reste contrôlable à mesure qu'il devient véritablement agentique et autonome.
Et l'espoir ultime pour bien faire les choses ?
Il considère la technologie comme un catalyseur de l'épanouissement humain. L'espoir ultime réside dans le souvenir de notre dimension humaniste et spirituelle commune, comme les polymathes de la Renaissance qui maîtrisaient à la fois l'art et la science.
La quête de l'IAG, paradoxalement, va nous forcer à découvrir ce qui rend les humains spéciaux : notre ingéniosité sans limites, notre adaptabilité, notre curiosité et notre compassion. Cette étincelle humaine doit être le guide pour la superintelligence que nous construisons.
Quel voyage incroyable à travers l'esprit de l'un des penseurs les plus brillants au monde.
Nous avons commencé par sa conjecture révolutionnaire sur la structure fondamentale de la nature, exploré comment l'IA réalise l'ingénierie inverse de la physique par l'observation passive, et terminé par cette vision d'un avenir alimenté par l'abondance radicale et la découverte scientifique pilotée par l'IAG.
Le point essentiel qui relie toutes ces idées disparates, d'AlphaFold aux jeux vidéo jouables en passant par l'origine de la vie, est que les plus grandes questions de l'informatique, comme P et NP, et les plus grandes questions de la physique et de la biologie sont fondamentalement liées par la théorie de l'information.
L'univers en tant que système informatique.
Où l'information est primordiale. Et l'IAG, si nous la gérons correctement, est l'outil ultime pour répondre à ces questions et potentiellement résoudre les problèmes les plus anciens, les plus profonds et les plus complexes de l'humanité. C'est une époque formidable pour être en vie.
Qu'est-ce que tout cela signifie pour vous ? Si les plus grands scientifiques pensent que l'IA nous aidera à modéliser l'origine de la vie et à atteindre l'abondance radicale, quelle est la question la plus profonde et la plus complexe de votre vie, professionnelle ou personnelle, que l'IA pourrait vous aider à résoudre ensuite ? Pensez-y.
Quelle analyse phénoménale. Nous espérons vous avoir fait gagner beaucoup de temps et vous avoir apporté un maximum d'enseignements de cette conversation incroyable.
Veuillez vous abonner à notre chaîne pour obtenir un maximum d'informations sur des podcasts célèbres en moins de temps.
Le lien de la vidéo complète est dans la description. N'hésitez pas à aimer cette vidéo et à écrire vos commentaires. Merci.