Accélérer la découverte scientifique grâce à l'IA
24 mars 2025
Intelligence Artificielle / Science
Introduction par Alistair Beresford
Bienvenue à tous. Je suis Alistair Beresford, l'actuel directeur du département d'informatique et de technologie, également connu sous le nom de Laboratoire d'Informatique. C'est un immense plaisir pour moi, cet après-midi, d'accueillir à nouveau Demis à Cambridge. Demis a étudié l'informatique ici à Cambridge dans les années 1990, à une époque où le laboratoire était situé juste à côté de cet amphithéâtre, et où Robin Walker, qui, j'ai le plaisir de le dire, est présent aujourd'hui, était le directeur d'études de Demis au Queens' College. Je discutais plus tôt avec Demis et nous pensons que c'est ici qu'il a suivi son premier cours à Cambridge, des mathématiques à 9h00 le premier jeudi du trimestre de Michaelmas. Cela semble être un endroit approprié pour son retour. Demis avait déjà réalisé plusieurs prouesses incroyables au moment de son arrivée à Cambridge. Il était maître d'échecs et le deuxième joueur de moins de 14 ans le mieux classé au monde. Après avoir terminé sa scolarité avec un an d'avance, au lieu de parcourir l'Europe avec son sac à dos, il a pris un emploi dans l'industrie des jeux vidéo, où il a co-conçu et a été le programmeur principal du jeu vidéo Theme Park. Après avoir obtenu son diplôme de Cambridge avec les honneurs, Demis est retourné dans l'industrie du jeu, travaillant d'abord aux Lionhead Studios, puis fondant sa propre entreprise. Cependant, il y avait manifestement en lui une passion pour la recherche scientifique fondamentale. Demis est retourné dans le milieu universitaire, cette fois à l'UCL, où il a fait un doctorat en neurosciences cognitives, obtenant son diplôme en 2009. Il est resté à l'UCL jusqu'en 2011, date à laquelle il est parti pour co-fonder DeepMind, un laboratoire de recherche en IA racheté par Google en 2014. Demis et ses collègues de Google DeepMind ont ensuite apporté plusieurs contributions majeures à la science. Parmi les points forts, citons AlphaGo, qui a été le premier programme informatique à battre des joueurs humains professionnels au jeu de société Go, et AlphaFold, un programme informatique capable de prédire la structure des protéines. C'est pour ses contributions à AlphaFold que Demis a reçu une part du prix Nobel de chimie 2024. Parallèlement à ses incroyables contributions intellectuelles au cours de cette période, il a également été un soutien fantastique pour l'université, notamment par le financement de postes académiques et un soutien important aux étudiants issus de groupes sous-représentés, tant au laboratoire d'informatique qu'au Queens' College. La passion et le soutien de Demis pour la prochaine génération d'informaticiens sont la motivation de notre conférence d'aujourd'hui. Je suis sûr qu'il nous aidera non seulement à comprendre comment accélérer la découverte scientifique grâce à l'IA, mais qu'il inspirera également la prochaine génération d'étudiants présents dans la salle à changer le monde eux aussi. Sur ce, j'aimerais accueillir Demis sur scène.
Retour à Cambridge et inspirations précoces
Merci Alistair pour cette charmante présentation. C'est formidable d'être de retour à Cambridge. J'ai toujours un sentiment de chaleur, mon retour à Cambridge. Plus précisément dans cet amphithéâtre comme Alistair me l'a rappelé, c'est le premier amphithéâtre où je me suis trouvé. Cela a toujours été mon amphithéâtre préféré. Je me souviens avoir dit à Aaron, et je vois beaucoup de mes vieux amis d'époque ici à Cambridge, qu'un jour je reviendrais peut-être pour donner une conférence ici et parler de l'annonce de l'AGI, et peut-être qu'un robot ferait son entrée et épaterait tout le monde. Je ne vais pas faire ça aujourd'hui pour ne pas vous décevoir, mais peut-être que dans quelques années je reviendrai et je donnerai cette conférence. C'est un endroit incroyable, c'est un endroit tellement inspirant et je vais parler un peu de la façon dont Cambridge a inspiré toute ma carrière et, espérons-le, fera de même pour beaucoup d'entre vous, les étudiants dans la salle.
Pour moi, mon voyage dans l'IA a commencé avec les jeux, et spécifiquement les échecs comme Alistair l'a mentionné. Je jouais aux échecs dès l'âge de quatre ans et très sérieusement pour les équipes juniors d'Angleterre et ce genre de choses. Cela m'a fait réfléchir à la pensée elle-même. Comment notre esprit conçoit-il ces plans, ces idées, comment résolvons-nous les problèmes et comment pouvons-nous nous améliorer ? Quand on joue aux échecs à un jeune âge et qu'on essaie de jouer en compétition, on essaie d'améliorer ce processus. C'était fascinant pour moi, peut-être plus fascinant encore que les jeux auxquels je jouais, c'étaient les processus mentaux réels derrière eux.
J'ai découvert les ordinateurs et l'IA pour la première fois dans le contexte des échecs, en essayant d'utiliser de très anciens ordinateurs d'échecs comme celui de droite ici. Je pense que c'était mon tout premier ordinateur d'échecs. C'étaient des plateaux physiques où il fallait appuyer sur les cases pour déplacer les pièces. Nous étions censés utiliser ces ordinateurs d'échecs pour entraîner la théorie des ouvertures et en apprendre davantage sur les échecs. Je me souviens avoir été fasciné par le fait que quelqu'un ait programmé ce morceau de plastique inanimé pour qu'il joue vraiment bien aux échecs contre vous. J'étais fasciné par la façon dont cela était fait et comment quelqu'un pouvait programmer quelque chose comme ça. J'ai fini par expérimenter moi-même au début de mon adolescence avec un ordinateur Amiga 500, un ordinateur domestique incroyable de la fin des années 80 et du début des années 90, et par construire moi-même ce genre de programmes d'IA pour jouer à des jeux comme Othello. C'était mon premier goût de l'IA et j'ai été accroché dès lors. J'ai décidé très tôt que je passerais toute ma carrière à essayer de repousser les frontières de cette technologie.
Cela m'a conduit à Cambridge, et mes trois années ici ont été incroyablement formatrices pour moi. Je suis allé dans une école polyvalente du nord de Londres. Personne n'était jamais allé à Oxbridge de mémoire d'homme. La raison pour laquelle je voulais venir à Cambridge était toutes ces histoires inspirantes que j'avais entendues sur ce qui s'était passé à Cambridge, tous ces gens incroyables dont je lisais les biographies et le travail qu'ils avaient accompli, en particulier des gens comme Crick et Watson. Je me souviens particulièrement d'un film, "The Race for the Double Helix", qui était un film incroyable des années 80 avec Jeff Goldblum, un de ses premiers rôles où il jouait Watson. Ils passaient des moments incroyables à découvrir, à se promener dans Cambridge, à travailler sur des choses comme l'ADN et je me suis dit : je veux en faire partie. Je veux ressentir ce que c'est que d'être à la frontière de la découverte et qu'est-ce qui pourrait être plus exaltant. Ce film a vraiment donné vie à ce que cela pourrait être. Tous mes héros, mes héros scientifiques, beaucoup d'entre eux étaient passés par Cambridge, des gens comme Alan Turing et Charles Babbage dans l'amphithéâtre dans lequel nous sommes assis actuellement. Même des endroits comme l'Eagle Pub où, si vous commencez au Queens' College, l'une des visites qu'ils vous font faire le premier jour est de vous montrer la table en étain où ils discutaient et la structure de l'ADN autour. On ne peut s'empêcher d'être inspiré par cela et, en descendant King's Parade, j'avais presque l'impression que les géants intellectuels du passé vous parlaient depuis les pierres. C'est ce que je ressentais en allant chercher un burger tard dans la nuit chez Gardinias, c'est ce qui m'inspirait, tous ces gens incroyables qui avaient parcouru ces mêmes pas pendant des centaines d'années. C'est cette histoire qui est sans égale ici à Cambridge et dont on peut encore s'inspirer aujourd'hui. Il y a une photo de moi et d'Aaron là-bas, l'un de mes meilleurs amis du Queens sur le pont mathématique.
Le Prix Nobel et la fondation de DeepMind
Enfin, Alistair a mentionné le prix Nobel et ce fut l'honneur d'une vie d'aller le chercher à Stockholm en décembre, une semaine d'activités incroyable, mais mon activité préférée a été le moment où vous signez le livre Nobel à la Fondation Nobel. C'est le livre que vous voyez là et l'une de mes photos, j'ai commencé à feuilleter le livre, vous signez votre nom puis vous revenez en arrière et vous vous demandez si Crick est là-dedans, et il y est, puis vous remontez plus loin et la signature d'Einstein est là et c'est époustouflant. J'ai passé une heure à photographier chaque page du livre. C'est une boucle bouclée pour moi par rapport à cette photo et au fait d'avoir vu ce film à la fin des années quatre-vingt.
En 2010, nous avons lancé DeepMind à Londres comme un effort de type programme Apollo pour essayer de construire une intelligence artificielle générale. Une IA qui soit véritablement générale et puisse accomplir toutes les capacités cognitives dont les humains sont capables, de sorte qu'il s'agirait d'un système d'IA véritablement général. L'idea de cela vient vraiment de Turing et des machines de Turing. Quelque chose capable de calculer tout ce qui est calculable, comme Turing l'a montré avec ses machines de Turing. Cela a été le fondement pour moi, et l'une des principales choses que j'ai emportées avec moi des cours ici à Cambridge a été tous ces fondements théoriques de l'informatique et de la théorie du calcul que des gens comme Turing et Shannon ont si célèbrent réalisés dans les années quarante et cinquante.
Nous avons commencé en 2010 et c'était il y a 15 ans, ce qui, d'une certaine manière, n'est pas si lointain, mais quand nous avons commencé DeepMind, presque personne ne travaillait sur l'IA, ce qui est difficile à croire aujourd'hui étant donné que presque tout le monde semble travailler sur l'IA aujourd'hui. En un peu plus d'une décennie, les choses se sont accélérées de manière incroyable et nous avons fait partie de ce voyage passionnant.
La mission de DeepMind et les systèmes d'apprentissage
Notre mission chez DeepMind, dès le début, était de construire l'IA de manière responsable au profit de l'humanité, mais la façon dont nous l'articulions à nos débuts était un processus en deux étapes. Étape 1 : résoudre l'intelligence. Étape 2 : l'utiliser pour résoudre tout le reste. Cela semblait très excentrique à l'époque en 2010 et vous pouvez imaginer essayer de convaincre un investisseur en capital-risque sur cette base. Cela semblait assez fou. Je le crois encore fondamentalement aujourd'hui et de plus en plus de gens réalisent que l'IA, construite de cette manière générale, pourrait avoir ce genre d'impact profond et transformateur sur presque tous les domaines. Pour moi, cela implique d'accélérer la découverte scientifique elle-même, la médecine et de faire progresser notre compréhension de l'univers qui nous entoure.
À l'époque où nous avons commencé, il y avait fondamentalement deux façons de construire l'IA, de manière générale. Il y a la méthode des systèmes experts qui consiste à pré-programmer un système expert directement avec la solution, comme Deep Blue qui a battu Garry Kasparov aux échecs très célèbrent dans les années 90 pendant que j'étudiais ici. Ce serait probablement l'exemple ultime d'un système expert. Le problème avec ces systèmes experts était, et c'est pourquoi ils n'ont jamais vraiment atteint l'intelligence générale complète, c'est qu'ils ne peuvent pas gérer l'imprévu. Si quelque chose d'inattendu se produit pour lequel vous n'aviez pas déjà prévu de solution, il n'y a rien dans le système qui lui permettra de gérer cela. Ils étaient inspirés par des systèmes logiques, et ils étaient assez rigides et fragiles à cause de cela.
Alors que les approches modernes sont basées sur des systèmes d'apprentissage. Ce sont des systèmes capables d'apprendre par eux-mêmes et d'apprendre directement à partir de l'expérience ou des données à partir de principes fondamentaux, inspirés par des idées issues davantage des neurosciences. La promesse de ces systèmes que nous avons aujourd'hui est qu'ils peuvent aller potentiellement au-delà des connaissances que nous, les programmeurs ou les concepteurs de systèmes, savons déjà résoudre. C'est extrêmement précieux dans des domaines comme la découverte scientifique.
Des jeux à AlphaGo
Nous avons commencé au début des années 2010 avec les jeux. J'ai utilisé les jeux de nombreuses fois dans ma vie : d'abord pour entraîner mon propre esprit, puis pour construire des jeux et de l'IA pour les jeux informatiques et enfin, d'une troisième manière, pour entraîner nos systèmes d'IA. Les jeux sont le terrain d'essai idéal pour les systèmes d'IA. Vous pouvez commencer avec des jeux très simples comme les jeux Atari des années 70, et ce système DQN était la première fois que quelqu'un construisait un système d'apprentissage de bout en bout capable d'apprendre directement à partir de données brutes. Dans ce cas, les pixels bruts à l'écran et on ne lui dit rien sur les jeux ou sur ce qu'il contrôle, on lui dit simplement de maximiser le score basé sur ce flux d'entrée vidéo, ce flux de pixels.
Nous avons pu maîtriser tous les différents jeux Atari vers 2013. Ensuite, nous avons pris ces systèmes et nous les avons mis à l'échelle pour le grand défi de l'IA de jeu, à savoir : pouvez-vous créer des systèmes capables de jouer au jeu de Go, au niveau de champion du monde ou au-delà. Le Go est probablement le jeu le plus complexe que les humains aient jamais inventé. Il a des milliers d'années, c'est donc aussi le jeu le plus ancien et l'un des jeux les plus élégants. L'une des façons de voir la complexité du Go est qu'il y a 10 à la puissance 170 positions possibles au Go. C'est bien plus qu'il n'y a d'atomes dans l'univers observable. Le point important est qu'on ne peut pas élaborer de stratégie au Go en utilisant des techniques de force brute. Ce serait impossible, ce serait totalement insoluble. Il faut donc faire quelque chose de beaucoup plus intelligent. En 2016, nous avons remporté un match défi d'un million de dollars contre le décuple champion du monde Lee Sedol, l'une des légendes du jeu, le grand maître sud-coréen, et ce match a été suivi par 200 millions de personnes à travers le monde. Non seulement notre système AlphaGo a remporté ce match, mais chose importante, il a en fait inventé de nouvelles stratégies de Go originales, même si nous jouons au Go depuis des milliers d'années et de manière professionnelle depuis des centaines d'années, il a quand même réussi à trouver des stratégies jamais vues auparavant. Le plus célèbre est ce coup 37 lors de la deuxième partie, que vous verrez sur YouTube si vous regardez le documentaire à ce sujet, à quel point les meilleurs joueurs du monde qui commentaient la partie ont été surpris par ce coup. C'était un coup impensable et pourtant il a fait basculer cette deuxième partie en faveur d'AlphaGo cent coups plus tard.
Apprentissage par renforcement et AlphaZero
Encore une fois, cela m'a renseigné sur le potentiel de ce type de systèmes pour inventer et découvrir de nouvelles connaissances. Ici, nous ne parlons que de connaissances de jeu, mais mon rêve était de généraliser cela à tous les domaines de la découverte scientifique.
Comment ces systèmes fonctionnent-ils ? Nous entraînons essentiellement ces réseaux de neurones par un système d'auto-jeu, c'est donc le cas d'AlphaGo et aussi des systèmes ultérieurs comme AlphaGo Zero et AlphaZero qui ont généralisé ce que nous avions fait pour le Go pour jouer à n'importe quel jeu à deux joueurs en partant de zéro. Vous commencez avec une version 1 du système qui ne sait pas vraiment grand-chose sur le jeu, juste les règles, et il joue de manière aléatoire et vous jouez, disons, cent mille parties contre lui-même avec ce système, ce qui crée une nouvelle base de données de positions de jeu à partir de ces cent mille parties. À partir de là, vous entraînez une deuxième version, une version légèrement meilleure du modèle, la version 2, qui est entraînée pour prédire quels sont les coups susceptibles d'être joués dans une position donnée et aussi qui est le plus susceptible de gagner, quel côté, noir ou blanc, est susceptible de gagner à partir de cette position, et quel pourcentage de chance ils ont de gagner. Vous pouvez utiliser cette version 2 pour jouer contre la version 1 dans un match de cent parties et ensuite s'il gagne avec une marge significative, dans ce cas un taux de victoire de 55 %, vous remplacez la version 1 par la version 2 et créez une nouvelle base de données de parties de qualité légèrement supérieure, puis vous apprenez un système de version 3. Si vous faites cela et que vous le répétez environ 17 ou 18 fois, vous passez d'un jeu aléatoire le matin à 24 heures ou moins plus tard, vous êtes plus fort que le niveau de champion du monde. C'est un processus assez incroyable de voir ce processus d'auto-amélioration se dérouler en très peu de temps.
Si l'on réfléchit à ce que font ces réseaux de neurones, c'est que vous réduisez cet espace de recherche insoluble de 10 à la puissance 170 possibilités à quelque chose de beaucoup plus gérable en quelques minutes de temps de calcul. Il fait cela en restreignant les options grâce au réseau de neurones pour guider efficacement le mécanisme de recherche. Si vous imaginez cet arbre de possibilités et que chaque nœud de cet arbre est une position de Go, alors au lieu de devoir examiner chaque possibilité, vous pouvez en fait utiliser le réseau de neurones pour vous guider uniquement vers les lignes les plus intéressantes et les plus utiles à examiner. Dans ce cas, celles en bleu, puis une fois que vous avez épuisé votre temps de réflexion, vous choisissez la meilleure ligne, la ligne la plus prometteuse que vous ayez vue jusqu'à présent. Dans ce cas, cette ligne particulière en violet.
Ceci mène ensuite non seulement au Go mais à n'importe quel jeu à deux joueurs à information parfaite et a même permis de découvrir de nouvelles stratégies et styles de jeu aux échecs, ce qui est extraordinaire étant donné que les ordinateurs d'échecs étaient déjà si puissants. Des programmes comme Stockfish. Et AlphaZero a pu battre Stockfish aux échecs à l'époque, ce qui est presque impossible à faire. Non seulement il a battu Stockfish, donc AlphaZero ici est avec les blancs jouant contre Stockfish qui a les noirs, mais dans cette position particulière, l'une des parties les plus célèbres jouées par AlphaZero, appelée la partie de l'immortel Zugzwang, les blancs gagnent ici parce qu'ils privilégient la mobilité à la matérialité. La plupart des ordinateurs d'échecs privilégient le matériel et vous verrez que les noirs ont plus de matériel, mais en fait ils ne peuvent déplacer aucune de leurs pièces. Elles sont toutes coincées dans le coin. C'est ce pour quoi AlphaZero a sacrifié du matériel : pour cette mobilité. Pour les grands maîtres humains et les meilleurs joueurs d'échecs, ce n'est pas seulement un style très efficace, c'est un style esthétique très beau pour jouer aux échecs. Il était incroyable qu'AlphaZero soit capable de découvrir cette nouvelle façon dynamique de jouer.
En fait, certains des meilleurs joueurs d'échecs du monde ont commenté cela. Garry Kasparov, mon joueur d'échecs préféré de tous les temps, a dit que les programmes reflètent généralement les priorités et les préjugés du programmeur, mais parce qu'AlphaZero apprend par lui-même, je dirais que son style reflète la vérité. Le champion du monde en titre de l'époque, Magnus Carlsen, a déclaré qu'il avait été influencé par l'un de ses héros récemment, dont l'un est AlphaZero. Il a en fait incorporé beaucoup de ces idées dans son propre jeu pour dominer la scène des échecs pendant presque une décennie maintenant.
Appliquer l'IA aux problèmes du monde réel
Nous avons réalisé toutes ces percées historiques dans l'IA de jeu au cours de la première décennie d'existence de DeepMind, mais ce n'était que le terrain d'entraînement pour ce que nous voulions faire et ce n'était qu'un moyen pour parvenir à une fin. Ce n'était pas une fin en soi que de jouer à ces jeux, même si j'adore les jeux. Il s'agissait de créer ces algorithmes qui pourraient être généralement utiles pour s'attaquer à des problèmes du monde réel.
Ce que nous recherchons dans les problèmes du monde réel, pas seulement les problèmes scientifiques, mais aussi les problèmes industriels. Nous recherchons trois critères différents qui rendent le problème apte à être abordé par ces types de systèmes d'IA et les idées et algorithmes que nous avons développés pour jouer à des jeux. Premièrement, nous recherchons des problèmes qui peuvent être décrits comme des espaces de recherche combinatoires massifs. Généralement bien trop complexes, bien trop de combinaisons pour une solution par force brute. Peut-être existe-t-il une sorte de structure que nous pouvons apprendre avec nos réseaux de neurones et qui peut guider cette recherche très efficacement. Deuxièmement, nous recherchons des problèmes qui peuvent être décrits avec une fonction objective claire ou une sorte de métrique par rapport à laquelle on peut optimiser. Dans les jeux, c'est très facile : maximiser le score ou gagner la partie. Mais il y a beaucoup de problèmes du monde réel qu'on peut réduire à quelques métriques ou quelques fonctions objectives qu'on essaie de maximiser. Enfin, on a besoin de beaucoup de données ou d'expérience pour apprendre et, idéalement, d'un simulateur précis et efficace pour pouvoir générer davantage de données synthétiques afin de compléter les données réelles dont on dispose.
Le problème du repliement des protéines
Il s'avère qu'il y a beaucoup de problèmes qui peuvent être formulés en ces termes si vous regardez le problème sous cet angle. Y compris de nombreux problèmes importants en science. Celui que j'ai toujours eu à l'esprit depuis l'époque où j'ai découvert le problème ici à Cambridge en tant qu'étudiant de premier cycle est le problème du repliement des protéines. Les protéines sont incroyablement importantes, elles sont les briques du vivant, presque toutes les fonctions de l'organisme vivant dépendent des protéines. Du déclenchement de vos neurones au tressaillement de vos fibres musculaires. Les protéines sont ce qui rend la vie possible.
Le problème du repliement des protéines est alors très facile à décrire. Une protéine est définie par sa séquence génétique, sa séquence génétique, qui spécifie ensuite une séquence d'acides aminés, laquelle se replie ensuite spontanément dans la nature en une magnifique structure protéique. On passe de cette séquence génétique à une structure protéique. La raison pour laquelle la structure 3D est très importante est qu'elle contribue grandement à définir sa fonction, ce qu'elle fait dans l'organisme. Elle ne décrit pas totalement la fonction mais elle joue un rôle majeur dans ce qu'elle fait réellement dans la nature. Le problème du repliement des protéines consiste donc à prédire la structure de la protéine directement à partir de cette séquence unidimensionnelle d'acides aminés ? Pouvez-vous prédire par le calcul cette incroyable structure 3D à partir de cette séquence ?
Pourquoi est-ce un problème si difficile ? Levinthal, un célèbre chercheur sur les protéines dans les années soixante, a décrit cette conjecture connue sous le nom de paradoxe de Levinthal, selon laquelle il a calculé qu'il existe environ 10 à la puissance 300 formes possibles qu'une protéine moyenne peut prendre. Pourtant, d'une manière ou d'une autre dans la nature et dans l'organisme, ces protéines se replient spontanément en quelques millisecondes. C'est là le paradoxe : s'il y a tant de possibilités, comment la nature fait-elle cela ? Comment la physique y parvient-elle ? Cela donne l'espoir que cela doit être calculable dans un laps de temps raisonnable puisque la physique résout ce problème des milliards de fois par seconde dans le corps. De plus, ce qui m'a attiré vers ce problème, c'est qu'il existait une compétition bisannuelle appelée la compétition CASP, qui est comme les Jeux Olympiques du repliement des protéines. Elle a lieu tous les deux ans et elle est gérée par des personnes formidables dirigées par le professeur John Moult. Elle existe depuis 1994 et c'est une excellente compétition car ils travaillent avec des expérimentateurs qui trouvent laborieusement ces structures à l'aide d'équipements très exotiques et coûteux comme des microscopes électroniques, et les structures nouvellement découvertes qui n'ont pas encore été publiées, ils les soumettent à la compétition. Les organisateurs de la compétition connaissent la vérité terrain, mais les équipes informatiques, des centaines d'équipes participent à chaque compétition tous les deux ans et essaient avec leurs méthodes informatiques de prédire ces structures. Il y a généralement environ une centaine de protéines dans la compétition. À la fin de l'été, ils révèlent quelles sont les vraies structures et on peut comparer les prédictions et l'erreur dans les prédictions avec les structures réelles.
Le succès et l'impact d'AlphaFold
Nous avons inscrit AlphaFold 1 pour la première fois en 2018 et nous avons commencé ce projet AlphaFold en 2016, presque le lendemain de notre retour du match AlphaGo à Séoul. Nous sentions que nous étions prêts, que nous avions des techniques suffisamment matures et prêtes à être appliquées en dehors des jeux et à essayer de s'attaquer à des problèmes vraiment significatifs. Nous les appelons des problèmes de nœuds racines car ils ouvrent de toutes nouvelles branches et voies de découverte sur lesquelles on peut construire s'ils pouvaient être résolus. Le repliement des protéines en était un parfait exemple. Nous avons commencé à y travailler en 2016, AlphaFold 1 était prêt après quelques années et nous l'avons inscrit à la compétition CASP 13. Vous pouvez voir pour la décennie précédente, ces graphiques à barres montrent le score de l'équipe gagnante dans la catégorie la plus difficile, les protéines les plus difficiles à prédire. Vous pouvez voir cela comme un pourcentage de précision : combien de ces acides aminés avez-vous placés dans la bonne position avec une certaine tolérance, à la largeur d'un atome près. Vous pouvez voir qu'il n'y a pas eu beaucoup de progrès pendant une décennie et que nous étions bloqués à ce niveau de 60 points.
Si vous arriviez à 90, vous seriez à la largeur d'un atome près, vous auriez donc une précision atomique. C'est ce que nous disaient les expérimentateurs : c'est la précision qu'il faudrait atteindre pour être compétitif avec les méthodes expérimentales, afin que les expérimentateurs puissent se fier à ces prédictions plutôt que de devoir nécessairement faire le travail laborieux et fastidieux de trouver cette structure. En règle générale, mes amis biologistes me disaient toujours qu'il pouvait falloir à un doctorant toute sa thèse, soit quatre ou cinq ans, pour trouver la structure d'une seule protéine. Il existe 200 millions de protéines connues par la science et 20 000 protéines dans le protéome humain. Avec AlphaFold 1, nous avons pu gagner cette compétition et être meilleurs de presque 50 % que le système suivant. AlphaFold 1 a introduit pour la première fois les techniques d'apprentissage automatique comme composant principal du système. Mais ce n'était pas suffisant pour atteindre cette précision atomique. Nous avons dû repartir de zéro avec ce que nous avions appris et repenser l'architecture d'AlphaFold 2, en utilisant tous les enseignements d'AlphaFold 1 pour enfin atteindre cette précision atomique, ce qui a conduit les organisateurs à déclarer que le problème avait été résolu fin 2020.
Voici un exemple du fonctionnement d'AlphaFold. Sur le côté gauche se trouve une protéine très complexe, la vérité terrain est en vert, la structure prédite est en bleu et vous pouvez voir à quel point le bleu chevauche étroitement le vert. Sur le côté droit, vous pouvez voir comment fonctionne AlphaFold 2, il construit cette structure par un processus itératif. Il se recycle lui-même sur 192 étapes, et se développe en commençant par une boule froissée de matière protéique, d'acides aminés, puis il construit une structure de plus en plus plausible jusqu'à ce qu'à la fin, il peaufine les dernières parties pour obtenir la prédiction finale.
Nous avons immédiatement essayé, parce qu'AlphaFold est si précis et extrêmement rapide. Il est capable de replier des protéines en quelques secondes. Nous avons réalisé assez rapidement que nous pouvions en fait replier les 200 millions de protéines connues par la science. En l'espace d'un an, nous avons utilisé de nombreux ordinateurs sur Google Cloud pour les replier toutes, puis nous les avons mises gratuitement dans une base de données avec nos collègues de l'EMBL-EBI juste à côté, au Sanger Centre, près de Cambridge. Nous avons fourni cet accès libre et illimité à quiconque dans le monde pour l'utiliser. Si l'on pense au temps qu'il faut pour faire cela expérimentalement, quatre ou cinq ans, c'est un milliard d'années de doctorat réalisées en un an. C'est incroyable de penser à quel point la science pourrait être accélérée. Cela a ouvert de toutes nouvelles voies d'exploration car beaucoup de ces structures, en particulier pour les organismes moins étudiés comme certains types de plantes, sont très importantes pour la science et la recherche agricole, mais presque aucune de ces structures n'aurait été trouvée et disponible. Désormais, elles sont toutes disponibles. De plus, on peut les examiner à un niveau global et regarder les structures structurelles à travers les espèces, et les méta-structures, et voir quelles sont les points communs à travers l'évolution. Il y a de nouvelles voies vraiment intéressantes en biologie structurale qui sont actuellement explorées. Nous avons pensé à la sécurité dès le début, et nous prenons notre responsabilité très au sérieux à la pointe de l'IA. Dans ce cas, nous avons consulté plus de 30 experts en biosécurité et en bioéthique pour nous assurer que ce que nous diffusions dans le monde, les avantages l'emportaient de loin sur les risques qui y étaient associés. Aujourd'hui, plus de 2 millions de chercheurs l'utilisent, dans presque tous les pays du monde. Il a été cité plus de 30 000 fois maintenant et il est devenu un outil standard dans la recherche en biologie. Beaucoup d'entre vous dans le public qui êtes doctorants, j'espère que vous l'utilisez et qu'il fait simplement partie du canon standard utilisé pour la recherche en biologie.
Applications d'AlphaFold et évolutions futures
Il a été incroyable de voir ce que d'autres chercheurs ont fait avec toute cette technologie et toutes ces structures. J'ai cité ici six de mes exemples préférés. Des chercheurs de l'Université de Portsmouth l'utilisent pour s'attaquer à la pollution plastique dans l'environnement, en essayant de concevoir de nouvelles enzymes qui sont des types de protéines capables de digérer le plastique. Nous travaillons avec le Fleming Centre sur la résistance aux antibiotiques. Pour les maladies négligées comme les maladies tropicales qui touchent les régions les plus pauvres du monde, nous travaillons avec l'initiative Drugs for Neglected Diseases. C'est un bon exemple de l'endroit où nous pouvons accélérer la recherche dans ces domaines où, qu'il s'agisse du paludisme, de la leishmaniose ou du virus Zika, beaucoup de ces structures ne sont pas connues, mais maintenant ils peuvent passer directement à la découverte de médicaments car ils disposent de beaucoup d'informations sur les structures de ces virus et bactéries. Beaucoup de recherches fondamentales ont été effectuées sur des choses comme la découverte de la structure du complexe nanopore, qui est une protéine très importante permettant aux nutriments d'entrer et de sortir du pore nucléaire de la cellule. Un travail incroyable réalisé au Broad Institute sur l'administration de médicaments en concevant des seringues moléculaires, en redessinant des protéines capables de livrer des médicaments de manière ciblée dans une partie précise du corps. Il a même été utilisé pour étudier les mécanismes de la fertilité. La quantité de domaines où il est utile concerne presque tous les domaines de la biologie et de la recherche médicale aujourd'hui utilisant AlphaFold.
Nous avons continué ces dernières années à développer plus d'évolutions et à améliorer les systèmes. Nous avons publié AlphaFold 3 plus tôt cette année pour que les universitaires puissent l'utiliser et nous avons étendu AlphaFold 3 pour traiter les interactions. On peut considérer AlphaFold 2 comme une image de la structure statique d'une protéine, mais la biologie est un processus dynamique. On a besoin de comprendre comment les différents éléments biologiques interagissent entre eux. Les protéines avec d'autres protéines, mais aussi les protéines avec d'autres molécules essentielles à la vie, comme l'ADN et l'ARN, ainsi que les ligands. De petites molécules qui sont des composés médicamenteux : comment la protéine se lie-t-elle à ce composé ? Nous avons un ensemble de travaux séparés, AlphaProteo, qui fait l'inverse d'AlphaFold mais utilise les techniques d'AlphaFold : si vous voulez concevoir une nouvelle protéine qui n'existe pas dans la nature pour une tâche particulière, quelle est la séquence d'acides aminés et la séquence génétique qui vous donneront cette structure ? C'est comme le faire fonctionner en sens inverse et essayer de concevoir de nouvelles structures qui feront des choses inédites, et cela pourrait être extrêmement utile pour concevoir des médicaments comme des antibiotiques et des anticorps.
L'ère de la biologie numérique et Isomorphic Labs
En prenant du recul, si je regarde tout le travail que nous avons accompli au cours des 15 dernières années, quelles sont les implications pour la science et l'apprentissage automatique ? Si vous réfléchissez à ce que nous avons fait avec le travail sur les jeux, puis maintenant avec le travail scientifique sur lequel nous avons travaillé et dont AlphaFold est notre meilleur exemple, tout consiste à rendre cette recherche gérable. Vous avez ce problème incroyablement complexe, il y a de nombreuses solutions possibles et vous devez trouver la solution optimale, une aiguille dans la botte de foin de cet énorme espace de recherche combinatoire. On ne peut pas le faire par force brute, il faut donc apprendre ce modèle de réseau de neurones qui apprend la topologie du problème, afin de pouvoir guider efficacement la recherche pour atteindre votre, pour maximiser ou trouver la solution optimale à l'objectif que vous avez en tête. Je pense que c'est une manière incroyablement générale d'aborder une multitude de problèmes. Pour en revenir à l'exemple du Go, nous essayons d'utiliser ces systèmes pour trouver le meilleur coup de Go, mais vous pourriez aussi changer ces nœuds pour qu'ils soient des composés chimiques et maintenant vous essayez de trouver la meilleure molécule dans l'espace chimique. La meilleure molécule au début de la conception d'un médicament se liera spécifiquement à la cible qui vous intéresse mais à rien d'autre. Cela réduit les effets secondaires et la toxicité de ce composé. Ce sont des techniques très similaires que nous utilisons pour concevoir ces molécules maintenant comme prochaines étapes alors que nous nous dirigeons de plus en plus vers la découverte de médicaments.
En biologie du moins, j'ai l'impression que nous entrons dans une nouvelle ère de ce que j'aime appeler la biologie numérique. Je considère la biologie à son niveau le plus fondamental comme un système de traitement de l'information qui tente de résister à l'entropie qui l'entoure. Je pense que c'est essentiellement ce qu'est la vie. C'est un système de traitement de l'information phénoménalement complexe et émergent. C'est là que l'IA intervient. Tout comme les mathématiques, et les mathématiques que j'ai apprises dans cette salle étaient le langage de description parfait pour la physique et les phénomènes physiques. L'IA est potentiellement le langage de description parfait pour la biologie. Elle est parfaite pour traiter la complexité des comportements et interactions émergents que l'on obtient dans un système dynamique comme la biologie. AlphaFold en est une preuve, et j'espère que quand nous regarderons en arrière dans 10 ans, ce ne sera pas une percée isolée mais qu'elle aura annoncé cette nouvelle ère, l'ère dorée de la biologie numérique. Nous essayons de faire progresser cela nous-mêmes, nous avons lancé une nouvelle société dérivée, Isomorphic Labs, pour s'appuyer sur notre technologie AlphaFold et s'orienter davantage vers l'espace de la chimie dont je parlais tout à l'heure, et essayer de réimaginer la découverte de médicaments à partir de principes fondamentaux avec l'IA. Actuellement, il faut en moyenne 10 ans pour qu'un médicament soit développé, et c'est extraordinairement coûteux, cela coûte des milliards de dollars. Pourquoi ne pourrions-nous pas utiliser ces techniques pour réduire cela de quelques années à quelques mois, peut-être un jour quelques semaines, tout comme nous avons réduit la découverte de structures de protéines de quelques années à quelques minutes ou secondes. Nous concevons cela comme faire de la science à la vitesse du numérique. Essayer d'apporter le meilleur de ce que nous faisons dans le domaine de la technologie aux sciences naturelles. Mon rêve un jour est de pouvoir créer une cellule virtuelle, une cellule informatique peut-être de quelque chose de très simple comme une cellule de levure, sur laquelle on pourrait réellement mener des expériences in silico et les prédictions obtenues à partir de la cellule virtuelle informeraient vos expériences réelles en laboratoire. On pourrait réduire considérablement la recherche effectuée en laboratoire humide, et utiliser davantage le laboratoire humide pour les étapes de validation plutôt que pour le processus de recherche très coûteux et lent.
L'IA dans toutes les disciplines scientifiques
L'IA peut être utilisée pour la science, les mathématiques, la médecine plus généralement, et nous avons eu toute une série de percées allant de choses dans le domaine de la santé comme l'identification de maladies oculaires à partir de scans rétiniens, la découverte de nouveaux matériaux, l'aide au confinement du plasma dans les réacteurs à fusion, des algorithmes plus rapides, l'IA découvrant de meilleurs algorithmes pour elle-même comme la multiplication matricielle plus rapide, la prévision météorologique et même l'aide aux ordinateurs quantiques et à la correction d'erreurs dans les ordinateurs quantiques. Ce n'est qu'un petit exemple de certains des travaux que nous avons réalisés au cours des deux ou trois dernières années. L'IA sera applicable à presque tous les domaines. J'encourage toujours les universités à réfléchir très sérieusement au travail multidisciplinaire où l'on applique l'IA aux bonnes questions dans un domaine spécialisé particulier. Il y a de nombreux progrès à faire au cours des cinq à dix prochaines années en faisant cela.
Le chemin vers l'AGI et les modèles du monde
Je terminerai par une vue plus générale sur non seulement l'IA pour la science, mais aussi le chemin vers l'AGI et à quel point nous en sommes proches et notre mission originale de l'AGI. Nous avons réalisé beaucoup de progrès dans tous les domaines de la compréhension générale du monde, nous les appelons parfois des modèles du monde. Nous sommes particulièrement fiers de notre nouveau modèle vidéo appelé Veo 2 qui vient de sortir à la fin de l'année dernière. C'est de la génération vidéo à la pointe de la technologie et il est capable de générer ces vidéos juste à partir d'une description textuelle ou d'une seule image statique. Bien que certaines de ces vidéos ne semblent pas si impressionnantes, si l'on pense à celle où l'on coupe la tomate, c'est comme le test de Turing pour les modèles vidéo car, d'habitude, la tomate se reconstitue magiquement ou on coupe à travers les doigts ou le couteau part ailleurs. Si l'on pense à ce que les systèmes ont dû faire pour vraiment comprendre la physique du monde, ou les bulles autour de cette myrtille ici. Il génère cela juste à partir de texte : des myrtilles tombant dans un verre d'eau et il respecte toute la physique correctement, ou le mouvement de ces petits personnages de dessins animés ou de l'abeille ici. C'est époustouflant et si vous m'aviez dit il y a cinq ans que cela serait possible sans intégrer une compréhension spéciale de la physique, je vous aurais dit que cela semble peu probable. Et pourtant, d'une certaine manière, ces systèmes d'apprentissage sont capables d'apprendre la physique du monde réel juste en regardant de nombreuses vidéos YouTube. C'est fou que ce soit possible.
IA générative et modèles du monde (Genie 2)
Nous sommes allés un peu plus loin avec Genie 2, ce qui ramène ma casquette de concepteur de jeux ici et pousse ces modèles Veo un peu plus loin. Maintenant, avec une instruction textuelle, vous pouvez générer un jeu entier. Ici, en bas, nous avons dit : générer un monde jouable en tant que robot dans une ville futuriste et il crée cela, et on peut le contrôler avec les touches QWE et les touches fléchées. Pour le moment, ce n'est cohérent que pendant quelques secondes, mais nous travaillons à étendre cela pour que la cohérence du monde du jeu dure plusieurs minutes. On a alors vraiment ce que j'appellerais un modèle du monde, une réelle compréhension du monde réel, et de la façon dont les interactions dans ce monde réel fonctionnent et dont la physique du monde réel fonctionne.
Sécurité et responsabilité de l'IA
Nous avons travaillé très dur sur les aspects de sécurité de cela, et dès le début en 2010, nous travaillions sur la planification du succès, même si presque personne ne travaillait sur l'IA à l'époque. Nous imaginions que ce serait une mission de 20 ans et, étonnamment, nous sommes dans les temps 15 ans plus tard. Nous planifiions le succès. Si nous devions construire ce genre de systèmes et de technologies transformateurs, cela s'accompagnerait d'une grande responsabilité pour s'assurer qu'ils soient déployés de manière sûre et responsable. L'une des technologies que nous avons construites s'appelle SynthID, qui marque de manière invisible par filigrane en utilisant en fait un système d'IA, un système d'IA antagoniste, ajuste légèrement les pixels ou le texte ou l'audio, de manière imperceptible à l'oreille ou à l'œil humain, mais cela peut être détecté par un système de détection montrant que ce sont des images générées synthétiquement, qu'il s'agisse d'audio, d'image ou de vidéo. Cela va devenir de plus en plus important à mesure que ces technologies seront largement déployées pour que nous puissions facilement distinguer les images générées synthétiquement des images réelles.
L'IA a ce potentiel incroyable d'aider à relever nos plus grands défis, du climat à la santé. Mais cela va affecter tout le monde. Il est vraiment important que nous nous engagions, ce ne sont pas seulement les technologues qui décident de cela, mais que nous nous engagions avec un large éventail de parties prenantes de la société. J'ai été vraiment heureux ces deux dernières années de voir que l'une des conséquences de la banalisation de l'IA est que de nombreux gouvernements s'y sont intéressés, ainsi que toutes les parties de la société. C'était formidable de voir ces sommets internationaux, le Royaume-Uni a d'ailleurs accueilli le premier à Bletchley Park il y a quelques années, réunissant des chefs de gouvernement avec le monde universitaire et la société civile pour discuter de ces technologies, de la manière de mettre les bons garde-fous, de s'assurer que nous saisissons les opportunités, mais que nous atténuons les risques qui se profilent à l'horizon. Cela va devenir de plus en plus important compte tenu de l'amélioration exponentielle que nous constatons avec ces technologies. Mon résumé pour cela est de dire qu'une grande partie de la Silicon Valley essaie le mantra de « bouger vite et casser des choses ». Cela a créé beaucoup de progrès, beaucoup de technologies que nous utilisons tous chaque jour. Mais ce n'est pas approprié pour ce type de technologie transformatrice. Au lieu de cela, nous devrions essayer d'utiliser la méthode scientifique et de l'aborder avec l'humilité et le respect que ce genre de technologie mérite. Nous ne savons pas beaucoup de choses, il y a beaucoup d'inconnues sur la façon dont cette technologie va se développer. C'est si nouveau, et je pense qu'avec un soin et une prévoyance exceptionnels, nous pouvons obtenir tous les avantages et minimiser les inconvénients. Mais seulement si nous commençons la recherche et le débat à ce sujet maintenant.
Gemini et les assistants universels
Pour finir alors, nous construisons maintenant nos propres grands modèles multimodaux qui essaient de prendre le meilleur de tous ces différents modèles que je vous ai montrés et de les mettre dans un seul système. Nous l'appelons la série Gemini. Notre plus récent est Gemini 2.0 que certains d'entre vous ont peut-être essayé, qui est à la pointe de la technologie sur de nombreux indices de référence. Je suis très enthousmé par la prochaine génération d'assistants. Je les appelle des assistants universels. Nous appelons cela Project Astra, où vous l'avez sur votre téléphone ou d'autres appareils, peut-être des lunettes, et cela commence à être un assistant que vous pouvez emmener avec vous dans le monde réel et qui vous aide dans la vie quotidienne pour enrichir votre vie ou vous rendre plus productif.
La prochaine étape de l'IA consiste à combiner ce que je vous ai montré avec AlphaGo, ces types de modèles basés sur des agents qui sont capables de chercher efficacement et de trouver une bonne solution à un problème dans un domaine limité, dans ce cas dans les jeux. Nous voulons en fait construire ces types de systèmes de recherche et de systèmes de planification par-dessus des modèles beaucoup plus généraux comme Gemini, ces modèles du monde qui comprennent comment le monde réel fonctionne et peuvent planifier et réaliser des choses dans le monde réel. C'est la clé pour que des choses comme la robotique fonctionnent, et je pense qu'au cours des deux ou trois prochaines années, ce sera un domaine énorme qui connaîtra des avancées massives.
L'héritage de Turing et la nature de la réalité
Je finirai par une petite conjecture sur ce que tout cela signifie si l'on repense à Turing et à tout le travail qu'il a fait pour poser les bases de l'informatique. Je me vois un peu comme un champion de Turing d'une certaine manière. Jusqu'où les machines de Turing et cette idée de l'informatique classique peuvent-elles aller ? Probablement l'un des cours que j'ai suivis dans cette salle était l'une de mes réflexions préférées : le problème P égal NP, qui est un problème célèbre en informatique sur les types de problèmes qui sont traitables sur des systèmes classiques. Il y a beaucoup d'excellent travail en cours sur les systèmes d'informatique quantique, dont une grande partie ici à Cambridge, et aussi chez Google nous avons l'un des meilleurs groupes d'informatique quantique au monde. On pense que beaucoup de choses nécessitent l'informatique quantique pour être résolues, beaucoup de systèmes du monde réel que nous aimerions comprendre et modéliser. Ma conjecture est que les machines de Turing classiques, essentiellement les machines classiques sur lesquelles ces types de systèmes d'IA sont construits, peuvent faire beaucoup plus que ce que nous leur accordions auparavant. Si vous pensez à AlphaFold et au repliement des protéines, les protéines sont des systèmes quantiques, elles fonctionnent à l'échelle atomique et on pourrait penser qu'on a besoin de simulations quantiques pour pouvoir trouver les structures des protéines. Pourtant, we have pu approximer ces solutions avec nos réseaux de neurones. Une idée potentielle est que tout motif qui peut être généré ou trouvé dans la nature, qui a une structure physique réelle, peut être découvert et modélisé efficacement par l'un de ces algorithmes d'apprentissage classique comme AlphaFold. Si cela s'avère vrai, cela a toutes sortes d'implications pour la mécanique quantique et la physique fondamentale, ce qui est quelque chose que j'espère explorer et que beaucoup de mes collègues espèrent explorer, peut-être avec l'aide de ces systèmes classiques pour nous aider à découvrir quelle pourrait être la véritable nature de la réalité.
Cela me ramène à la raison pour laquelle j'ai commencé mon parcours dans l'IA il y a de nombreuses années. J'ai toujours cru que l'AGI, construite de cette manière, pourrait être l'outil polyvalent ultime pour comprendre l'univers qui nous entoure et notre place en son sein. Merci.
Q&A : Neurosciences et problèmes de nœuds racines
Super, nous avons du temps pour quelques questions, si les gens en ont. Une première main s'est levée juste ici.
Merci pour cette excellente conférence. Puisque vous avez une formation en neurosciences et que vous aimez vraiment penser en termes de problèmes de nœuds racines, y a-t-il jamais eu un problème de nœud racine que vous avez rencontré en neurosciences et que vous avez jugé digne d'être abordé, et qui mérite encore d'être abordé pour mieux comprendre l'intelligence biologique et artificielle ?
Il y en a beaucoup. C'est ce que j'ai étudié pour mon doctorat d'ailleurs : la mémoire, mais aussi l'imagination, la pensée future, une sorte de planification. Je voulais vraiment comprendre comment le cerveau faisait cela. Il s'avère que l'hippocampe est impliqué dans les deux, de sorte que nous pourrions peut-être imiter cela avec certains de ces algorithmes. Je pense qu'il y a beaucoup de choses clés là-dedans. Il y a toutes les grandes questions autour de la créativité, du rêve, de la conscience, toutes ces grandes questions qui, je pense, en construisant l'IA puis en la comparant à l'esprit humain, sont l'un des meilleurs moyens de progresser sur ces types de problèmes de nœuds racines, comme quelle est la nature de la conscience et s'il y a quelque chose de spécial dans l'instanciation du substrat du cerveau par rapport au fait de mimer cela algorithmiquement dans le silicium.
Q&A : Apprentissage profond et optimisation
J'ai deux questions en fait. Étant donné que DeepMind a été fondé avant la révolution de l'apprentissage profond, je voulais savoir quel était votre état d'esprit si l'apprentissage profond n'avait pas décollé ou comment alliez-vous progresser ? C'est la première question. Et la deuxième question est la suivante : puisque vous avez eu des expériences intimes avec des problèmes aussi difficiles, des problèmes à si haute dimension, et que nous savons que la descente de gradient et ses variantes ne peuvent pas converger vers la solution optimale, seulement vers des solutions optimales locales. Avez-vous été surpris que quoi que ce soit fonctionne dans ces systèmes à un moment donné et pensez-vous que la majeure partie de la nature est sous-optimale et que nous pouvons potentiellement construire une nature plus optimale ?
Ce sont deux excellentes questions. La première : c'est pour cela que nous l'avons appelé DeepMind, en partie parce que le « deep » fait référence au deep learning. L'apprentissage profond n'avait pas... enfin, les premières parties ne s'appelaient pas apprentissage profond à l'époque, mais cela devenait courant. Il y avait ces machines de Boltzmann et des choses que Geoffrey Hinton avait inventées juste quelques années auparavant en 2006, 2005, ces réseaux de neurones hiérarchiques. Cela semblait être une idée super prometteuse même à l'époque pour nous qui l'avions rencontrée dans le milieu universitaire. L'autre chose sur laquelle nous avons parié était l'apprentissage par renforcement et la combinaison des deux, qui revient à la mode, mais c'était aussi important pour nous pour résoudre quelque chose comme AlphaGo. On a besoin des deux parties. On a besoin de l'apprentissage profond pour modéliser l'environnement et le monde, puis on a besoin de l'apprentissage par renforcement pour élaborer les plans et les solutions et agir dans le monde. Il y avait deux raisons pour lesquelles nous avons parié là-dessus même quand c'était juste le début : c'est que nous savions que les méthodes classiques, ces systèmes experts, ne passeraient pas à l'échelle. C'est l'une des choses que j'ai apprises ici et aussi lors de mon post-doctorat au MIT : ils étaient les sortes d'églises des méthodes classiques, ces systèmes experts, et en fait c'est autre chose qu'on peut apprendre ici dans ses cours universitaires, c'est non seulement quoi faire mais aussi quoi ne pas faire. J'y ai réfléchi et j'ai senti que cela ne passerait jamais à l'échelle pour les types de problèmes que je voulais résoudre avec l'IA. Alors que les systèmes d'apprentissage semblaient avoir un potentiel illimité bien qu'ils fussent beaucoup plus difficiles pour obtenir quoi que ce soit de significatif au début, et c'était le problème parce qu'ils n'étaient pas assez mis à l'échelle. L'autre raison pour laquelle nous avons lancé DeepMind en 2010 est que nous pouvions aussi voir que le paradigme informatique changeait du côté du matériel, les GPU et d'autres choses, qui ont aussi été inventés pour le jeu et il s'avère que tout est une multiplication matricielle : l'intelligence, le jeu et l'infographie. Toutes ces différentes influences se sont rejointes et la compréhension des neurosciences, des machines IRMf et des neurosciences avait beaucoup progressé au cours de ces 10 années précédentes également. J'ai senti que c'était le moment idéal pour rassembler tout cela en 2010. Nous pariions là-dessus non pas forcément parce que nous savions que cela fonctionnerait, mais nous savions que pour les autres méthodes, nous étions assez confiants qu'elles ne fonctionneraient pas. C'est ce qu'étaient les hivers de l'IA au fond, des gens essayant de pousser ces systèmes experts. La deuxième question, tout d'abord, il est surprenant que certaines de ces choses convergent et en fait nous n'étions pas sûrs. Les trucs Atari que je vous ai montrés. Pendant les deux premières années, rien n'a fonctionné. On ne pouvait même pas marquer un point au Pong, le jeu le plus simple que l'on puisse imaginer. On se demandait si on n'avait pas 10 ou 20 ans d'avance. Comme Babbage s'est avéré l'être avec sa machine à différences. Une idée géniale, elle fonctionnait, mais il avait au final 50 ou 100 ans d'avance. On veut avoir genre cinq ans d'avance sur son temps, pas 50 ans. Sinon, on s'expose à beaucoup de souffrance comme Babbage en a connu. Nous étions inquiets à ce sujet, mais ensuite cela a convergé et cela nous a donné confiance pour nous attaquer à des problèmes plus difficiles. La dernière partie de votre question portait sur les choses dans la nature. Les choses là ne sont pas sous-optimales, elles sont en fait probablement assez optimales parce qu'elles sont passées par un processus évolutif. Pas seulement la vie avec la biologie, mais aussi géologiquement et physiquement. Les astéroïdes et les phénomènes physiques se rejoignent, ils survivent un certain temps parce qu'ils sont stables dans le temps. S'ils sont stables dans le temps, alors il y a probablement une structure qui est apprenable. Ce serait ma conjecture.
Q&A : Interfaces cerveau-machine
Que pensez-vous de la construction d'interfaces cerveau-machine à large bande passante et de modules de mémoire et de raisonnement implantables afin que les humains puissent être davantage habilités à faire des découvertes de manière autonome plutôt que de seulement parler à l'IA dans le cloud ?
J'adore ce domaine et je l'ai suivi attentivement et j'ai aidé des gens à construire des bonnets EEG par exemple. Le problème est la résolution de ces choses pour obtenir les lectures du cerveau. Idéalement, on voudrait lecture et écriture. Mais je suis très fasciné par des projets comme Neuralink ou des puces dans le cerveau. Pour le moment, c'est pour les vétérans et les personnes pour qu'elles retrouvent des fonctions dans leur corps. Je pense qu'il va y avoir des choses incroyables là-dessus où je pense que des gens pourront remarcher s'ils ont eu le dos cassé. Je pense qu'il va y avoir des avancées incroyables dans les sciences médicales qui seront étonnantes. Au-delà de cela, si les choses deviennent courantes et que la chirurgie est sûre et qu'il y a des moyens sûrs de le faire, je pourrais imaginer que ce serait un moyen pour nous de suivre la technologie. Dans un certain sens, ce n'est pas différent de ce que nous avons déjà aujourd'hui avec nos technologies tout autour de nous. Nous avons tous nos téléphones avec nous 24h/24 et 7j/7, nos ordinateurs et d'autres choses. Nous sommes déjà presque en symbiose avec notre technologie. Ce serait une étape supplémentaire d'avoir cela. Mais je ne suis pas sûr, c'est peut-être aux philosophes dans la salle de répondre à la question de savoir quelle est la différence s'il y a une frontière rigide avec la technologie si elle est attachée à vous par rapport au fait que c'est juste quelque chose que vous transportez avec vous tout le temps.
Q&A : Choix de carrière à l'ère de l'IA
Que pensez-vous de la vitesse à laquelle l'intelligence artificielle se développe et de ses effets sur les développements économiques ? Il y a beaucoup de gens qui choisissent leur carrière en ce moment et qui, étant donné le changement rapide du paysage, ont beaucoup de mal à prédire dans quoi ils devraient se lancer.
C'est une question très compliquée parce que les choses changent à la vitesse de l'éclair. Nous en discutions d'ailleurs avec Alistair plus tôt : même concevoir des cours d'informatique sur trois ans est assez difficile étant donné que le matériel sous-jacent change en moins de trois ans. Je pense que la seule chose que nous puissions dire avec certitude est qu'il va y avoir beaucoup de changements, mais je pense que cela apporte avec soi des bouleversements et des opportunités. Je vais juste vous donner un exemple sur le codage. Je recommanderais toujours de devenir bon en codage et en maths parce que je pense que vous pourrez utiliser ces nouveaux outils d'une manière beaucoup plus profonde si vous comprenez comment ils sont construits. D'un autre côté, je pense que le codage va être plus accessible à beaucoup plus de types de personnes à cause de la façon dont l'IA vous permettra de programmer en langage naturel plutôt qu'en un langage informatique compliqué. Cela ouvrira des domaines à des personnes créatives pour construire des jeux, faire des films, faire des applications où l'équilibre est peut-être plus du côté créatif que du côté ingénierie. Mais je pense aussi que cela permettra aux ingénieurs d'être capables de faire 10 fois ce qu'ils font aujourd'hui. C'est difficile à savoir. Ce que je dirais, c'est de se concentrer sur l'adoption de ces outils pendant son temps libre et de s'entraîner à être vraiment bon pour assimiler de nouvelles informations extrêmement rapidement, car je pense que c'est fondamentalement ce qui va se passer dans les 10 prochaines années.
Q&A : Limites de la modélisation par apprentissage profond
Pensez-vous qu'il existe des processus biologiques, des comportements ou des motifs qui ne peuvent pas être modélisés avec les techniques d'apprentissage profond existantes ? Je ne dis pas « mettre plus d'ordinateurs jusqu'à ce que ça marche » et faire un modèle de plus en plus gros. Pensez-vous qu'il existe des processus qui, physiquement, ne peuvent pas être modélisés avec l'architecture que nous avons ?
Il y a certainement beaucoup de processus qui ne peuvent pas être modélisés aujourd'hui, mais cela revient à ce que j'ai dit à la fin de la conférence. Je ne suis pas sûr qu'il y en ait dans l'absolu. Je pense qu'au final si la physique peut le résoudre et qu'il y a une structure là à apprendre, probablement qu'avec assez d'exemples on pourrait faire de l'ingénierie inverse d'un modèle de cela. Je ne vois aucune raison théorique pour laquelle un système classique, bien que très complexe, ne pourrait pas faire de prédictions ou de simulations de ce système biologique. Je ne vois pas vraiment de limite à ce que cela pourrait être. Il y a beaucoup de choses abstraites comme la factorisation de grands nombres, la cryptographie, où ce sont des systèmes créés par l'homme où il peut ne pas y avoir de structure. Enfin, il peut y avoir une structure dans les nombres naturels, beaucoup de gens conjecturent qu'il y en a une. S'il y en a une, alors cela sera aussi apprenable. S'il n'y en a pas, et que c'est une sorte de distribution uniforme, alors vous auriez besoin d'un ordinateur quantique pour casser la cryptographie. Ce sont des conjectures ouvertes, mais je pense que la plupart des choses dans la nature ont évolué au cours du temps géologique, biologique ou physique, ce qui me suggère qu'il y a une certaine structure à apprendre. Cela rend la recherche ou la prédiction potentiellement gérable.
Q&A : L'IA dans le développement de jeux vidéo
Cette question vient de la part de la Cambridge University Game Development Society. Vous avez mentionné le modèle Genie 2 et comment il est actuellement stable pour quelques secondes de cohérence et que vous espérez éventuellement avoir cela à quelques minutes. Mais je suppose que la question que se pose notre société est la suivante : les jeux auxquels nous jouons réellement ont une cohérence indéfinie. Quand on joue à Minecraft, on s'attend à ce qu'en se retournant, le village soit toujours là. Voyez-vous donc votre modèle actuel être intégré dans un flux de travail ou comment voyez-vous exactement l'IA, votre modèle et ce sur quoi vous travaillez s'intégrer dans le développement de jeux au cours des prochaines décennies ?
Je pense qu'il y a plusieurs façons dont l'IA va intervenir. L'une d'elles concerne les outils pour construire les actifs dont on a besoin pour les jeux. Les modèles 3D, les animations, tout cela va arriver dans les deux prochaines années. Je pense qu'on peut penser à l'IA pour l'équilibrage des jeux. Imaginez que vous conceviez un jeu et que pendant la nuit, l'IA puisse jouer un million de parties de ce jeu et qu'ensuite, le matin, vous puissiez simplement obtenir un rapport en tant que concepteur de jeu disant par exemple : ces choses sont déséquilibrées, ou réduisez la puissance de cette unité. Je pense aussi au test de bogues pour les jeux en monde ouvert. J'avais l'habitude de faire des jeux de simulation, des jeux en monde ouvert, c'est un cauchemar à tester parce que tout l'intérêt est que le joueur peut faire presque n'importe quoi et ensuite le jeu réagira à vous. Comment tester 10 millions de personnes ayant chacune leur propre parcours unique dans votre jeu ? Avoir des joueurs IA qui y jouent avant de le sortir pourrait vous aider à résoudre beaucoup de ces bogues. Enfin, ce qui est passionnant aussi, ce sont les personnages d'IA qui sont beaucoup plus vivants et qui font avancer l'intrigue. On rêvait de cela dans les mondes multijoueurs massifs où, en fait, les personnages d'IA étaient intelligents et mettaient à jour leurs croyances et leurs intrigues en fonction de ce que faisaient les joueurs. On avait l'impression d'un monde beaucoup plus vivant et réaliste. Je pense que nous sommes à l'aube de construire ces types de jeux. Enfin, le modèle du monde que nous construisons concerne davantage l'IA générale et pouvez-vous réellement modéliser le monde : c'est une expression de la capacité à comprendre le monde. Votre modèle comprend-il le monde ? S'il peut le générer pendant un certain temps, alors de toute évidence il doit d'une certaine manière comprendre : c'est une sorte de preuve empirique qu'il comprend quelque chose de la physique sous-jacente. C'est plus pour l'intelligence générale. Peut-être qu'un jour nous aurons ce truc d'holodeck que vous pourrez simplement imaginer et qui sera tout là autour de vous. Probablement que nous pourrons avoir cela une fois que nous aurons l'AGI, mais je pense que c'est encore un peu loin.
Génial. Cela semble être un bel endroit pour terminer, en revenant aux jeux. Merci à tous d'être venus et un merci tout particulier à Demis d'être venu nous parler aujourd'hui. Merci les gars.