L'IA à la TU Berlin : Une conversation avec Sam Altman, Volker Markl et Nicole Büttner
7 février 2025
Artificial Intelligence
Introduction et Présentation des Panélistes
Très bien, tout le monde. Bienvenue. Merci d'être venus et de nous rejoindre également via le livestream aujourd'hui. Cet événement a suscité beaucoup d'intérêt pour de bonnes raisons. Plus de 4 000 personnes ont essayé d'y assister, et il a été complet en 30 minutes. Nous avons donc une salle comble ici dans l'amphithéâtre Audimax et je suis très heureuse de voir tout le monde ici aujourd'hui. Je suis ravie d'accueillir nos invités spéciaux, nos panélistes et vous tous aujourd'hui. Nous réunissons des leaders et des experts de l'IA de pointe pour discuter du pouvoir transformateur de l'IA à la fois dans le monde académique, l'industrie, mais aussi dans la société. Je m'appelle Fatma Deniz. Je suis professeure en informatique à l'intersection des neurosciences et de l'intelligence artificielle, et également vice-présidente de la numérisation et de la durabilité ici à la TU Berlin.
Je pense que cet événement est aussi thématiquement un moment fort pour moi. Et je pense aussi que c'est une façon fantastique, d'une certaine manière, de conclure notre semestre, qui se terminera la semaine prochaine vers la fin de la semaine. Aujourd'hui, nous discuterons des nombreux potentiels et défis de l'IA. Entre autres, nous parlerons de la manière dont nous pouvons exploiter l'IA pour le bien commun tout en atténuant ses risques. Avec ces quelques mots d'introduction, plongeons dans la conversation et accueillez s'il vous plaît nos panélistes, nos invités qui me rejoignent sur scène, Sam Altman, Volker Markl et Nicole Büttner. Venez s'il vous plaît.
Bienvenue. J'aimerais présenter brièvement nos invités. Nous avons un véritable poids lourd du monde de l'IA et des startups directement à ma gauche, Sam Altman, l'homme du moment. De ses jours chez Y Combinator à la direction d'OpenAI, Sam a passé sa carrière à enthousiasmer et irriter, ainsi qu'à motiver et mettre au défi ses collègues, concurrents, scientifiques et les médias de la même manière. Accueillez s'il vous plaît Sam Altman.
Vient ensuite Volker Markl. Je l'appelle notre magicien des données. Professeur d'informatique ici à la TU Berlin, titulaire de la chaire des systèmes de bases de données et de gestion de l'information, scientifique en chef au Centre de recherche allemand pour l'IA, ainsi que co-directeur de BIFOLD, l'un des six instituts nationaux d'IA ici en Allemagne. Volker est une force motrice derrière certaines des infrastructures de traitement de données et d'IA les plus avancées du marché. Accueillez s'il vous plaît Volker.
Je suis également ravie d'accueillir une figure de proue de l'IA, de l'économie et de l'innovation, Nicole Büttner. Elle est la PDG de Merantix. Elle est économiste, entrepreneuse, experte en IA et investisseuse. Tout cela en rendant les technologies de pointe compréhensibles pour les entreprises et les décideurs politiques. Accueillez s'il vous plaît Nicole Büttner.
Interaction personnelle avec l'IA
D'accord, je me pose cette question parce que je me surprends peut-être à le faire quand j'utilise des chatbots. Êtes-vous réellement aimable avec vos chatbots ? Posez-vous des questions ou terminez-vous vos questions par s'il vous plaît et merci ?
Oui, je le fais.
Vous le faites ? Et vous, Volker ?
J'avais l'habitude de le faire, mais tout récemment, je pense que je ne le fais plus autant.
Je le fais aussi. Je n'ai aucune explication rationnelle pour cela, mais je le fais.
L'IA dans le monde académique et scientifique
J'étais aussi très ambivalente là-dessus, mais ça va et vient. D'accord, donc Sam, ce sont des temps assez chargés pour OpenAI et surtout pour vous ; nous sommes d'autant plus heureux de vous accueillir à la TU. Permettez-moi de vous poser cette question. Les chatbots comme ChatGPT sont utilisés aujourd'hui pour l'inspiration, pour la rédaction de textes et aussi la synthèse. Fondamentalement, cela nous aide à gagner du temps et à prendre des raccourcis. Mais qu'est-ce que cela signifie, selon vous, pour le travail scientifique et académique ? Et si les idées les plus perspicaces venaient du fait que nous prenions notre temps et ne prenions pas de raccourcis ?
Nous avons lancé lundi quelque chose qui s'appelle Deep Research. Deep Research est, je pense, un moment presque comparable à ChatGPT dans la façon dont les gens réagissent. Les scientifiques sont parmi les plus enthousiastes. Vous pouvez donner une requête à Deep Research et il peut faire un tas de recherches pour vous. Il peut accomplir des tâches qui vous prendraient de nombreuses heures, des jours, parfois des semaines. Il ne va pas, du moins dans sa forme actuelle, générer beaucoup de nouvelles idées profondes. Mais en termes de regroupement d'informations pour vous permettre de faire ce que vous pouvez faire en tant que scientifique ou chercheur, c'est vraiment génial. C'est ainsi que je pense que cela est censé fonctionner. L'IA nous aide à gagner du temps dans certains domaines et nous pouvons ensuite travailler à un niveau supérieur. C'est l'histoire des humains qui fabriquent des outils. Nous vous permettons de faire plus en laissant la machine faire des choses que vous deviez faire auparavant, puis vous êtes libéré pour un niveau d'abstraction supérieur. Je pense que tout sera génial.
D'accord, merci. Volker, comment pensez-vous que Deep Research, par exemple, ou l'IA générative en général, pourrait transformer la science et la recherche ?
Il y a de nombreux aspects différents à cela. Le premier est bien sûr la transformation des sciences naturelles. L'un des points importants est d'arriver à des modèles de fondation dans ce domaine. Ces modèles de fondation, parce qu'une grande partie des données y sont de structure et de modalité différentes, nécessitent encore des experts pour l'entraînement et l'intégration. La question est de savoir comment faire mieux ? Mais je pense que nous voyons déjà les premiers pas vers cela dans des domaines comme la pathologie ou l'observation de la Terre ou d'autres où ces modèles de fondation sont en cours de création et peuvent être utilisés. Il y a un effet transformateur sur les sciences à cet égard. Bien sûr, si nous parlons d'informatique, l'une des choses que beaucoup de gens utilisent pour, comme vous l'avez dit, prendre des raccourcis ou accélérer les choses, ce sont les copilotes, ce qui est un aspect important ici. Vraiment utiliser les outils afin d'améliorer la programmation. Pour de nombreux scientifiques, ne pas avoir à réfléchir à une logique Python complexe ou à des choses de ce genre et faire cela via le copilote est selon moi une énorme valeur ajoutée qui change réellement les sciences. C'est moins vrai si vous faites des sciences des systèmes car là, le code est plus dans la longue traîne de l'entraînement et ne fait généralement pas partie des modèles de fondation si je veux construire un nouveau système de base de données, un moteur de traitement de flux ou autre. C'est évidemment plus difficile. Mais l'intégration d'API et les tâches d'analyse standard, c'est un outil très puissant. En ce sens, c'est clairement transformateur. De plus, si nous regardons d'autres types de sciences comme les sciences humaines, adapter les modèles par rapport aux textes, par rapport aux données spécifiques au domaine, ce qui est en train de se passer, offre beaucoup de possibilités pour répondre aux questions dans certains domaines, et nous n'avons pas encore totalement compris les comportements émergents. Il pourrait encore y avoir des choses intéressantes qui en ressortent également.
Et Nicole, je pense qu'avec les possibilités de 'lab in the loop' et l'accélération de l'expérimentation, ce qui m'enthousiasme, c'est que ces modèles puissent ensuite contribuer également à la découverte de connaissances. Et je pense que c'est quelque chose que j'attends vraiment avec impatience.
Je pense que nous sommes à quelques années d'une découverte majeure réalisée par l'IA de manière autonome.
Plutôt cool. Totalement.
Mhm.
Mais peut-être aussi du côté des entreprises, pensiez-vous que les chatbots de type ChatGPT changeraient autant la donne aussi dans les entreprises ?
Dans quelles entreprises ? De quelle manière ? Ils ont changé la donne en ce sens. Je pense que c'est une question intéressante parce que nous voyons beaucoup d'adoption. Nous savons que les entreprises allemandes sont en fait très curieuses à ce sujet, l'utilisant beaucoup. Il y a des premières expérimentations, nous voyons cela beaucoup avec les systèmes RAG et je pense que c'est génial. Nous devons commencer cette adoption. Personnellement, je suis plus excitée par ce qui arrive et ce qui nous attend quand nous regarderons vraiment les applications métier de base et que nous commencerons à créer de la valeur. Tout un écosystème sera nécessaire pour faire cela. Il y aura des gens qui utiliseront ChatGPT ou Copilot pour cela, mais un autre niveau d'interaction avec la technologie est également nécessaire. Nous ne faisons qu'effleurer la surface pour le moment et nous devons travailler sur des aspects comme les données, les capacités et la vitesse technique pour intégrer cela réellement dans les processus métier et aller au-delà des simples systèmes RAG. Je pense que ce sera vraiment passionnant.
Peut-être juste pour en parler du point de vue de l'université, nos clients sont les étudiants. Il y a bien sûr aussi des opportunités intéressantes que l'on peut explorer sur la manière de tirer parti des grands modèles de langage pour les étudiants, ou en général des modèles de fondation. Il y a les cas d'utilisation évidents que les étudiants utilisent de nos jours, à savoir la synthèse de texte, et nous devons ensuite veiller à ce que, lorsque des questions sont répondues par GPT, l'effet d'apprentissage pour l'étudiant soit toujours présent. Cependant, ce qui est vraiment intéressant, c'est d'avoir un chatbot comme tuteur ; un tuteur réellement individualisé qui enseigne, dans notre cas, peut-être du contenu sur les systèmes de bases de données et avec lequel on peut interagir en fonction de ses capacités d'apprentissage individuelles d'une part, et aussi en fonction de l'orientation du cours. Je pense qu'il y a beaucoup de potentiel dans cet espace qui finira par révolutionner l'enseignement dans une certaine mesure car cela soulagera les enseignants et les assistants d'enseignement rares et leur permettra de se concentrer sur les choses plus difficiles. Je pense que c'est une excellente opportunité que nous devons saisir et je pense que certaines personnes la saisissent déjà.
Partenariat de recherche OpenAI et BIFOLD
Oui, nous reviendrons probablement vers la fin aussi sur les risques pour la société dans ces domaines, quelles sont les craintes à cet égard. Mais j'aimerais peut-être aborder les nouvelles que nous avons eues aujourd'hui entre OpenAI et BIFOLD. Vous venez de lancer un partenariat de recherche qui permettra à OpenAI de fournir 50 000 dollars de crédits API pour faciliter l'exploration du modèle o3 dans ce cas. Parallèlement, vous étudiez ensemble de nombreuses nouvelles opportunités de recherche. Quelles sont vos attentes lorsque vous vous associez à une organisation de recherche fondamentale de ce type ?
Il y a de nombreuses raisons pour lesquelles je suis enthousiasmé par l'IA. Nous en avons parlé un peu plus tôt. La chose qui m'enthousiasme le plus est ce que cela va faire pour la découverte scientifique. Je crois que si nous pouvons accélérer la découverte scientifique, si nous pouvons faire 10 ans de science en un an et un jour 100 ans de science en un an, ce que cela fera pour la qualité de vie, comme résoudre nos problèmes les plus pressants, s'attaquer au climat, rendre la vie simplement meilleure de toutes sortes de façons, guérir des maladies, ce sera un cadeau incroyable. Et je pense que l'IA va enfin permettre cela. Combien de personnes se sentent plus intelligentes que GPT-4 ?
D'accord, combien d'entre vous pensent qu'ils seront encore plus intelligentes que GPT-5 ?
Je m'attendais à plus de mains levées ici.
Je ne pense pas que je serai plus intelligent que GPT-5. Et je ne me sens pas triste à ce sujet parce que je pense que cela signifie simplement que nous pourrons l'utiliser pour faire des choses incroyables et que nous voulons que plus de science soit faite. Nous voulons permettre aux chercheurs de faire des choses qu'ils ne pouvaient pas faire auparavant. C'est la longue histoire de l'humanité. Cela semble un peu différent cette fois à cause de ce que cela peut permettre. Mais si les scientifiques peuvent faire des choses parce qu'ils ont un outil au QI incroyablement élevé et qu'ils peuvent se concentrer davantage sur la recherche des bonnes questions à poser, traiter les choses plus rapidement, parcourir leur espace de recherche plus vite, c'est tout simplement une victoire pour nous tous. Nous sommes donc ravis de pouvoir permettre cela.
Ces deux personnes qui ont dit être plus intelligentes que GPT-5, j'aimerais avoir de vos nouvelles dans quelque temps. De notre point de vue, à un haut niveau bien sûr, collaborer avec une entreprise ancre toujours la recherche dans une certaine mesure, ce qui lui donne plus de praticité et aide à se concentrer sur certains problèmes réels actuels. Il y a toujours le risque si vous travaillez sur des problèmes uniquement issus du monde académique que vous fassiez de la recherche dans une direction qui pourrait rater l'angle essentiel de la praticité. C'est un aspect. L'autre est bien sûr l'accès aux ressources, l'accès aux modèles. Ceux-ci sont extrêmement précieux. Si nous regardons BIFOLD spécifiquement et la collaboration en particulier, nous menons des recherches sur l'application des modèles aux sciences et nous en avons déjà parlé auparavant avec Sam, des modèles de fondation en pathologie, des modèles de fondation en chimie quantique et d'autres. Comment peut-on exploiter les systèmes pour que des disciplines scientifiques très intéressantes, ce qui est l'un des cœurs de métier de BIFOLD, aboutissent à des idées novatrices ? Il y a ici une énorme promesse pour la médecine personnalisée, il y a une énorme promesse pour améliorer les soins. Je dis cela parce que BIFOLD, c'est à la fois la TU Berlin et la Charité, l'hôpital universitaire, il y a donc beaucoup d'opportunités dans le domaine de la santé. Et nous commençons tout juste à les aborder. D'autre part, au sein de BIFOLD, nous faisons aussi de la recherche sur les systèmes et je suis un spécialiste de la gestion des données. Cela concerne la conservation des données, l'intégration des données, juste l'étape de préparation. Car si nous regardons comment les modèles sont entraînés, nous avons toutes ces différentes étapes. Comment pouvons-nous les rendre reproductibles et documentées ? Et avec Sam, nous venons de parler de la manière dont vous pouvez expliquer les choses et des fonctionnalités qui en ressortent. Il y a d'un côté un besoin et de l'autre une opportunité d'examiner l'ensemble du processus qui inclut à la fois des systèmes pour rendre les choses évolutives et c'est une chose que nous faisons au BIFOLD, mener des recherches sur des algorithmes plus astucieux, sur des architectures de systèmes, sur des modèles de programmation qui nous aident à écrire efficacement des applications d'IA. D'autre part, bien sûr, des algorithmes intelligents, ce qui est vraiment le côté apprentissage automatique. Et l'entraînement reste assez coûteux. Pouvons-nous, tout en conservant de grands ensembles de données, devenir plus efficaces ? Parce que bien sûr, nous pouvons nous entraîner sur de petites données et faire de la composition de modèles, mais l'entraînement sur de grandes données — et je ne sais pas comment vous voyez cela Sam, mais je pense au comportement émergent qui porte bien sûr des promesses et des craintes, je devrais dire, mais que nous trouvons toujours très excitant. Ceux-là, nous ne les observerons probablement qu'en nous entraînant sur de grands ensembles de données. Du moins, c'est ce que je prévois : il est difficile de les obtenir à partir de petits ensembles de données parce qu'alors vous construisez déjà explicitement ce que vous voulez atteindre, contrairement à l'obtention de ce comportement inductif implicite.
Vers l'Intelligence Artificielle Générale (AGI)
J'entends déjà beaucoup d'opportunités de recherche pour le futur partenariat. C'est incroyable. Passons à l'AGI, l'intelligence artificielle générale. Votre ancien collègue Sam, dans ce cas, Dario Amodei, a récemment écrit un essai où il parle de sa vision de l'IA de nouvelle génération, l'AGI. Et il mentionne en se référant à l'AGI qu'il s'agit essentiellement d'un pays de génies dans un centre de données. Alors, êtes-vous d'accord tout d'abord ? Et qu'est-ce que cela signifie pour la prochaine génération de scientifiques en général ?
Je pense qu'à ce stade, nous sommes assez proches pour que la définition précise de l'AGI soit importante. Au moment où vous avez un expert mondial dans chaque domaine travaillant ensemble inlassablement, je pense que cela dépasse ce que la plupart des gens considéreraient comme une AGI. Je dirais que je pense que nous parviendrons à quelque chose dans les deux prochaines années que beaucoup de gens regarderont en disant : 'Je ne pensais vraiment pas qu'un ordinateur allait faire ça'. Et puis je pense que nous arriverons à quelque chose capable de répondre à la question du progrès scientifique, 10 ans de science en un an ou autre. C'est plus lointain. Mais ce sera le moment où je pense que le monde changera vraiment beaucoup plus rapidement et obtiendra d'énormes bénéfices. Il semble que nous soyons sur une trajectoire assez abrupte. Il y a eu tous ces discours l'année dernière disant que le passage à l'échelle était terminé, que cela n'allait pas fonctionner. Et nous avons trouvé un nouveau paradigme et nous avons maintenant ces modèles de raisonnement et ils sont vraiment intelligents. Cela va continuer à monter en échelle pendant un certain temps. Et je m'attends à ce qu'après cela, nous trouvions encore un autre paradigme. Une chose que j'ai apprise en général, c'est que chaque fois que vous voyez ces courbes exponentielles abruptes dans la technologie, vous ne devriez pas parier contre elles. Et je pense que vous devriez tous être très sceptiques quand les gens commencent à dire que cela va s'épuiser ou que cela va s'épuiser, que nous allons atteindre cette limite. Il nous semble que nous avons ce déblocage fondamental d'un algorithme qui peut réellement, véritablement apprendre, et cela va continuer. Nous rencontrerons des obstacles, nous devrons trouver comment les surmonter. Mais je pense que nous parviendrons à l'AGI et au-delà, et que ce sera juste une progression fluide à partir d'ici.
D'accord, peut-être une question de suivi là-dessus. Qui serait, selon vous, actuellement le mieux équipé pour vérifier de manière indépendante les affirmations d'obtention de l'AGI ?
La seule chose qui compte est la quantité d'utilité qu'elle apporte aux gens. Donc si elle vous est utile au-delà d'un certain seuil, tant mieux. Et si un groupe d'experts veut débattre pour savoir si c'est une AGI ou non, je ne pense pas que cela importe du tout. Je pense que ce sera simplement cette exponentielle continue et cette utilité croissante continue. Et la seule question est de savoir à quel point cela aide les gens, à quel point cela aide le monde.
Seriez-vous d'accord ?
Eh bien, je serais en fait d'accord. Je pense aussi que c'est probablement une cible mouvante. Nous verrons donc qu'au fil du temps, à mesure que la technologie progresse, l'AGI avancera encore et encore, mais en effet, le critère d'utilité que Sam vient de mentionner est selon moi l'élément clé ici.
Et je pense que c'est aussi quelque chose sur lequel nous devons davantage tenir nos promesses en tant qu'industrie technologique. Parce que nous débattons beaucoup de ce qui se passe, des derniers développements et évidemment nous sommes tous curieux à ce sujet. Mais je pense que pour beaucoup d'entreprises, nous voulons mettre cela — nous construisons cette technologie pour la mettre entre les mains des enseignants, des infirmières, des gens d'affaires pour qu'ils résolvent réellement et aident à résoudre les défis de l'époque, la pénurie de main-d'œuvre, les nombreux services que nous devons fournir avec des contraintes financières croissantes, des contraintes de temps, comme résoudre des maladies et ainsi de suite. Donc je pense que c'est quelque chose qui m'intéresse encore plus : comment, quand nous y serons, nous devrons être prêts à l'apporter aussi aux gens d'une manière très utile. Ce mécanisme de traduction et ce pont sont, je pense, une partie vraiment cruciale à avoir définitivement fixée d'ici à ce que nous atteignions l'AGI.
En gros, nous pouvons convenir que les individus qui l'utilisent et en tirent les bénéfices sont ceux qui pourraient juger le système également dans ce cas pour son intelligence générale ou non.
Oui.
Investissements et Infrastructure : Le projet Stargate
D'accord, changeons un peu de sujet pour parler des investissements dans l'IA. Il y a été des moments passionnants aussi aux États-Unis. OpenAI a récemment annoncé le grand projet Stargate, une nouvelle société qui investira environ 500 millions de dollars américains en quatre ans, je pense pour sécuriser...
Peut-être que nous le ferons en trois.
D'accord, le leadership américain comme vous l'appelez dans l'IA. Et il y a de grands acteurs comme Microsoft, Nvidia et Oracle parmi eux également. Mais à part la grosse pile d'argent, qu'est-ce que Stargate permettra, selon vous, qu'OpenAI n'aurait pas pu faire sans, dans ce cas, la coentreprise ?
Ouais. Il y a deux choses. Premièrement, avec un ordinateur beaucoup plus puissant, nous pouvons entraîner des modèles bien meilleurs. Et je pense que le monde ne veut pas que nous nous arrêtions à GPT-5 ou GPT-6 mais aimerait voir cela continuer. Et je pense que Stargate nous permettra de rester sur la même courbe d'amélioration que celle sur laquelle nous sommes depuis quelques années pour les prochaines à venir. Et cela devrait permettre d'aboutir à des modèles extrêmement capables. L'autre chose est que les gens veulent vraiment beaucoup utiliser ces systèmes. À mesure que nous progressons, nous continuons à faire baisser les coûts. Grosso modo, chaque année, nous pouvons prendre l'intelligence de l'année dernière et la rendre 10 fois moins chère, puis encore 10 fois moins chère. La loi de Moore a changé le monde en doublant tous les 18 mois, ici c'est un facteur 10 tous les 12 mois, c'est une différence super puissante. Mais quand nous faisons cela, la demande pour utiliser ces services semble augmenter bien plus que 10 fois. De plus, à mesure que nous entraînons ces modèles vraiment capables qui peuvent utiliser une énorme quantité de calcul au moment de l'inférence, vous pourriez vraiment être prêt à utiliser pas mal de calcul pour guérir le cancer. Et donc la quantité de calcul que nous pensons que le monde va demander pour faire fonctionner ces services augmente assez abruptement. Et si vous regardez notre propre consommation d'inférence, elle suit cette courbe. C'est donc l'autre partie du projet : permettre aux gens d'utiliser cela. Des centaines de millions de personnes utilisent les produits d'OpenAI en ce moment, ce seront bientôt des milliards, et ils les utilisent beaucoup et veulent les utiliser encore plus.
Merci. Et Nicole, en regardant peut-être le projet Stargate, de quoi pensez-vous que les entreprises européennes ont besoin en comparaison ?
Ouais, je veux dire qu'on parle beaucoup de la régulation de l'IA et des technologies en Europe et je suis entrepreneuse et investisseuse donc je veux parler des opportunités et je veux voir plus d'investissements. Et nous constatons que structurellement, quand nous regardons les entreprises en Europe par rapport aux États-Unis, par exemple, elles investissent moins dans l'innovation et la R&D structurellement qu'aux États-Unis et aussi dans différents types d'innovation, donc plus de 'middle tech' que de 'high tech'. Je pense que cela doit changer, et vite. J'ai donc hâte de bâtir des alliances avec de plus en plus d'entreprises pour rendre ce mécanisme de traduction réellement efficace et aider à la génération d'idées sur la façon dont ces investissements peuvent se traduire en valeur commerciale très rapidement. Je pense donc que c'est un très bon dernier signal d'alarme pour dire : 'Hé, nous sommes là, nous avons du capital, nous avons d'excellents talents, nous avons des pools de données très intéressants en fait en Europe, des industries très intéressantes ici'. Et comment pouvons-nous utiliser cet avantage unique pour le combiner avec d'excellentes technologies qui ont été construites — et auxquelles, soit dit en passant, beaucoup de chercheurs européens ont contribué — et vraiment créer beaucoup d'emplois, de croissance et de valeur commerciale, et résoudre beaucoup de problèmes. J'espère donc que cela donnera l'élan nécessaire et c'est ce que nous faisons chez Merantix, en essayant d'être également ce pont pour les entreprises.
Du point de vue de l'université, nos clients sont les étudiants. Il y a bien sûr aussi des opportunités intéressantes que l'on peut explorer sur la manière de tirer parti des grands modèles de langage pour les étudiants, ou en général des modèles de fondation. Il y a les cas d'utilisation évidents que les étudiants utilisent de nos jours, à savoir la synthèse de texte, et nous devons ensuite veiller à ce que, lorsque des questions sont répondues par GPT, l'effet d'apprentissage pour l'étudiant soit toujours présent. Cependant, ce qui est vraiment intéressant, c'est d'avoir un chatbot comme tuteur ; un tuteur réellement individualisé qui enseigne, dans notre cas, peut-être du contenu sur les systèmes de bases de données et avec lequel on peut interagir en fonction de ses capacités d'apprentissage individuelles d'une part, et aussi en fonction de l'orientation du cours. Je pense qu'il y a beaucoup de potentiel dans cet espace qui finira par révolutionner l'enseignement dans une certaine mesure car cela soulagera les enseignants et les assistants d'enseignement rares et leur permettra de se concentrer sur les choses plus difficiles. Je pense que c'est une excellente opportunité que nous devons saisir et je pense que certaines personnes la saisissent déjà.
Écoutez, l'Allemagne est un marché incroyable pour nous. C'est le plus grand marché d'Europe, c'est dans le top 5 mondial. Les gens font un travail incroyable avec l'outil. Je suis très convaincu que la plupart des Européens veulent que l'IA soit utilisée ici, qu'elle se développe ici, ils veulent qu'elle redynamise la croissance économique, ils veulent stimuler la science, ils veulent une infrastructure européenne. Et nous aussi. Nous aimerions beaucoup faire un Stargate Europe. Nous avons besoin d'aide, mais nous aimerions construire quelque chose ici pour que l'Europe puisse le gouverner et l'exploiter un jour. Je pense que ce serait génial. Nous voulons être capables de déployer nos produits en Europe aussi rapidement que dans le reste du monde. Je pense qu'une Europe forte est vraiment importante pour le monde et je pense que les Européens feront de grandes choses avec la technologie. Je pense que le peuple européen devra décider comment il veut fixer les règles pour cette technologie. Nous nous conformerons évidemment à ce qu'elles seront. Mais, et je suis évidemment de parti pris ici, je pense qu'il est dans l'intérêt de l'Europe de pouvoir adopter l'IA et de ne pas être à la traîne par rapport au reste du monde.
Réglementation et l'IA Act européen
Eh bien, cela m'amène directement à l'IA Act européen en général. Comment voyez-vous cela en tant qu'entreprise américaine regardant vers l'Europe ?
Nous nous conformerons à la loi et respecterons les souhaits du peuple européen.
C'est à vous tous de décider. Nous suivrons les règles.
Nicole, êtes-vous ?
Pardon ?
Êtes-vous d'accord ?
Mais vous devez décider. S'il y a des avantages à différents régimes réglementaires, il y aura des impacts économiques qui deviendront des impacts sociétaux.
Je pense que nous devrions avoir accès, en tant que continent, à la technologie de pointe. Je ne vois pas d'avantage à ne pas avoir cet accès pour être tout à fait honnéte et pour moi, la seule façon de façonner une technologie est d'y avoir accès, de la maîtriser, de travailler avec elle. Et je suis une grande partisane de ne pas sur-réglementer. Tout le monde ici le sait. Je pense aussi qu'il est très tôt pour le faire. J'ai donc le sentiment que nous voulons conserver ces capacités d'innovation et que nous voulons les encourager. Et je pense qu'il ne s'agit pas seulement de réglementation factuelle ; il y a tout un autre problème qui est d'être clair sur les règles et d'avoir des règles, quelles qu'elles soient, mais qui soient très claires. Mais je pense que c'est un état d'esprit, une question d'attention. Voulons-nous que les élites de notre pays, voulons-nous que tous les talents technologiques qui sont assis ici, se concentrent sur les règles ou voulons-nous qu'ils se concentrent sur les opportunités et sur la façon dont nous pouvons résoudre les problèmes ? C'est la question que nous devons nous poser et je suis très clairement dans le camp des opportunités.
Je ne peux que souscrire à ce que vous avez dit. Je pense qu'il est vraiment crucial que nous ne nous coupions pas des technologies et que nous ayons la capacité d'expérimenter, d'essayer et d'explorer. Bien sûr, il doit y avoir une réglementation pour prévenir les dommages au final, mais je pense parfois que la réglementation arrive prématurément et qu'il y a alors un énorme danger de couper l'économie, de couper les marchés et, en général, les opportunités.
L'Open Source dans le développement de l'IA
Super, cela m'amène au sujet suivant concernant l'open source. Peu après l'annonce du projet Stargate, nous avons eu une autre grande annonce d'une société chinoise qui a publié son chatbot open source, DeepSeek-R1. À l'université et dans la science, l'open source et l'open data sont extrêmement importants par rapport à ce que nous avons discuté plus tôt, l'explicabilité de l'IA mais aussi la reproductibilité. Je suppose qu'après la sortie de DeepSeek-R1, vous avez aussi récemment dit sur Reddit qu'OpenAI a été du mauvais côté de l'histoire en ce qui concerne l'open source. Alors, qu'est-ce que cette sortie, ou de manière générale l'open source, signifie pour OpenAI en termes de compétitivité, mais aussi pour l'IA générative en général ?
Oui, je pense qu'il y a clairement une place pour l'open source. Et il est bon d'avoir des modèles open source dans le monde car ils apporteront beaucoup de valeur aux gens. Nous pouvons débattre de savoir si l'AGI devrait être en open source ou non, mais je ne pense pas que quiconque puisse contester le fait que ces modèles, au niveau actuel, créent de la valeur en étant en open source. Donc je pense que c'est bien. Nous avons beaucoup de priorités, c'est pourquoi c'est plus facile à dire qu'à faire, mais je suis heureux qu'il y ait de bons modèles open source dans le monde.
Et avez-vous actuellement des discussions au sein d'OpenAI à ce sujet ?
Oui, nous en avons. Nous n'avons pas encore pris de décision, mais oui.
D'accord, cool. Volker, quels sont selon vous les avantages et les inconvénients de cela ?
Je pense qu'il y a quelques aspects. Il y a les modèles open source, l'ouverture des données d'entraînement, l'ouverture du processus d'entraînement. D'un point de vue scientifique bien sûr, il est très précieux d'avoir les trois ouverts car cela permet une exploration plus poussée, cela permet l'apprentissage, cela permet également d'apporter des améliorations scientifiques. Il est bien sûr entendu que les entreprises qui investissent des sommes importantes peuvent ne pas être incitées à le faire. Donc je comprends cela aussi. Mais d'un point de vue scientifique bien sûr, pour nous c'est crucial et je pense que dans les sciences, nous verrons cette tendance de l'open source aussi pour d'autres raisons comme la reproductibilité et cela peut même aider à l'explicabilité. Il est peut-être aussi intéressant de souligner que très souvent, l'open source est arrivé après coup. Si nous regardons l'histoire de l'informatique, il y a d'abord eu les systèmes propriétaires (à code source fermé) et au fil du temps, quand certaines choses se sont banalisées, elles sont devenues open source. C'est aussi parfois une stratégie marketing pour les suiveurs efficaces. Mais je dirais qu'à l'avenir, nous verrons probablement plus de modèles open source, plus de processus d'entraînement et de données en open source, espérons-le, dans des domaines spécifiques, en particulier dans les sciences.
Mais ne convenez-vous pas aussi que le fait que, dans le cas des grands modèles de langage mais en général dans l'IA, le fait que beaucoup de choses aient été mises en open source dès le début a permis de démultiplier et d'accélérer ce développement ?
Absolument, oui. C'est la clé ; c'est ainsi que la science fonctionne. La science consiste à publier, la science consiste en des processus publics ouverts. C'est totalement compris dans le processus scientifique, c'est juste une bonne démarche scientifique. Rendre les choses ouvertes. C'est ce qui, à mon avis, devrait être et est aussi la plupart du temps l'exigence pour tous les scientifiques financés par des fonds publics. C'est certain.
Alors Nicole, question directe. Je me demande si vous pensez aussi que cela a maintenant rendu le domaine plus égalitaire en termes d'entreprises ? Parce que nous avons maintenant la possibilité, par essence, d'avoir aussi des chatbots open source.
Eh bien, je pense que pour moi, c'est comme un paysage d'innovation et c'est un écosystème. Il faut donc différentes parties pour que cela fonctionne vraiment bien. Vous avez besoin de gens qui repoussent les limites et nous savons que c'est aussi une question de ressources ; l'accès à ces infrastructures de calcul est essentiel et tout le monde ne pourra pas en disposer. Nous pouvons débattre de savoir si c'est bien ou mal et comment nous voulons le faire en tant que sociétés et économies. À l'heure actuelle, c'est un goulot d'étranglement. J'ai donc le sentiment qu'il est bon qu'il y ait de l'open source, qu'il y ait plus de gens qui contribuent, poussant également certains des innovateurs. Mais pour moi, ce n'est pas une question de 'l'un ou l'autre'. Et nous savons aussi qu'avec la technologie open source, pour la rendre utilisable au niveau de l'entreprise, cela nécessite une toute autre couche parce que ce n'est pas comme si vous pouviez simplement la brancher pour la sécurité, la sûreté, pour toutes ces choses. Nous aurons besoin de ces solutions. Pour moi, ce n'est pas l'un ou l'autre, c'est un écosystème et tout va aller de pair et, espérons-le, accélérer et rendre le développement diversifié et amener tout le monde à bord pour repousser les limites.
Efficacité énergétique et impact climatique
D'accord, j'aimerais parler un peu de quelque chose que vous avez abordé, Volker, mais aussi vous Sam plus tôt : l'efficacité des données, mais aussi la consommation d'énergie. Quelque chose à quoi je pense beaucoup de personnes dans l'auditoire pensent aussi. Jusqu'à récemment, les entreprises d'IA se concentraient davantage sur l'entraînement de modèles de plus en plus gros sur des ensembles de données de plus en plus vastes. Nous avons la discussion sur le fait que les données deviennent un goulot d'étranglement, même dans les communautés scientifiques. Mais nous avons maintenant le changement — et encore une fois, nous en avons discuté plus tôt — vers des modèles de raisonnement plus poussés. Et pour arriver à de meilleures réponses, ces modèles utilisent de plus en plus de calcul également au moment de l'inférence. Alors, quelles capacités les modèles de raisonnement offrent-ils qui n'étaient pas possibles auparavant avec le pré-entraînement traditionnel ?
Ouais, les modèles deviennent incroyablement efficaces. Si vous pensez aux watts par jeton (token) pour donner une réponse de très haute qualité, nous sommes probablement plus efficaces qu'en demandant à un humain par rapport à la nourriture qu'il doit consommer pour fonctionner ; ils deviennent super super efficaces. Je me souviens d'il y a très longtemps, quand Google est sorti pour la première fois, il y avait une sorte de panique morale parce que les gens disaient : 'Oh, pour poser cette seule question, vous utilisez toute cette électricité dans le centre de données, c'est horrible'. Et je me souviens avoir pensé : 'Eh bien, ce qu'il remplace, c'est quelqu'un qui démarre son moteur de voiture, conduit pendant 15 minutes jusqu'à la bibliothèque, cherche quelque chose, revient'. Et même s'ils le font 100 fois de plus parce que la friction est moindre, c'est bien moins de consommation d'énergie qu'auparavant. L'IA aujourd'hui utilise une infime partie de l'énergie mondiale. Elle est en fait assez efficace par requête. Et l'approche qui m'intéresse le plus... il y a totalement un monde où nous disons : 'Nous allons interdire l'IA, elle utilise trop d'énergie, nous allons interdire les ordinateurs et nous allons interdire les ampoules pendant qu'on y est, et nous allons rester assis dans le noir et nous n'allons consommer aucune énergie'. C'est un monde que nous pourrions choisir. Mais il y en a un autre où nous disons que nous allons utiliser l'IA et même si nous devons utiliser des centaines de mégawatts ou de gigawatts pour ce problème, si nous pouvons utiliser l'IA pour découvrir comment faire de la fusion efficace, de la fusion bon marché, puis répliquer très rapidement les milliers de gigawatts de capacité de production qui brûlent du carbone dans le monde, ce serait une énorme victoire. Et je pense que c'est la promesse de l'IA. Je pourrais donc rester assis ici et avancer des arguments sur l'efficacité, mais ce que je dirais vraiment, c'est que nous sommes totalement foutus si nous ne trouvons pas de nouvelles solutions scientifiques pour relever le défi climatique qui nous attend. Nous avons manifestement échoué à le faire assez vite par nous-mêmes sans l'IA. Essayons avec l'IA.
Mais pensez-vous que, même en termes de réseaux électriques nationaux, etc., l'énergie renouvelable puisse combler l'écart des besoins énergétiques que nous avons ?
Je pense que la fusion sera la façon dont la majeure partie de l'énergie sur Terre sera générée dans quelques décennies. Je pense que tout ira très bien.
Volker, peut-être dans ce contexte, je serais plus intéressé par votre point de vue sur l'évaluation de l'importance des données de haute qualité et aussi des pipelines de données efficaces pour l'utilisation de l'IA. Désolée, pourriez-vous répéter cela ? La haute qualité des données et les pipelines de données efficaces afin de traiter les données de manière efficace également.
Comme je l'ai dit, je suis d'accord avec Sam. Bien sûr, nous devons regarder comment nous utilisons les données efficacement ainsi que les modèles.
Mais il y a un aspect, en effet, il ne s'agit probablement pas seulement d'utiliser les modèles existants. La question est : pouvons-nous améliorer le processus d'entraînement de manière algorithmique ? Car cela pourrait faire baisser les choses. Il pourrait y avoir des améliorations au niveau du matériel qui nous aideront également, en plus bien sûr d'utiliser ce que nous avons maintenant.
Mais c'est bien sûr le rôle de la science de nous faire progresser ici. Et nous pouvons le faire de manière algorithmique. Et il y a eu — nous en avons déjà discuté un peu — le dépassement de la complexité quadratique de l'entraînement. Ce serait donc déjà une énorme victoire pour l'efficacité énergétique si l'on pouvait ramener cela à, disons, n log n.
Et il pourrait y avoir d'autres modèles que le mécanisme d'attention et les transformeurs à l'avenir qui nous aideront à améliorer cela. Et c'est aussi une recherche active que nous menons dans nos groupes et que de nombreuses personnes dans le monde étudient.
En même temps, bien sûr, je ne suis pas un spécialiste du matériel, mais les améliorations matérielles sont un autre aspect où la consommation d'énergie finira, espérons-le, par baisser. C'est donc une approche holistique et nous devons regarder ce processus global.
Mais là où je rejoins Sam également, c'est de regarder la consommation d'énergie de manière holistique. L'IA a un coût, mais elle a aussi un bénéfice qui compense la consommation d'énergie. Et je pense qu'en regardant cela de manière holistique, on risquerait sinon d'oublier les bénéfices.
Mais encore une fois, il faut bien sûr être attentif et nous savons que nous sommes à l'ère du changement climatique, nous sommes dans une ère de problèmes et nous devons nous assurer que quoi que fasse l'IA, elle aide à les résoudre et non à les aggraver.
Donc en gros, nous devons traiter cela de manière très responsable dans ce cas et garder tous les risques à l'esprit.
Auto-réplication et responsabilité des entreprises
Alors avant de passer aux questions-réponses, parce que nous avons eu beaucoup d'intérêt et de questions de l'auditoire également, si nous faisons référence maintenant un peu à la science-fiction et pensons au HAL de l'Odyssée de l'espace.
Attendez-vous que les premiers modèles de fondation qui font preuve d'AGI soient capables de s'auto-répliquer, de s'auto-améliorer, de s'auto-modifier, par exemple, en fonction d'un besoin émergent ? Et plus important encore, si vous vous attendez à cela, OpenAI en serait-elle consciente, ou les entreprises en seraient-elles conscientes ? Et quelles sont les responsabilités que vous voyez pour des entreprises comme OpenAI dans le signalement de cela et de son impact social potentiel ?
Ouais, je pense qu'il y a des gens qui ne considèrent pas cela comme une AGI tant qu'il ne s'agit pas d'une sonde spatiale s'auto-répliquant et s'auto-améliorant ou quelque chose du genre. Je le compterai personnellement comme une AGI bien avant ce cap. Et oui, bien sûr, nous avons la responsabilité de le dire aux gens si nous nous en approchons. Nous le ferons. Nous le dirons aux gens.
Savez-vous comment ?
Comment nous le dirons aux gens ?
No, comment communiquer cela et comment déceler même ce désir à l'intérieur ?
Oh, comment nous le verrions dans le système ? Je pense que ce sera progressif. Les gens parlent de l'auto-amélioration comme d'une chose très binaire, mais en réalité, ce sera du genre : cela peut aider le scientifique à travailler un peu plus vite, puis beaucoup plus vite, et maintenant il peut faire plus, et encore plus. Donc je ne pense pas que ce soit un binaire net, mais nous verrons quelque chose sur la variation de la pente de la courbe.
Q&A : Explicabilité et confiance dans les boîtes noires
D'accord. Eh bien, merci pour cette partie. Nous passons aux questions-réponses. Comme je l'ai mentionné plus tôt, nous avons eu beaucoup d'intérêt. Nous avons eu plus de 1 000 questions différentes. Ce que nous avons fait en fait, c'est de regrouper ces questions et de les sélectionner par thèmes comme étant représentatives. Et je vais lire certaines de ces questions et les poser à l'auditoire. Et nous verrons à combien d'entre elles nous pourrons répondre, mais je ferai de mon mieux pour respecter le temps imparti.
La première question vient d'Oliver. Et Oliver dit : 'Je suis curieux d'entendre l'avis des panélistes sur le progrès de la société et de l'économie avec des produits qui fonctionnent comme par magie. C'est-à-dire que nous ne comprenons pas comment ils fonctionnent. Une analogie : comment aurions-nous pu réussir à construire des voitures qui sortent d'une usine-boîte noire ? Alors, comment pouvons-nous aussi faire confiance à ces modèles qui sont tous des boîtes noires pour nous actuellement en termes d'IA explicable ?'
J'utilise tous les jours des produits dont je ne comprends pas le fonctionnement. Et si je comprends qu'une entrée particulière m'apportera une sortie particulière, je peux utiliser des systèmes incroyablement complexes. Peut-être que je comprends comment fonctionne une voiture. Je ne comprends certainement pas comment fonctionne un microscope électronique. Je pourrais le dessiner sur une serviette en papier, mais je ne peux pas vous en fabriquer un. Mais je pourrais en utiliser un. Et je pense que c'est très bien.
Je pense que nous devons avoir un haut niveau de robustesse et de prévisibilité, et une sécurité généralement acceptée pour les modèles d'IA. Mais les utilisateurs sont également sophistiqués et ils comprennent très bien quand faire confiance et quand ne pas le faire.
Et probablement que la plupart d'entre eux ne pourraient pas l'entraîner, mais c'est correct. C'est l'échange de valeur économique du monde. Certaines personnes construisent quelque chose, elles comprennent suffisamment comment cela fonctionne. Nous ne le comprenons pas parfaitement, mais nous le comprenons étonnamment bien. Et la beauté, notre travail et ce pour quoi nous sommes payés, c'est que nous voulons le rendre si simple à utiliser que vous l'utilisez, qu'il vous apporte une grande valeur, et que vous n'ayez pas à penser à chaque détail du processus d'entraînement.
Je veux dire, il y a bien sûr des considérations de sécurité dans les systèmes. Et si nous construisons traditionnellement des systèmes d'ingénierie, nous les concevons, nous essayons de rendre les choses prouvables comme étant correctes, nous examinons de nombreux aspects différents afin de s'assurer que nous pouvons les utiliser.
Et donc, la façon dont je vois les choses avec l'IA, nous n'en sommes pas encore là. Et donc la question est : pour quel genre d'aspects critiques peut-on l'utiliser et de quelle manière ? Si nous risquons une fusion nucléaire dans une centrale électrique à cause d'une certaine marge d'erreur, je pense que je préférerais me fier à un système dont l'exactitude est prouvable et qui a été construit sans IA pour le moment.
En même temps, bien sûr, il y a des systèmes où ce n'est pas si critique, où il faut alors porter un jugement. Et je pense que, comme toujours dans la société, c'est une question de jugement de savoir pour quels systèmes, avec quels dommages potentiels, quels préjudices potentiels, on peut utiliser l'IA dans ce contexte. Mais personnellement, je dirais qu'il y a encore des domaines où je considérerais que l'IA est hors limites en ce moment.
Cela dépend énormément du cas d'utilisation. Et je pense que quand nous parlons d'explicabilité, la question est aussi de savoir ce que nous entendons par là et ce que nous voulons réellement comprendre ? Est-ce que j'ai besoin de comprendre quel bord un algorithme a regardé dans une image, ou est-ce que je veux réellement comprendre s'il a regardé la tumeur et non quelque chose derrière sur la lame ?
J'ai donc le sentiment que nous devons réfléchir à ce dont nous avons réellement besoin. Et je vois que c'est critique dans certaines applications juste pour l'adoption parce que les gens hésitent dans certaines choses liées à la sécurité ou à la santé à utiliser le résultat s'ils ne peuvent pas comprendre d'une manière ou d'une autre comment il a été obtenu.
Mais je pense que c'est comme un humain. Je pense qu'en ce moment, c'est une illusion d'avoir une explicabilité à 100 %, même pour certaines décisions que je prends, pour être honnête. Ou pour tout le monde probablement, je ne sais pas.
Q&A : Qualité des données et principes FAIR
D'accord. La question suivante vient de Véronique. Véronique demande : 'Comment pouvons-nous garantir que l'IA n'utilise que des données dignes de confiance pour l'entraînement, en accord avec les principes de données FAIR (Faciles à trouver, Accessibles, Interopérables et Réutilisables) ?'
Eh bien, c'est une question de curation des données ; s'assurer que les sources de données que vous utilisez sont de cette nature, avoir certaines formes de validation. Et il y a bien sûr aussi des moyens semi-automatiques de le faire. Il y a beaucoup de recherche dans les domaines de l'extraction d'informations, de l'intégration d'informations, dont certains utilisent à nouveau des modèles d'apprentissage automatique pour le faire.
Et il faut les appliquer et avoir ensuite des freins et contrepoids pour valider. Donc bien sûr, et j'imaginerais que dans de nombreux cas on le fait. Par exemple, quand on construit des modèles de fondation pour des corpus spécifiques, comme la pathologie ou autre, on cherche à avoir ce genre de sources. Donc de cette manière, on doit le faire selon ces principes.
Je pense que ce qui est intéressant dans cet aspect, c'est que cela met en lumière la qualité des données et la façon dont nous voulons garantir cette qualité. Et là, je pense que l'interaction homme-machine sera intéressante car nous aurons besoin de beaucoup d'humains aussi pour vérifier certaines de ces choses et s'assurer que nous traitons avec des équipes diversifiées pour faire cela et encourager aussi les humains — par exemple, pourquoi un radiologue, pourquoi un avocat grassement payé voudrait-il donner son avis à des systèmes ?
C'est donc je pense une question de conception des bonnes interfaces et des choses pour lesquelles nous voulons être des enseignants de machines également pour certains de ces aspects.
Q&A : Défis techniques et avenir de l'intelligence
D'accord, je passe à la question suivante. Daniel demande : 'Quelles sont les plus grandes difficultés techniques pour rendre l'IA plus puissante, Sam ?'
De meilleurs algorithmes, des ordinateurs plus puissants, des ensembles de données plus difficiles sur lesquels s'entraîner, construire de meilleurs produits qui nous aident à en apprendre davantage grâce aux retours des utilisateurs sur ce qui ne fonctionne pas. Mais je ne saurais trop insister sur l'ampleur des progrès que nous allons faire, je pense, au cours des deux prochaines années. Nous savons comment améliorer ces modèles énormément et il n'y a pas d'obstacle évident devant nous.
Nous devons construire Stargate, nous devons faire beaucoup d'ingénierie de haut niveau, nos chercheurs doivent continuer à travailler, mais les progrès auxquels je m'attendrais de février 2025 à février 2027 seront selon moi plus impressionnants que ceux de février 2023 à février 2025.
Volker, aimeriez-vous ajouter quelque chose ?
Oui, juste pour ajouter à ce qui a été dit, je pense qu'il sera vraiment intéressant de voir comment nous pouvons incorporer des données multimodales et certaines des données plus éparses provenant de domaines d'application spécifiques de manière significative. Je pense donc que ce sera tout à fait intéressant pour la rendre plus puissante pour des domaines spécifiques alors.
Aussi, c'est tellement excitant pour vous tous. Vous allez avoir — vous allez pouvoir vivre et en quelque sorte accomplir un travail percutant dans cette rampe technologique la plus abrupte que n'importe lequel d'entre nous ait probablement jamais vue auparavant.
Si nous avons vraiment raison sur ce taux d'amélioration, les choses que vous pourrez faire en 2027, les choses que vous pouvez faire dès maintenant et qui étaient tout simplement impossibles il y a quelques années, les projets à lancer, la science à découvrir, les entreprises à créer, c'est incroyable.
Je suis d'accord avec ça. Nicole, avez-vous quelque chose ?
Oui, je veux dire, nous sommes tellement excités. Nous gérons également un fonds et nous sommes donc très enthousiasmés par les startups qui combinent cela avec des domaines très spécifiques dans la 'tech bio', les domaines médicaux et toutes sortes de domaines. Je pense donc que c'est un moment fantastique pour investir et voir cela se déployer ; c'est très excitant.
Q&A : Conseils pour les étudiants et adaptabilité
Alors cela rejoint un peu la question de Dilshot. Si vous étiez étudiant aujourd'hui, comment vous prépareriez-vous pour l'avenir ?
Eh bien, je vous laisse commencer.
Voulez-vous y aller en premier ?
Je pense que continuer à penser de manière critique sera assez important. J'aime aussi ce mot 'liminalité', je l'ai découvert récemment, c'est l'état entre ce qui a été et ce qui sera. C'est l'intersection de cela et je pense que nous le ressentons tous peut-être un peu, comme si le passé ne nous donnait plus d'options, mais le futur, nous pouvons sentir ce qui se passe sans savoir exactement ce qui se passe.
Et donc, être capable de gérer cet état de liminalité et d'ambiguïté tout en restant dans une démarche constructive, axée sur l'action et les résultats, embrasser cela, embrasser le fait que les choses changent, cela signifie qu'il y a beaucoup d'opportunités et je pense que c'est aussi une question d'état d'esprit.
La chose tactique évidente est de devenir vraiment bon dans l'utilisation des outils. Quand j'étais à l'université, la chose à faire était d'apprendre à programmer. Et c'était génial. Mais programmer au début de 2025 et à la fin de 2025 seront deux choses complètement différentes. Et vous voulez être du bon côté de cette tendance.
Donc apprendre à utiliser les outils d'IA, apprendre à faire bien plus que ce que vous pouviez faire auparavant, c'est la chose tactique évidente qui fait sens. Les choses moins évidentes sont, selon moi, l'adaptabilité et la résilience. Ce seront des compétences extrêmement importantes. Elles sont tout à fait s'apprenables et super pratiques, elles s'améliorent beaucoup avec la pratique.
La capacité à comprendre ce que les autres veulent, je pense que c'est aussi quelque chose qui s'apprend et quand l'IA peut en quelque sorte tout faire, tout créer, alors décider quoi faire et ce que les gens apprécient va être vraiment important. Et les humains sont tellement programmés pour se soucier des autres et de ce que les autres créent et je pense que cela va continuer.
Certaines personnes disent qu'il s'agit de trouver les bonnes questions à poser, mais je pense vraiment que la réponse est de comprendre ce que les autres veulent, ce qui va créer de la valeur, comment vous allez diriger l'IA ? J'étais auparavant investisseur de startups chez Y Combinator et l'une de mes plus grandes conclusions de cette expérience est que le degré auquel les gens peuvent apprendre cette compétence est bien plus élevé que ce que j'aurais pensé, et c'est quelque chose que je pense que nous devrions enseigner.
Je vous ai tous laissé répondre en premier parce que c'est une question très courante et ma réponse est toujours la même. Et la réponse est, au final, il y avait ce terme qui a été forgé sur l'étudiant en 'T' (T-shaped student) dont je pense que beaucoup d'entre vous ont entendu parler. Et un étudiant en 'T' signifie vraiment que vous devriez avoir des connaissances en largeur et des connaissances en profondeur.
Et je pense qu'il est très important de toujours posséder les deux. Et maintenant, vous pouvez bien sûr discuter dans votre domaine spécifique et votre sujet d'étude de ce que cela signifie. Par exemple, pour les informaticiens, comme l'a déjà dit Sam, la programmation, mais aussi une zone de spécialisation spécifique, qu'il s'agisse d'algorithmes d'apprentissage automatique, de systèmes de données, de robotique ou autre.
Vous devriez donc avoir un domaine de spécialisation que vous connaissez en profondeur. Et même si certaines des connaissances que vous y apprenez finissent par être obsolètes, vous aurez tout de même appris comment vous adapter, comment les transposer, ce qui rejoint l'adaptabilité dont on vient de parler. Et c'était un aspect intéressant, donc avoir des connaissances approfondies et des connaissances étendues.
Et quand nous avons reçu Eric Schmidt ici et que nous avons eu exactement la même question, à la fin cela s'est résumé par 'n'étudiez pas le marketing', c'était essentiellement ce qui en était ressorti de la part d'Eric Schmidt. Et la raison en était que ce sont des connaissances en largeur. Ce n'est bien sûr pas vrai, bien sûr vous pourriez aussi vouloir avoir des connaissances là-bas, mais vous devez aussi avoir une certaine profondeur technique en combinaison avec cela. Et c'est pourquoi je dirais toujours de suivre cette ligne directrice de l'étudiant en 'T'.
Perspectives pour 2025 et Conclusion
C'était une excellente leçon pour l'étudiant dans ce cas. Mais peut-être la dernière question pour tout le monde, juste si vous pouviez nous dire brièvement ce qui vous enthousiasme le plus pour l'IA en 2025.
Ouais, je m'en tiens à ma réponse sur le progrès scientifique.
Il y a beaucoup de choses pour lesquelles être enthousiaste. Nous vivons vraiment une époque de changements radicaux dans le soutien au processus scientifique grâce aux systèmes d'IA. Alors comment cela peut être exploité, cela m'enthousiasme vraiment. Je suis aussi enthousiasmé par les nouveaux développements de systèmes et je pense que c'est une période passionnante en général pour être chercheur dans le domaine de l'IA et des données parce qu'il y a beaucoup d'opportunités.
Des opportunités pour l'entrepreneuriat ; il y a des options que nous avons là et je suis sûr que vous en parlerez également. Et il y a beaucoup d'options pour la recherche fondamentale approfondie car c'est encore, même si cela évolue, un domaine très ouvert dans de nombreux secteurs. Et je peux simplement encourager beaucoup d'entre vous à rejoindre cette aventure, soit dans le monde académique, soit en tant qu'entrepreneurs ou dans l'industrie, parce que c'est là que se trouve l'avenir, et c'est ce qui est passionnant.
Je suis très excitée par la 'tech bio' et les cas d'utilisation médicaux. Je dirais que c'est vraiment incroyable de comprendre le corps et comment nous pouvons mieux créer des remèdes. Je pense que c'est très passionnant. Je pense que le combiner avec la logistique, la fabrication, il y a tellement de choses cool.
Fondamentalement, il s'agit d'aller plus loin dans le cœur de la création de nouvelles entreprises, de la création de nouveaux modèles d'affaires et d'accélérer les choses là où il y a réellement une intersection entre la technologie et une expertise de base. Je pense que c'est ce que nous allons voir davantage, passer des systèmes de récupération de connaissances au cœur du sujet. Et je pense que c'est toujours très excitant.
Super. Merci beaucoup pour ce regard vers l'avenir très excitant. Et nous sommes presque à la fin. Je dis presque parce que nous aimerions prendre une photo ensemble. Et j'aimerais que l'auditoire reste assis et suive mes instructions. Je vais demander aux panélistes de se lever maintenant avec moi et ensuite nous nous retournerons simplement parce que nous voulions une photo avec vous tous ensemble. Et je pense que vous pouvez tous faire signe de la main également et lever les bras. Ou c'est fini ? D'accord, c'est fini. Sur ce, j'aimerais vous remercier tous très chaleureusement pour cette excellente conversation et merci à l'auditoire. Merci.