Pourquoi l'IA est sous-estimée : Une conversation avec Eric Schmidt
15 mai 2025
Intelligence Artificielle
L'origine de la révolution : AlphaGo en 2016
Eric Schmidt, merci de vous joindre à nous.
Merci.
Revenons en arrière. Vous avez dit que l'arrivée de l'intelligence non humaine est un événement très important. Et cette photo, prise en 2016, ressemble à l'un de ces moments de calme où la terre a tremblé sous nos pieds, mais personne ne l'a remarqué. Qu'avez-vous vu à l'époque que le reste d'entre nous aurait pu manquer ?
En 2016, nous ne comprenions pas encore ce qui allait se passer, mais nous avions compris que ces algorithmes étaient nouveaux et puissants. Ce qui s'est passé dans cette série de parties particulière, c'est que, vers la deuxième partie, un nouveau coup a été inventé par l'IA dans un jeu qui existait depuis 2500 ans et que personne n'avait jamais vu. Techniquement, le système AlphaGo était organisé pour maintenir en permanence plus de 50 % de chances de gagner. Il a donc calculé correctement ce coup, qui était un grand mystère pour tous les joueurs de Go, qui sont évidemment des joueurs mathématiques et intuitifs incroyablement brillants. La question que Henry, Craig Mundie et moi avons commencé à discuter est la suivante : qu'est-ce que cela signifie ? Comment se fait-il que nos ordinateurs puissent inventer quelque chose auquel les humains n'avaient jamais pensé ? C'est un jeu pratiqué par des milliards de personnes. Et cela a amorcé le processus qui a mené à deux livres et, je pense franchement, c'est le moment où la révolution a réellement commencé.
Pourquoi l'IA est sous-estimée
Si l'on avance jusqu'à aujourd'hui, il semble que tout le monde ne parle que d'IA, surtout ici chez TED, mais vous avez pris une position à contre-courant. Vous pensez en fait que l'IA est sous-estimée. Pourquoi ?
Je vais vous dire pourquoi. La plupart d'entre vous voient l'IA comme, pour utiliser le terme général, ChatGPT. Pour la plupart d'entre vous, ChatGPT a été le moment où vous vous êtes dit : 'Oh mon Dieu, ce truc écrit, et il fait des erreurs, mais il est si brillamment verbal.' C'était certainement ma réaction. C'était le cas pour la plupart des gens que je connaissais. C'était viscéral. C'était il y a deux ans. Depuis lors, les progrès de l'apprentissage par renforcement, qu'AlphaGo a aidé à inventer, nous permettent de planifier. Un bon exemple est de regarder OpenAI o3 ou DeepSeek-R1, et vous pouvez voir comment il avance et recule. C'est extraordinaire. Dans mon cas, j'ai acheté une entreprise de fusées parce que c'était intéressant, comme on le fait. C'est un domaine dont je ne suis pas expert et je veux le devenir, donc j'utilise la recherche approfondie. Et ces systèmes passent 15 minutes à rédiger ces articles de recherche complexes. Avez-vous une idée de la quantité de calcul que représentent 15 minutes sur ces superordinateurs ? C'est extraordinaire. Vous assistez donc à l'arrivée, au passage du langage au langage, puis du langage à la séquence, c'est ainsi que se fait la biologie. Maintenant, vous faites essentiellement de la planification et de la stratégie. L'état final de tout cela, ce sont les ordinateurs qui gèrent tous les processus commerciaux. Vous avez donc un agent pour faire cela, vous les concaténez ensemble et ils communiquent entre eux. En général, ils parlent anglais.
Les limites de l'échelle : Énergie, calcul et données
En parlant des besoins massifs en calcul de ces systèmes, parlons brièvement de l'échelle. Je vois ces systèmes d'IA comme des hippopotames affamés. Ils semblent absorber toutes les données et toute la puissance de calcul que nous leur jetons. Ils ont déjà digéré tous les jetons de l'internet public, et il semble que nous ne puissions pas construire de centres de données assez vite. Selon vous, quelles sont les limites réelles, et comment pouvons-nous les devancer avant qu'elles ne freinent les progrès de l'IA ?
Il y a une limite réelle au niveau de l'énergie. Pour vous donner un exemple, il y a un calcul, et j'ai témoigné à ce sujet cette semaine au Congrès, selon lequel nous avons besoin de 90 gigawatts de puissance supplémentaire en Amérique. Ma réponse est : pensez au Canada — des gens sympathiques, regorgeant d'énergie hydroélectrique. Mais ce n'est apparemment pas l'humeur politique actuelle. Donc 90 gigawatts, c'est l'équivalent de 90 centrales nucléaires aux États-Unis. Ça n'arrivera pas ; nous n'en construisons aucune. Comment allons-nous obtenir toute cette puissance ? C'est un problème national majeur. Le monde arabe est occupé à construire des centres de données de 5 à 10 gigawatts. L'Inde envisage un centre de données de 10 gigawatts. Pour comprendre l'ampleur des gigawatts, imaginez des villes par centre de données. C'est la puissance dont ces choses ont besoin. Les gens regardent cela et disent qu'il y aura beaucoup d'améliorations algorithmiques et que nous aurons besoin de moins de puissance. Il y a une vieille règle : Grove donne, Gates reprend. Le matériel devient de plus en plus rapide. Les physiciens sont extraordinaires. Et nous, les informaticiens, nous ne faisons que l'utiliser encore et encore. Quand on regarde la planification, du moins avec les algorithmes d'aujourd'hui, c'est un va-et-vient, on essaie ceci et cela — observez par vous-même. Selon des rapports d'Andreessen Horowitz, il y a une augmentation d'au moins un facteur 100, peut-être 1000, dans le calcul requis juste pour faire de la planification. La technologie passe de l'apprentissage profond à l'apprentissage par renforcement, puis à ce qu'on appelle le calcul au moment du test (test-time compute), où non seulement vous planifiez, mais vous apprenez aussi pendant que vous planifiez. C'est le zénith des besoins en calcul. C'est le problème numéro un : l'électricité et le matériel. Le problème numéro deux est que nous avons épuisé les données, nous devons donc commencer à en générer, mais nous pouvons facilement le faire car c'est l'une des fonctions. Ensuite, la troisième question est celle de la limite de la connaissance. Imaginons que nous soyons collectivement tous les ordinateurs du monde et que nous réfléchissions tous sur la base des connaissances existantes qui ont été inventées précédemment. Comment inventer quelque chose de complètement nouveau, comme Einstein ? Quand on étudie la manière dont fonctionne la découverte scientifique en biologie ou en mathématiques, ce qui arrive généralement, c'est qu'un être humain vraiment brillant regarde un domaine et dit : 'Je vois un schéma qui se trouve dans un domaine complètement différent, qui n'a rien à voir avec le premier ; c'est le même schéma.' Ils prennent les outils de l'un et les appliquent à l'autre. Aujourd'hui, nos systèmes ne peuvent pas faire cela. Si nous parvenons à surmonter cela — le terme technique général pour cela est la non-stationnarité des objectifs, où les règles changent constamment — nous verrons si nous pouvons résoudre ce problème. Si nous pouvons résoudre ce problème, nous aurons besoin de centres de données encore plus grands et nous serons également capables d'inventer des écoles de pensée scientifique et intellectuelle complètement nouvelles, ce qui sera incroyable.
Le débat sur l'autonomie et les agents
Alors que nous tendons vers un zénith, l'autonomie a été un sujet de discussion important. Yoshua Bengio a donné une conférence convaincante plus tôt cette semaine, préconisant que les laboratoires d'IA arrêtent le développement de systèmes d'IA agentiques capables de mener des actions autonomes. Pourtant, c'est précisément la prochaine frontière pour tous ces laboratoires d'IA et apparemment pour vous aussi. Quelle est la bonne décision à prendre ici ?
Yoshua est un inventeur brillant d'une grande partie de ce dont nous parlons et un bon ami personnel ; nous en avons discuté. Ses préoccupations sont très légitimes. La question n'est pas de savoir si ses préoccupations sont fondées, mais quelles sont les solutions. Réfléchissons aux agents. Pour les besoins de l'argumentation, chaque personne dans le public est un agent. Vous avez une entrée qui est l'anglais ou n'importe quelle langue, vous avez une sortie qui est l'anglais, et vous avez une mémoire, ce qui est vrai pour tous les humains. Maintenant, nous sommes tous occupés à travailler et tout à coup l'un d'entre vous décide qu'il est beaucoup plus efficace de ne pas utiliser le langage humain, mais d'inventer son propre langage informatique. Maintenant, vous et moi sommes assis ici à regarder tout cela et nous nous disons : 'Que faisons-nous maintenant ?' La bonne réponse est de vous débrancher, parce que nous n'allons tout simplement pas savoir ce que vous préparez. Vous pourriez en fait faire quelque chose de très mal ou de vraiment incroyable. Nous voulons pouvoir surveiller. Nous avons donc besoin de provenance, un sujet dont vous et moi avons parlé, mais nous devons aussi être capables d'observer. C'est une exigence fondamentale. Il existe un ensemble de critères que l'industrie considère comme des points où l'on veut métaphoriquement débrancher la machine. L'un d'eux est l'auto-amélioration récursive, que l'on ne peut pas contrôler. L'auto-amélioration récursive se produit lorsque l'ordinateur apprend de son côté et que vous ne savez pas ce qu'il apprend. Cela peut évidemment mener à de mauvais résultats. Un autre serait l'accès direct aux armes. Un autre serait que les systèmes informatiques décident de s'exfiltrer pour se reproduire sans notre permission. Le problème avec le discours de Yoshua, avec tout le respect que je dois à une personne aussi brillante, c'est qu'arrêter les choses dans un marché mondial concurrentiel ne fonctionne pas vraiment. Au lieu d'arrêter le travail sur les agents, nous devons trouver un moyen d'établir des garde-fous, ce avec quoi je sais que vous êtes d'accord car nous en avons parlé.
Géopolitique, double usage et risques de conflit
Je pense que cela nous amène logiquement aux dilemmes, et disons qu'il y en a beaucoup avec cette technologie. Le premier par lequel j'aimerais commencer, Eric, est la nature extrêmement à double usage de cette technologie. Elle est applicable aux domaines civil et militaire. Alors, comment voyez-vous globalement les dilemmes et les questionnements éthiques qui accompagnent cette technologie et la manière dont les humains les déploient ?
Dans de nombreux cas, nous avons déjà des doctrines sur la responsabilité personnelle. Par exemple, j'ai fait beaucoup de travail militaire et je continue de le faire. L'armée américaine a une règle appelée 3000.09, généralement connue sous le nom de 'l'humain dans la boucle' ou contrôle humain significatif. On ne veut pas de systèmes qui ne soient pas sous notre contrôle. C'est une ligne que nous ne pouvons pas franchir. Je pense que la compétition entre l'Occident, en particulier les États-Unis, et la Chine va être déterminante dans ce domaine. Premièrement, le gouvernement actuel ha maintenant mis en place des tarifs douaniers réciproques de 145 %. Cela a des implications énormes pour la chaîne d'approvisionnement. Dans notre industrie, nous dépendons de l'emballage et des composants provenant de Chine qui sont ennuyeux mais incroyablement importants — les petits éléments d'emballage et de collage qui font partie des ordinateurs. Si la Chine devait en refuser l'accès, ce serait un gros problème. Nous essayons de leur refuser l'accès aux puces les plus avancées, ce qui les agace au plus haut point. Le Dr Kissinger a demandé à Craig et moi de mener des dialogues 'track two' avec les Chinois, et nous sommes en conversation avec eux. Le problème numéro un qu'ils soulèvent est cette question. En effet, si vous regardez DeepSeek, ils ont réussi à trouver des algorithmes qui contournent les problèmes en les rendant plus efficaces. Comme la Chine fait tout en open source et en 'open weights' (poids ouverts), nous avons immédiatement bénéficié de leur invention et l'avons adoptée dans les produits américains. Nous sommes donc dans une situation où les États-Unis privilégient largement, pour de nombreuses bonnes raisons, des modèles fermés sous très bon contrôle. La Chine sera probablement le leader de l'open source à moins que quelque chose ne change, et l'open source mène à une prolifération très rapide dans le monde. Cette prolifération est dangereuse au niveau cybernétique et au niveau biologique. Mais laissez-moi vous dire pourquoi c'est aussi dangereux de manière plus significative : dans une optique de menace nucléaire. Le Dr Kissinger était l'un des architectes de la destruction mutuelle assurée et de la dissuasion. Ce qui se passe actuellement, c'est une situation où vous êtes le bon et je suis le méchant. Vous avez six mois d'avance sur moi, et nous sommes tous les deux sur la même voie vers la superintelligence. Vous allez y arriver ; j'en suis sûr. Vous en êtes tout près. Et j'ai six mois de retard. Ce sont des entreprises basées sur l'effet de réseau. Dans ces entreprises, c'est la pente de votre amélioration qui détermine tout. OpenAI ou Gemini ont un millier de programmeurs ; ils sont en train de créer un million de programmeurs logiciels d'IA. Qu'est-ce que cela change ? D'abord, vous n'avez pas besoin de les nourrir, sauf avec de l'électricité. Deuxièmement, la pente est comme ceci. À mesure que nous nous rapprochons de la superintelligence, la pente devient verticale. Si vous y arrivez en premier, je ne pourrai pas vous rattraper, et je vous aurai donné les outils pour réinventer le monde et me détruire. C'est ainsi que mon cerveau — Monsieur Maléfique — va penser. Alors, que vais-je faire ? Du sabotage. La première chose que je vais faire est d'essayer de voler tout votre code. Deuxièmement, je vais vous infiltrer avec des humains. Et si j'entrais et modifiais votre modèle ? Je vais le modifier pour vous planter afin d'avoir un jour d'avance sur vous. Si vous êtes si bon que je ne peux pas faire ça, quel est mon choix suivant ? Bombarder votre centre de données. Maintenant, pensez-vous que je suis fou ? Ces conversations ont lieu aujourd'hui parmi les opposants nucléaires dans notre monde. Il y a des gens légitimes qui disent que la seule solution à ce problème est la préemption. Je viens de vous dire que vous êtes sur le point d'avoir les clés pour contrôler le monde entier, que ce soit en termes de dominance économique, d'innovation, de surveillance, peu importe ce qui vous tient à cœur. Je dois empêcher cela. Nous n'avons pas de langage dans notre société ; les gens de la politique étrangère n'y ont pas réfléchi, et cela arrive. Quand est-ce que ça arrive ? Probablement dans cinq ans. Nous avons le temps pour cette conversation, et c'est vraiment important.
Le dilemme de l'Open Source
Permettez-moi d'insister un peu. Si c'est vrai et que nous pouvons finir dans ce scénario d'impasse et l'équivalent de la destruction mutuelle assurée, vous avez également dit que les États-Unis devraient adopter l'IA open source, même après que le DeepSeek chinois a montré ce qui est possible avec une fraction du calcul. Mais est-ce que l'ouverture de ces modèles ne donne pas des capacités aux adversaires qui accéléreront leur propre calendrier ?
C'est l'un de ces problèmes redoutablement complexes. Notre industrie, notre science, tout ce que nous avons construit dans le monde est basé sur la recherche académique et l'open source. Une grande partie de la technologie de Google était basée sur l'open source. Une partie de la technologie de Google est open source, une autre est propriétaire, ce qui est parfaitement légitime. Que se passe-t-il lorsqu'un modèle open source est réellement dangereux et qu'il tombe entre les mains des Oussama ben Laden de ce monde ? Nous savons qu'il y en a plus d'un, malheureusement. Le consensus actuel dans l'industrie est que les modèles open source ne sont pas encore au stade de danger national ou mondial, mais on peut voir un schéma où ils pourraient y arriver. Beaucoup dépendra désormais des décisions clés prises aux États-Unis et en Chine, ainsi que dans les entreprises de ces deux pays. La raison pour laquelle je me concentre sur les États-Unis et la Chine est qu'ils sont les deux seuls pays où les gens sont assez fous pour dépenser les milliards de dollars nécessaires pour construire cette nouvelle vision. L'Europe, qui adorerait le faire, n'a pas la structure de capital. La plupart des autres pays, pas même l'Inde, n'ont la structure de capital pour le faire. Les Arabes n'ont pas la structure de capital pour le faire, bien qu'ils y travaillent. Cette bataille sera la bataille déterminante. Ce combat m'inquiète. Le Dr Kissinger parlait de la voie probable vers la guerre avec la Chine comme étant accidentelle. Il était un spécialiste de la Première Guerre mondiale, qui a commencé par un petit événement et s'est transformée au cours de cet été 1914 en une conflagration horrible. On peut imaginer une série d'étapes qui pourraient nous mener à une issue mondiale tragique. C'est pourquoi nous devons être vigilants.
Modération, surveillance et valeurs humaines
Je veux parler de l'une des tensions récurrentes ici avant de passer aux rêves : comment modérer ces systèmes d'IA à grande échelle. Il y a cette tension bizarre dans la sécurité de l'IA selon laquelle la solution pour empêcher 1984 ressemble souvent beaucoup à 1984. La preuve d'humanité est un sujet brûlant ; la modération de ces systèmes à l'échelle est un sujet brûlant. Comment voyez-vous ce compromis ? En essayant d'empêcher la dystopie — en empêchant des acteurs non étatiques d'utiliser ces modèles de manière indésirable — nous pourrions accidentellement finir par construire l'État de surveillance ultime.
Il est vraiment important que nous restions fidèles aux valeurs que nous avons dans notre société. Je suis très attaché à la liberté individuelle. Il est très facile pour un ingénieur bien intentionné de construire un système optimisé qui restreint votre liberté, il est donc très important que la liberté humaine soit préservée. Beaucoup de ces questions ne sont pas techniques, ce sont des décisions commerciales. Il est certainement possible de construire un État de surveillance, mais il est aussi possible d'en construire un qui soit libérateur. Le dilemme que vous décrivez existe parce qu'il est désormais si facile d'opérer sur la base de la désinformation — tout le monde voit de quoi je parle — il faut donc vraiment une preuve d'identité. Mais la preuve d'identité n'a pas besoin d'inclure des détails. Par exemple, vous pourriez avoir une preuve cryptographique que vous êtes un être humain sans rien d'autre, et ne pas pouvoir la lier à d'autres en utilisant diverses techniques cryptographiques.
Un avenir d'abondance : Santé, science et éducation
Les preuves à divulgation nulle de connaissance et d'autres techniques sont les plus évidentes. Très bien, changeons de sujet pour parler des rêves. Dans votre livre Genesis, vous adoptez un ton prudemment optimiste, que vous avez bien sûr co-écrit avec Henry Kissinger. Quand vous regardez vers l'avenir, de quoi devrions-nous tous nous réjouir ?
J'ai l'âge où certains de mes amis sont atteints de maladies graves. Pouvons-nous régler cela maintenant ? Pouvons-nous simplement toutes les éliminer ? Pourquoi ne pouvons-nous pas prendre ces outils et éradiquer dès maintenant toutes ces maladies ? C'est un assez bon objectif. J'ai connaissance d'une organisation à but non lucratif qui essaie d'identifier au cours des deux prochaines années toutes les cibles thérapeutiques humaines et de les diffuser aux scientifiques. Si vous connaissez les cibles thérapeutiques, l'industrie pharmaceutique peut commencer à travailler sur des solutions. Je suis associé à une autre entreprise qui a trouvé un moyen, soi-disant — c'est une startup — de réduire le coût des essais de phase trois d'un ordre de grandeur. Comme vous le savez, ce sont ces essais qui déterminent en fin de compte la structure des coûts des médicaments. C'est un exemple. J'aimerais savoir où se trouve l'énergie noire et j'aimerais la trouver. Je suis sûr qu'il y a énormément de physique dans l'énergie noire et la matière noire. Pensez à la révolution dans la science des matériaux, à des transports infiniment plus puissants, à une science infiniment plus puissante. Pourquoi n'avons-nous pas chaque être humain sur la planète qui dispose de son propre tuteur dans sa propre langue pour l'aider à apprendre quelque chose de nouveau, dès la maternelle ? C'est une évidence. Pourquoi ne l'avons-nous pas construit ? La seule réponse possible est qu'il ne doit pas y avoir de bon argument économique. La technologie fonctionne. Enseignez-leur dans leur langue, ludifiez l'apprentissage et amenez les gens vers leurs meilleurs talents naturels. Un autre exemple : la grande majorité des soins de santé dans le monde sont soit absents, soit dispensés par l'équivalent d'infirmiers praticiens et de médecins de village locaux stressés. Pourquoi n'auraient-ils pas l'assistant médecin qui les aide dans leur langue à traiter n'importe quoi avec des soins de santé parfaits ? Je pourrais continuer ainsi. Il y a beaucoup de problèmes avec ce monde numérique. On a l'impression que nous sommes tous dans nos propres bateaux sur l'océan et que nous ne nous parlons pas. Dans notre soif de connectivité et de lien, nous faisons en sorte que ces outils nous rendent plus seuls. Nous devons régler cela, mais ce sont des problèmes que l'on peut résoudre. Ils ne nécessitent pas de nouvelle physique ou de nouvelles découvertes ; nous devons juste décider. Quand je regarde cet avenir, je veux être clair sur le fait que l'arrivée de cette intelligence — tant au niveau de l'IA, de l'AGI (intelligence générale), puis de la superintelligence — est la chose la plus importante qui va se produire dans environ 500 ans, peut-être mille ans dans la société humaine, et cela se passe de notre vivant. Alors ne gâchez pas tout.
Productivité et avenir du travail
Disons que non. Disons que nous ne gâchons pas tout. Disons que nous entrons dans ce monde d'abondance radicale. Disons que nous arrivons à ce point et que nous atteignons ce stade de l'auto-amélioration récursive. Les systèmes d'IA assument la grande majorité des tâches économiquement productives. Dans votre esprit, que vont faire les humains dans cet avenir ? Allons-nous tous siroter des piña coladas sur la plage, en nous adonnant à nos passe-temps ?
Espèce de libéral de la tech, vous devez être en faveur du revenu universel. Les humains ne changent pas au milieu de cette découverte incroyable. Pensez-vous vraiment que nous allons nous débarrasser des avocats ? No, ils auront juste des procès plus sophistiqués. Pensez-vous vraiment que nous allons nous débarrasser des politiciens ? Non, ils auront juste plus de plateformes pour vous induire en erreur. Je pourrais continuer encore et encore. La chose essentielle à comprendre à propos de cette nouvelle économie est que nous, collectivement en tant que société, manquons d'humains. Regardez le taux de reproduction en Asie ; il est essentiellement de 1,0 pour deux parents. Ce n'est pas bon. Pour le reste de nos vies, le problème clé va être de rendre les personnes qui sont dans leur période productive plus productives pour soutenir les personnes âgées comme moi, qui se plaindront de vouloir plus de choses de la part des plus jeunes. C'est comme ça que ça va marcher. Ces outils vont radicalement augmenter cette productivité. Il existe une étude qui dit que, sous un ensemble d'hypothèses autour de l'IA agentique, de la découverte et de l'échelle, on finira avec quelque chose comme une augmentation de 30 % de la productivité par an. Après avoir parlé à un groupe d'économistes, ils n'ont aucun modèle pour ce à quoi ressemble une telle augmentation de la productivité. Nous ne l'avons tout simplement jamais vu. Cela ne s'est produit dans aucune montée d'une démocratie ou d'un royaume dans notre histoire. C'est incroyable ce qui va se passer. Espérons que nous irons dans la bonne direction.
Conclusion et conseils pour le futur
C'est vraiment incroyable. Concluons, Eric. Vous avez traversé des décennies de changements technologiques. Pour tous ceux qui traversent cette transition vers l'IA — technologues, dirigeants, citoyens qui ressentent un mélange d'excitation et d'anxiété — quel est le conseil ou la sagesse unique que vous aimeriez offrir pour naviguer dans ce moment insensé que nous vivons aujourd'hui ?
Une chose à retenir est qu'il s'agit d'un marathon, pas d'un sprint. Une année, j'ai décidé de faire une course de vélo de 100 milles, ce qui était une erreur. L'idée était d'apprendre la fréquence de pédalage. On se lève chaque jour et on continue d'avancer. Quand on croît au rythme où nous croissons, on accomplit tellement de choses en un an qu'on oublie le chemin parcouru. Les humains ont du mal à appréhender cela. Nous sommes dans cette situation où l'exponentielle évolue ainsi. À mesure que les choses se passent plus vite, vous oublierez ce qui était vrai il y a deux ou trois ans. C'est l'élément clé. Mon conseil pour vous tous est de surfer sur la vague, mais de le faire tous les jours. Ne le considérez pas comme quelque chose d'épisodique ou quelque chose que vous pouvez arrêter, mais comprenez-le et construisez dessus. Chacun d'entre vous a une raison d'utiliser cette technologie. Si vous êtes un artiste, un enseignant, un médecin, un homme d'affaires ou une personne technique, si vous n'utilisez pas cette technologie, vous ne serez pas pertinent par rapport à vos pairs et à vos concurrents. Adoptez-la et adoptez-la vite. J'ai été choqué par la rapidité avec laquelle ces systèmes évoluent. Par ailleurs, mon expérience est dans les logiciels d'entreprise. Aujourd'hui, il existe un protocole de modèle d'Anthropic où l'on peut connecter le modèle directement à des bases de données sans aucun connecteur. Je sais que ça fait un peu nerd. Il y a toute une industrie là qui disparaît parce qu'on a toute cette flexibilité maintenant. On peut juste dire ce que l'on veut et ça le produit tout simplement. C'est un exemple de changement réel dans le monde des affaires. Il y a tant de choses de ce genre qui arrivent chaque jour.
Mesdames et messieurs, Eric Schmidt. Merci beaucoup.
Merci beaucoup. Merci à tous.