L'avenir de l'IA et la commoditisation des modèles avec Arthur Mensch
16 janvier 2026
Technologie
Introduction et présentation de Mistral
À quoi ressemble le secteur de l'IA si tous les modèles de pointe ont les mêmes performances, ce qui est un peu le cas ? Nous le découvrirons avec le PDG de Mistral juste après ceci.
Bienvenue sur le Big Technology Podcast, une émission pour des conversations calmes et nuancées sur le monde de la technologie et au-delà. Nous avons une excellente émission pour vous aujourd'hui. Nous allons parler de ce qui arrive au secteur de l'IA et à la course technologique alors que certains des principaux modèles de base commencent à se ressembler et comment cela modifie l'équilibre des pouvoirs dans l'industrie. Nous sommes rejoints par l'invité parfait pour cela. Arthur Mensch est avec nous. Il est le PDG et cofondateur de Mistral. Arthur, bienvenue.
Je suis heureux d'être ici et merci de nous recevoir.
Non, c'est un plaisir de vous avoir. Mistral est un nom que ceux qui sont plongés dans le monde de l'IA connaissent très bien, mais qui pourrait être nouveau pour certains de nos auditeurs et spectateurs. Pour ceux qui ne connaissent pas Mistral, voici quelques chiffres. Mistral est un concepteur de modèles d'IA qui fait d'autres choses sur lesquelles nous reviendrons. L'entreprise est basée en France. Elle est valorisée à 14 milliards de dollars après avoir débuté en avril 2023, donc un peu moins de deux ans et demi pour bâtir une entreprise de 14 milliards de dollars. Pas mal. Il y a 500 personnes dans l'entreprise et Arthur, vous la dirigez après avoir passé du temps dans le milieu universitaire et deux ans et demi chez DeepMind.
Exactement. Notre siège social est à Paris, mais environ un quart de nos effectifs se trouve aux États-Unis et une grande partie de notre activité s'y déroule. C'est pourquoi j'y passe aussi beaucoup de temps et pourquoi nous sommes ici à New York.
La commoditisation des modèles de base
Très bien, ravi de vous avoir en studio. Allons directement à ce qui est, selon moi, la question la plus pressante pour l'IA aujourd'hui. On a beaucoup parlé du fait que Google, fin 2025, a commencé à égaler les modèles d'OpenAI et que les modèles d'OpenAI étaient plus ou moins au même niveau que les autres. Pour moi, il semble que nous atteignions une commoditisation du modèle de base beaucoup plus rapidement que je ne le pensais. Je pensais qu'il y aurait une course où certaines entreprises prendraient une avance considérable et qu'il faudrait du temps aux autres pour rattraper leur retard. Mais il semble qu'à l'heure actuelle, de nombreux concepteurs de modèles proposent des modèles de pointe dont les performances sont si similaires qu'il est difficile de dire lequel est le meilleur. Qu'en pensez-vous ?
Je dirais qu'intrinsèquement, c'est une technologie qui va se banaliser. La raison en est qu'elle n'est pas si difficile à construire. Il existe environ 10 laboratoires dans le monde qui savent comment construire cette technologie, qui ont accès à des données similaires, qui suivent les mêmes recettes et algorithmes, qui sont en fait très courts. Parce que c'est court, cela circule. Il n'y a pas d'écart de différenciation de propriété intellectuelle que l'on puisse créer. Il est très difficile de distancer réellement la concurrence car il y a une diffusion des connaissances qui fait que tout le monde fait les mêmes choses. La question est donc de savoir où la valeur s'accumule et quel type de modèle économique vous devriez poursuivre pour vous assurer qu'au final vous devenez rentable. Le défi que nous voyons avec certains de nos concurrents est qu'ils investissent des milliards ou des centaines de milliards pour créer des actifs qui se déprécient très vite car ce sont des commodités. Pour nous chez Mistral, cela a toujours été l'une des plus grandes questions du secteur : vous devez investir suffisamment pour apporter de la valeur aux entreprises, mais vous devez aussi investir raisonnablement pour pouvoir construire une rentabilité unitaire qui ait du sens dans un monde où la création de modèles, qui est gourmande en capital, vous apporte des actifs qui sont dans une compétition de commodités.
Investissements et passage aux applications d'entreprise
Parlons donc un peu de cette course pour construire le meilleur modèle possible. Comme vous l'avez mentionné, c'est très coûteux. OpenAI va injecter 1,4 billion de dollars dans la construction d'infrastructures pour ses modèles, du moins c'est ce qu'elle dit. Si les modèles sont effectivement équivalents, les entreprises vont-elles se dire : « Attendez une seconde, peut-être que cela n'a pas de sens pour nous d'investir tout cet argent dans la construction de la prochaine évolution d'un meilleur modèle parce que les gens peuvent rattraper leur retard » ?
Stratégiquement, je pense qu'il y a définitivement un curseur à placer. Combien investissez-vous dans la création d'actifs qui ont assez de valeur pour qu'une entreprise technologique apporte de la valeur à une entreprise ou à un consommateur ? Au bout du compte, tous ces investissements devront être financés par le flux de trésorerie disponible et la création de valeur réalisée en aval. L'accent que nous mettons en tant qu'entreprise, qui est un accent raisonnable, est d'être davantage sur les applications en aval et de comprendre à quelles frictions les entreprises sont confrontées et d'essayer de lever ces frictions. L'IA a apporté beaucoup de promesses il y a trois ou quatre ans, mais si vous demandez à une entreprise : « En avez-vous réellement tiré de l'argent ? », elle répondra en général que non. La raison en est qu'elles ne personnalisent pas assez les choses et qu'elles ne partent pas du problème qu'elles veulent résoudre. Elles pensent à la solution, mais pas au problème. Essayer de les aider à choisir les bons cas d'utilisation et à faire le bon niveau de personnalisation pour que, lorsqu'une équipe de 20 personnes gérait un flux de travail de chaîne d'approvisionnement, vous puissiez soudainement le gérer avec deux personnes. Il y a beaucoup d'exemples comme celui-ci. Le défi auquel l'industrie sera confrontée est que nous devons amener les entreprises vers la valeur assez rapidement pour justifier tous les investissements qui sont faits collectivement.
Oui, c'est très intéressant car pendant longtemps, on a entendu ces entreprises se concentrer sur les modèles. Le prochain, GPT-5, était la plus grande nouvelle quand on pense à OpenAI. Maintenant, elles commencent à parler davantage de la façon de prendre l'intelligence que l'on possède et de construire des applications qui fonctionnent. Je peux partager un élément de reportage d'il y a quelques semaines. J'ai eu une histoire sur un déjeuner avec Sam Altman et un groupe de dirigeants de médias à New York. Altman leur a dit que l'une des plus grandes priorités de l'entreprise était de créer des applications pour les entreprises. Ce sera une priorité majeure en 2026. C'est un peu un changement de rhétorique, passant de la volonté de construire une AGI à la volonté de construire des applications pour les entreprises. Pourquoi cela arrive-t-il ? Est-ce une ramification de ce problème de commoditisation ?
Le mythe de l'AGI et la personnalisation
Tout d'abord, l'AGI est un concept très simple, probablement trop simple pour les entreprises. Il n'existe pas de système unique capable de résoudre tous les problèmes du monde.
Pas encore ou vous ne croyez pas du tout à ce concept ?
Cela n'existera jamais. Il y a une multitude de problèmes, tout comme vous n'avez aucun humain capable de résoudre chaque tâche dans le monde. Vous avez besoin d'un certain degré de spécialisation pour résoudre les problèmes. Nous revenons de la pensée magique à la pensée systémique. Nous devons déterminer quelles données seront utilisées pour rendre le modèle meilleur dans une tâche spécifique et quel volant d'inertie nous devons mettre en place pour recueillir plus de signaux des humains interagissant avec le système, afin qu'au final l'application devienne de meilleure en meilleure. Dans la vraie vie, les entreprises sont juste des systèmes complexes. Vous ne pouvez pas résoudre cela avec une seule abstraction qui est l'AGI. L'AGI est, dans une large mesure, ce que nous n'avons pas réussi à atteindre ; c'est l'étoile polaire qui consiste à rendre le système meilleur au fil du temps. Parce qu'il est difficile d'expliquer aux investisseurs que la technologie que vous construisez ne sera jamais égalée par les concurrents, il y a un changement dans le récit. Les entreprises ne construisent pas un système unique, une étoile polaire qui résout tous les problèmes ; elles doivent aller sur le terrain des entreprises et résoudre des problèmes réels. Chez Mistral, nous avons été en avance sur notre temps en réfléchissant à cela. Notre histoire a été de supposer qu'éventuellement l'IA serait plus décentralisée et qu'une plus grande personnalisation serait nécessaire parce que nous nous heurtons aux limites des données que nous pourrions accumuler et aux limites des lois de mise à l'échelle. Nous avons créé l'entreprise sur ce principe, sur le fait que nous apporterions plus de capacité de personnalisation aux entreprises.
Orchestration et systèmes dynamiques
Il m'a semblé, et je me demande si vous pensez qu'il y a eu un changement — vous étiez en avance sur ce point, c'est sûr — qu'il y a eu un changement dans l'industrie de l'IA. L'idée était effectivement de rendre les modèles plus intelligents afin qu'ils puissent résoudre les problèmes par eux-mêmes. Par exemple, rendre le modèle plus intelligent pour qu'il puisse faire le travail d'un associé de niveau inférieur ou peut-être faire de la saisie de données à partir de plusieurs systèmes et rédiger des rapports. Maintenant, il y a eu un passage de cela à la construction de l'infrastructure où les modèles ne sont qu'un composant. L'infrastructure est super importante, et des choses comme l'orchestration et le travail sur les applications construites au-dessus des modèles sont là où se trouve la valeur.
Oui, je pense que si vous regardez cela d'un point de vue système, vous avez deux composants. Les premiers composants sont des définitions statiques de ce que devrait être un flux de travail et de la manière dont un système devrait se comporter, définies par des humains. Ensuite, il y a une composante dynamique où vous connectez un modèle à des outils et le modèle peut décider du graphe d'exécution. Il est irréaliste de penser que l'on peut tout résoudre avec un système dynamique sans guidage humain. Ce qui s'est passé ces trois dernières années, c'est que la partie dynamique a grandi parce que les modèles peuvent réfléchir plus longtemps et appeler plusieurs outils, mais la partie statique reste extrêmement importante. La combinaison de ces systèmes statiques, que l'on peut appeler orchestration, et des systèmes dynamiques, que l'on peut appeler agents, va rester super importante pour que nous puissions nous attaquer à des problèmes de plus en plus complexes.
Modèles économiques dans l'IA d'entreprise
D'accord. Et donc maintenant, ceci étant établi, je réfléchis à ce qu'est le secteur. Disons que le modèle s'est banalisé. Quels seront les types d'entreprises dans l'IA ? Il y aura une forme de produits grand public comme les chatbots, où l'on pourrait mettre OpenAI dans cette catégorie. Il y aura un secteur où vous pourrez améliorer vos produits existants, comme discuter avec Microsoft Excel. Ensuite, il y a cet autre grand volet qui est le côté entreprise. Comment classeriez-vous l'opportunité commerciale dans ces trois catégories ?
Côté consommateur, parce que l'IA devient la façon dont vous accédez à l'information, vous avez essentiellement un business publicitaire à construire. Ce n'est pas l'objectif de notre entreprise. Si vous regardez le côté entreprise, nous sommes essentiellement en train de replanifier tous les logiciels d'entreprise. Historiquement, il y avait une fragmentation des outils, des systèmes de données et des systèmes d'enregistrement. L'IA vous permet de commencer par une représentation unifiée parce que l'IA est capable de naviguer dans les sources de données. Vous placez une IA par-dessus qui comprend ce qui se passe dans l'entreprise et génère les interfaces utiles pour que chaque humain puisse travailler. Ce changement de plateforme de l'ensemble de la pile logicielle d'entreprise est l'endroit où beaucoup de valeur peut être créée. Posséder le moteur de contexte qui regarde ce qui se passe, posséder les interfaces qui sont générées à la demande. Ce changement de plateforme va prendre une décennie parce qu'il faut du temps pour que les entreprises adoptent ces choses. Le deuxième modèle économique dans l'entreprise consiste à les aider à prendre des données propriétaires et à les transformer en une intelligence que personne d'autre ne peut reproduire. Rendre les modèles spécifiquement bons en physique ou pour faire fonctionner des machines. C'est une valeur énorme parce que vous débloquez un progrès technologique qui était verrouillé par l'absence d'IA. L'accélération du progrès technologique est l'endroit où la plus grande création de valeur se fera, même si cela prendra plus de temps et sera moins prévisible que les gains d'efficacité.
D'accord, voyons si je peux analyser cela. Si cela doit être le principal moteur de valeur, il y a deux façons de le faire. L'une consiste à construire un modèle meilleur que tous les autres et à le vendre à prix d'or, mais nous avons déjà parlé du fait que cela ne semble pas être un avantage concurrentiel éternel. L'autre façon est de fournir le savoir-faire et la mise en œuvre. Vous pouvez rendre le modèle open source mais fournir un service aux entreprises pour le mettre en action. Sont-ce là les deux choix ?
L'avantage de l'Open Source et la souveraineté
Oui, c'est la bifurcation que nous voyons dans l'industrie. Notre point de vue a été de parier sur la seconde.
Le côté open source et mise en œuvre.
Ce qui apporte personnalisation et décentralisation. Si vous supposez que toute l'économie fonctionnera sur des systèmes d'IA, les entreprises voudront s'assurer que personne ne peut éteindre leurs systèmes. Si vous traitez l'intelligence comme de l'électricité, vous voulez vous assurer que votre accès ne peut pas être restreint. C'est ce qu'apporte la technologie open source.
Donc, si vous utilisez l'open source, vous n'avez pas à vous soucier des conditions d'utilisation d'Anthropic qui suspendraient votre capacité à faire ce que vous faites. Vous pouvez essentiellement l'exécuter selon vos propres conditions.
Oui, vous l'exécutez selon vos propres conditions, vous créez la redondance dont vous avez besoin et vous vous assurez que, quelle que soit la situation géopolitique, vous pouvez toujours faire fonctionner les systèmes. Si je suis un DSI, je vois l'open source comme un moyen de créer de l'effet de levier et de l'indépendance. Sur le plan scientifique, le seul moyen de transformer les connaissances que vos employés ont accumulées pendant des décennies en un actif auquel personne d'autre ne peut accéder est de créer vos propres modèles basés sur ces modèles open source. Mais il est difficile de les construire, c'est là que vous avez besoin des bons outils et de l'expertise.
Mais même les fournisseurs de modèles à code fermé, des entreprises comme Anthropic, diront qu'ils seront capables de personnaliser leurs modèles avec vos données. Vous n'y croyez pas ?
Ils diront cela, mais ils mettront ensuite des garde-fous par-dessus. Vous faites essentiellement confiance au fait que leurs ingénieurs vont vous donner un accès suffisant à la profondeur du système. Le problème ici est autant une question de contrôle qu'une question de personnalisation. Un fournisseur va essayer de vous enfermer. Si vous construisez sur des modèles open source, vous êtes moins dépendant du fournisseur. C'est une technologie tellement importante que vous ne voulez pas être enfermé avec un seul fournisseur.
Vous savez ce qui m'étonne ? Nous sommes trois ans après ChatGPT, qui a fait prendre conscience de cela aux gens. Aujourd'hui, nous disons que les modèles d'IA ne peuvent pas tout faire seuls — ils ont besoin d'orchestration — et que pour faire cette mise en œuvre, vous avez besoin d'un service géré. Il est intéressant de noter que cela pourrait être la technologie la plus puissante que nous ayons vue, et pourtant, quand on veut l'utiliser, cela devient un service géré.
Oui, c'est vrai. C'est une nouvelle technologie et une nouvelle plateforme, donc les connaissances sur la façon de l'utiliser sont encore assez rares. Peu de gens peuvent construire des systèmes performants et fonctionnant à grande échelle de manière fiable. Travailler avec des entreprises nécessite toujours des services supplémentaires en raison de la complexité de la mise en œuvre et de la nécessité de transformer les entreprises. Je m'attends à ce que la composante logicielle dans ces déploiements augmente. La façon dont la personnalisation se produit aujourd'hui sera abstraite pour l'acheteur en entreprise car elle est trop complexe. Il devrait simplement se soucier des systèmes adaptatifs qui apprennent par l'expérience. Mais la partie service restera assez importante.
J'ai commencé notre conversation en vous qualifiant de concepteur de modèles, puis j'ai mentionné d'autres choses. En gros, ce que j'entends, c'est que Mistral est un fier concepteur de modèles, mais sans les services montrant à une entreprise comment l'utiliser, ce serait un puzzle incomplet. Vous considérez-vous principalement comme un concepteur de modèles ou principalement comme un prestataire de services ?
Nous sommes là pour aider nos clients à obtenir de la valeur.
Donc, du service.
Pour obtenir de la valeur, ils ont besoin d'avoir d'excellents modèles et les bons outils pour les entraîner. La meilleure façon de créer ces outils est effectivement d'entraîner les meilleurs modèles. Les deux choses sont extrêmement liées. Nous créons des modèles très faciles à personnaliser et aidons nos clients à entraîner leurs propres modèles. Vous ne pouvez pas vendre à une entreprise que vous allez l'aider à créer des systèmes personnalisés si vous ne pouvez pas prouver que vous êtes le leader de la technologie open source. L'un permet l'autre.
D'accord. Nous sommes ici avec Arthur Mensch, PDG et cofondateur de Mistral. À notre retour après la pause, nous parlerons du mouvement open source par rapport au code fermé. Vous vous souvenez de DeepSeek et de l'idée que l'open source surpasserait le code fermé ? Eh bien, est-ce le cas ? Nous parlerons également de géopolitique et de réglementation. Nous revenons juste après ceci.
L'évolution de l'Open Source face au code fermé
Et nous sommes de retour sur le Big Technology Podcast avec Arthur Mensch. Arthur, je veux vous interroger sur la progression de l'open source au cours de l'année écoulée. En janvier, le thème dominant était que l'open source surpasserait bientôt les modèles fermés comme GPT d'OpenAI et Claude d'Anthropic. Nous venons de parler de la façon dont Gemini a banalisé OpenAI, mais cette conversation n'avait pas lieu concernant l'open source répondant à cette attente. Est-ce que je me trompe, ou si quelque chose a freiné l'open source, qu'est-ce que c'était ?
En 2024, il y avait peut-être un écart de six mois. En 2025, je pense que l'écart est plutôt de trois mois. Cet écart s'est considérablement réduit. Il y a un effet de saturation lorsque vous pré-entraînez des modèles autour de 10 puissance 26 flops car il n'y a qu'une quantité limitée de données que l'on peut trouver à compresser. Les laboratoires qui ont commencé un peu en retard ont créé suffisamment de capacité de calcul pour entraîner des modèles à cette échelle. L'efficacité a également augmenté. Aujourd'hui, tout le monde a accès à ces installations.
Et c'est une mesure de la puissance de calcul.
C'est la mesure de la puissance de calcul. À cause de cet effet de saturation, les modèles open source ont rattrapé leur retard car les modèles à code fermé se heurtent à ce mur du pré-entraînement. Cet écart ne va faire que diminuer. Si l'on regarde Mistral 2, notre dernier modèle de codage, il est à peu près au niveau où se trouvait Anthropic il y a deux ou trois mois. Les deux catégories sont effectivement différentes, mais si vous regardez la performance pure, elles convergent définitivement.
Saturation et spécialisation verticale
Vous avez mentionné un effet de saturation. Les modèles d'IA vont-ils continuer à s'améliorer étant donné qu'ils semblent tous atteindre la saturation ?
Ils s'amélioreront dans des domaines spécifiques. Nous les avons rendus intelligents et capables de raisonner, mais pour les mettre en production dans une banque ou une entreprise manufacturière, les modèles doivent apprendre les connaissances contenues dans ces entreprises. Pour des directions très précises, nous devrons faire appel aux bons experts et rendre le modèle spécifiquement bon dans ce domaine. Nous n'avons certainement pas terminé car nous sommes tous en course pour les bons environnements et des capacités spécifiques. Les capacités de raisonnement horizontal large s'amélioreront, mais personne ne créera un écart important là-dessus. L'écart se situe dans les experts verticaux expliquant au modèle comment faire des choses en physique, en chimie ou en biologie. Les deux prochaines années consisteront à prendre des modèles et à les rendre surhumains dans certains ensembles de compétences.
D'accord, mais plus tôt vous avez dit que vous n'auriez pas de modèle capable de tout faire. Si cet entraînement est fait dans certaines verticales, pourquoi pas ?
Les verticales que vous choisissez ne se transfèrent pas vraiment aux autres. Il n'y a aucun intérêt à rendre un modèle bon en biologie et en physique très précises car le transfert entre les deux n'est pas clair. Si vous voulez qu'un modèle résolve tous les problèmes en même temps, vous le rendez très gros, cher et coûteux à exploiter. Il est plus logique d'avoir des modèles spécialisés pour la bio, la chimie ou la physique.
Si vous voulez qu'il fonctionne en arrière-plan jour et nuit, vous voulez qu'il soit aussi petit que possible car le coût d'un modèle est proportionnel à sa taille. Si vous gonflez la taille en rendant le modèle excellent dans plusieurs modes, vous n'êtes pas très efficace. Il est économiquement logique de fabriquer des modèles spécialisés.
Géopolitique, souveraineté européenne et concurrence chinoise
Laissez-moi vous poser une question sur le domaine concurrentiel de Mistral. Il y a un sentiment chez certains aux États-Unis que Mistral a été créé en Europe pour profiter de la capture réglementaire parce que les entreprises américaines ont du mal à rivaliser en Europe. Que pensez-vous de cet argument ?
Eh bien, nous avons construit notre technologie afin de pouvoir servir les entreprises et les États qui voulaient avoir le contrôle. L'IA n'est pas une technologie que l'on veut déléguer entièrement à un fournisseur d'une entité étrangère. C'était vrai pour les données et c'est encore plus vrai pour l'IA. Si vous dépendez d'un fournisseur externe, votre équilibre commercial augmente et vous importez des services. La souveraineté est également importante pour la défense. Si vous voulez des systèmes de défense indépendants, vous aurez besoin de votre propre intelligence artificielle indépendante.
Donc, cet argument selon lequel vous n'êtes pas une entreprise américaine et que vous pouvez aider à la protection des données ou à la sécurité nationale comme la défense, cela fonctionne vraiment pour vous.
C'est une différenciation technologique que nous avons construite. Parce que nous pouvons déployer partout où notre client le souhaite, même si nous devions disparaître, le système restera opérationnel. Cela compte pour les industries critiques. Cela signifie que nous pouvons servir des clients américains qui veulent moins dépendre de certains fournisseurs, des banques plus réglementées et des pays asiatiques qui veulent une technologie sur laquelle ils peuvent compter et qu'ils peuvent personnaliser selon leurs propres besoins culturels.
Et est-ce que des gouvernements européens viennent vous voir en disant qu'ils ne font tout simplement pas confiance à Google ou Anthropic ?
Des gouvernements européens viennent nous voir parce qu'ils veulent servir leurs citoyens et accroître l'efficacité dans le secteur public. Il se trouve que nous avons une bonne proposition pour eux. Il se trouve que nous sommes également européens. Il est bon pour les pays européens d'investir dans la technologie européenne car les revenus qu'ils créent pour nous sont réinvestis en Europe. Cela fonctionne aux États-Unis depuis 80 ans, et en Europe, nous ne l'avons pas assez fait.
En parlant des efforts d'open source, que pensez-vous de l'effort d'open source de la Chine ? Les choses semblent y aller plutôt bien.
La Chine est très forte en intelligence artificielle. Nous avons été les premiers à publier des modèles open source et ils ont réalisé que c'était une bonne stratégie. Je ne suis pas sûr que nous soyons en compétition car l'avantage de l'open source est que l'on construit les uns sur les autres.
C'est vrai, vous voyez tout ce qu'ils sortent et vous apprenez ce qui fonctionne bien.
Oui, et l'inverse est vrai. Nous avons publié le premier mélange d'experts (MoE) au début de 2024 et DeepSeek 3 s'est construit là-dessus. La R&D est beaucoup plus efficace si vous partagez vos découvertes entre différents laboratoires. Cela a été très efficace en Chine. Cela a été assez inefficace ici aux États-Unis parce que de nombreuses entreprises constituées n'investissent pas dans l'open source. Nous avons pris l'initiative d'être le fournisseur open source de l'Occident.
Quelle est selon vous la stratégie de la Chine ? Aux États-Unis, il y a une conversation sur la nécessité de garder une longueur d'avance sur la Chine. Pensez-vous qu'il y ait un risque que la Chine prenne le large ?
La Chine est très forte et verticalement intégrée. L'Europe a aussi tout ce dont elle a besoin pour rivaliser. Je ne pense pas qu'une seule entité aura une IA largement en avance sur les autres. Chaque grande économie va vouloir une certaine forme d'autonomie dans son déploiement de l'IA, justifiant de multiples centres d'excellence : un en Europe dirigé par nous, un autre en Chine, et un groupe d'entreprises sur la côte ouest des États-Unis.
Et pourquoi pensez-vous qu'it est dans l'intérêt stratégique de la Chine de développer ces modèles open source ? Ils n'ont pas un business similaire au vôtre où ils vont dans le monde entier pour devenir des intégrateurs.
Ils ont un gros business en Chine. Les entreprises qui construisent des modèles open source là-bas sont souvent des fournisseurs de cloud comme Alibaba. Elles ont une intégration verticale qui leur permet de créer de la valeur en interne et sur les marchés où elles opèrent, comme l'Asie. Leur meilleur moyen d'accéder au marché américain est de donner les choses gratuitement. C'est une chose naturelle à faire : construire une entreprise protégée en Chine, puis exporter la technologie à coût nul.
Applications industrielles concrètes (CMA CGM, ASML)
Je veux parler un peu avant de nous quitter des applications pratiques de cette technologie. Vous parliez d'IA pour la physique, la recherche et la défense. Rien de tout cela ne ressemble à un chatbot. Parlez des applications sur lesquelles vous travaillez et demandez-vous si l'IA ira au-delà du chatbot.
Le chatbot est souvent l'interface car l'IA générative vous permet d'interagir avec les machines d'une manière humaine. Disons que le chatbot est l'interface homme-machine, mais ce n'est pas tout le reste. Nous sommes enthousiasmés par l'automatisation des flux de travail de bout en bout qui modifie la gestion d'une entreprise.
Par exemple, la répartition des cargaisons avec CMA CGM, une compagnie maritime. Lorsqu'un navire arrive au port, ils doivent répartir des centaines de conteneurs. Ils doivent contacter de nombreuses personnes et utiliser 20 logiciels différents. Cela nécessite quelques centaines de personnes pour être fait. En automatisant ces choses, vous pouvez économiser 80 %.
Donc le LLM établit ces communications et décide qui reçoit quoi ?
Il décide et il connecte les éléments, et vous mesurez s'il fait la bonne chose. C'est en direct dans certaines agences. C'est passionnant car cela a une empreinte physique et apporte d'importants gains d'efficacité.
Un autre exemple est ce que nous faisons avec ASML, en travaillant sur des systèmes de vision.
Parlez un peu de ce qu'est ASML pour ceux qui ne le savent pas.
ASML construit les grosses machines qui gravent les plaquettes utilisées pour les puces comme celles de NVIDIA. Ils fournissent les machines pour les usines de semi-conducteurs. Les modèles d'IA générative sont prédictifs et peuvent raisonner sur ce qu'ils voient. ASML a besoin de raisonner sur les images de leurs scanners pour vérifier s'il y a des erreurs dans la gravure des puces. La combinaison d'images et de pensée logique nous permet d'automatiser les choses beaucoup plus rapidement, augmentant ainsi le débit. La personnalisation est essentielle car ASML est le seul à avoir accès à ces images.
Les applications industrielles de l'IA générative ont été super surprenantes. Il existait déjà des technologies de vision par ordinateur, mais il n'y avait pas ce centre névralgique où l'information peut être canalisée, une décision prise, puis communiquée à quelqu'un sur le terrain.
Exactement. En gros, ce dont vous avez besoin, ce sont des modèles capables de percevoir plusieurs types d'informations. Avoir des modèles visuels puissants est super utile pour faire des choix et s'appuyer sur des LLM pour orchestrer l'appel à un agent ou l'écriture dans une base de données. Avoir des agents dynamiques capables de voir ce qui se passe dans une usine et de passer à l'étape suivante est l'endroit où beaucoup de valeur sera créée. L'industrie manufacturière a dû se réorganiser plusieurs fois — quand nous avons inventé la machine à vapeur, les usines étaient construites autour d'une machine à vapeur centrale. Au cours des 10 prochaines années, tous les processus de fabrication seront reconstruits autour d'orchestrateurs LLM.
Adoption en entreprise, robotique et bulle de l'IA
Je pense que nous commençons à voir les prémices de l'impact réel de cette technologie. Nous venons de faire un épisode sur la façon dont certains avocats l'utilisent pour mieux passer au crible des documents. Cela montre du potentiel, mais cela semble encore naissant. Qu'est-ce qui va faire passer la technologie de ce qu'elle est aujourd'hui à une efficacité réelle dans l'économie ? Est-ce le temps, la patience sur la personnalisation, ou l'amélioration des modèles ?
L'amélioration des modèles aide. Chaque fois que vous avez un modèle plus fort, vous pouvez lui faire confiance pour raisonner plus longtemps et échouer moins. Mais les itérations doivent être acceptées. Vous ne construirez jamais de systèmes qui fonctionnent dès le départ en un seul coup. Nous essayons de faire comprendre à nos clients qu'ils doivent construire un prototype qui fonctionne 80 % du temps, puis arriver à 99 % grâce aux retours des utilisateurs. C'est différent de la façon dont nous construisions des logiciels auparavant. Parce que nous construisons des systèmes organiques qui imitent les humains, le moyen de les améliorer est le feedback et le ré-entraînement.
Le droit est parfait pour cela car c'est une activité gourmande en connaissances et riche en textes. Le monde physique est plus complexe, donc les applications dans le monde du savoir entreront en production plus rapidement, mais celles dans le monde physique seront plus transformatrices.
Cela nous amène à la robotique. Les gens parlent d'une explosion de la robotique grâce aux LLM, mais cela semble encore lointain. Nous n'avons pas vu les progrès en robotique avancer aussi vite que du côté logiciel. Quand est-ce que cela arrivera ?
En robotique, les plateformes matérielles et les systèmes de contrôle doivent fonctionner ensemble. Nous intervenons là où des modèles personnalisés sont nécessaires pour des plateformes et des missions spécifiques. Notre pari en robotique est de construire la plateforme qui permet d'entraîner des modèles adaptés à l'usage qui peuvent être déployés en périphérie (edge). Stratégiquement, nous verrons d'abord le déploiement dans des zones où l'on ne veut pas envoyer d'humains, comme la lutte contre les incendies ou les usines sombres. Peut-être qu'à long terme il y aura des choses dans votre maison, mais tout comme nous avons attendu les voitures autonomes, nous attendrons la robotique humanoïde domestique pendant un certain temps. Avant cela, nous verrons un déploiement à grande échelle dans l'industrie manufacturière.
Vraiment la dernière. Nous avons beaucoup parlé de l'IA dans les affaires. Il y a clairement du potentiel, mais aussi énormément d'investissements. Que pensez-vous de la question de la bulle ? Sommes-nous dans une bulle ?
Nous sommes dans un contexte où nous avons besoin de beaucoup d'infrastructures, nous devons donc investir. Mais la viscosité de l'adoption en entreprise est élevée ; il faut du temps pour comprendre comment construire ces logiciels. On ne peut pas simplement acheter des solutions prêtes à l'emploi et croire que l'on fera des progrès immenses. Vous devez acheter les primitives mais apporter vos propres connaissances. Il faut du temps pour apprendre à construire et réorganiser les équipes. Certaines fonctions disparaîtront et d'autres se développeront. Les investissements d'aujourd'hui dans les infrastructures pourraient créer de la valeur dans deux, cinq ou dix ans. Certaines personnes sur-investissent ou s'engagent trop certainement, mais à terme, toute l'économie fonctionnera sur des systèmes d'IA. Cela pourrait juste prendre 20 ans parce que c'est complexe.
Très bien. Le site web est mistral.ai. Notre invité était Arthur Mensch, le PDG de Mistral. Arthur, merci beaucoup d'être venu. J'apprécie vraiment votre présence ici.
Merci de m'avoir reçu.
Je vous en prie. Très bien, tout le monde. Merci de nous avoir écoutés et regardés, et nous vous verrons la prochaine fois sur le Big Technology Podcast.