Lisa Su sur l'IA et la chaîne d'approvisionnement des puces
29 septembre 2023
Technologie
Introduction
Bonjour et bienvenue dans Decoder. Je suis Nilay Patel, rédacteur en chef de The Verge, et Decoder est mon émission sur les grandes idées et autres problèmes.
Aujourd'hui, nous vous proposons quelque chose d'un peu différent. La Code Conference avait lieu cette semaine, et nous avons passé un excellent moment à discuter en direct sur scène avec tous nos invités.
Nous partagerons beaucoup de ces conversations ici dans les jours à venir, et la première que nous partageons est ma discussion avec le Dr Lisa Su, la PDG d'AMD.
Lisa et moi avons discuté pendant une demi-heure, et nous avons couvert un nombre incroyable de sujets, notamment sur l'IA et la chaîne d'approvisionnement des puces.
Ces dernières années ont été marquées par une pénurie mondiale de puces, exacerbée par la pandémie, et maintenant que nous en sortons, il y a soudainement un autre pic de demande important, car tout le monde veut exécuter des modèles d'IA.
L'équilibre entre l'offre et la demande est globalement satisfaisant en ce moment, nous a dit Lisa, à l'exception notable de ces GPU haut de gamme qui alimentent tous les grands modèles d'IA que tout le monde utilise.
Le GPU le plus convoité du moment est la puce H100 de NVIDIA, mais AMD travaille à concurrencer une nouvelle puce dont Lisa nous a parlé, appelée MI300, qui devrait être aussi rapide que la H100.
Beaucoup de travail est également effectué au niveau logiciel pour permettre aux développeurs de passer facilement de NVIDIA à AMD. Nous avons donc abordé ce sujet.
Vous entendrez également Lisa parler de ce que font les entreprises pour augmenter leur capacité de production. Le CHIPS and Science Act qui a été récemment adopté est une étape importante vers la construction de sites de fabrication de puces ici aux États-Unis, mais Lisa nous a dit qu'il fallait beaucoup de temps pour mettre en place cet approvisionnement.
Je voulais donc savoir comment AMD envisageait de diversifier sa chaîne d'approvisionnement et de s'assurer d'avoir une capacité suffisante pour répondre à toute cette nouvelle demande.
Enfin, Lisa a répondu aux questions de l'incroyable public de Code et a beaucoup parlé de la manière dont AMD utilise l'IA au sein de l'entreprise en ce moment. C'est plus que vous ne le pensez, même si Lisa a précisé que l'IA ne concevra pas de puces toute seule de sitôt.
D'accord, Dr Lisa Su, PDG d'AMD. C'est parti.
L'IA et le marché actuel
J'ai énormément de choses à aborder. 500 fiches de questions. Nous allons être ici toute la nuit. Mais commençons par quelque chose d'excitant. AMD a fait parler d'elle aujourd'hui sur le marché de l'IA. Que se passe-t-il ?
Le thème de toute cette conférence, l'IA, est le thème de tout ce qui touche à la tech ces jours-ci. Quand nous regardons toutes les opportunités qu'a l'informatique pour vraiment faire progresser l'IA, c'est ce sur quoi nous travaillons. Aujourd'hui, nous avons eu une annonce d'une startup appelée Lamini, une excellente entreprise avec laquelle nous travaillons, incluant certains des meilleurs chercheurs en grands modèles de langage. La clé pour tout le monde est, quand je parle aux PDG, les gens demandent : 'Je sais que je dois faire attention à l'IA et que je dois faire quelque chose, mais que dois-je faire ?' C'est compliqué, avec de nombreux facteurs différents. Avec des modèles fondamentaux comme Llama, qui sont de superbes modèles fondamentaux, de nombreuses entreprises souhaitent personnaliser ces modèles avec leurs propres données dans leur environnement privé pour leurs applications. C'est ce que fait Lamini. Ils personnalisent et affinent les modèles pour les entreprises, et ils fonctionnent sur des GPU AMD. Nous avons passé du temps avec eux pour optimiser les logiciels et les applications afin de rendre aussi facile que possible le développement de ces modèles affinés.
L'état de la chaîne d'approvisionnement des puces
Oui, je veux parler de ce logiciel en profondeur. Je pense qu'il est très intéressant de voir comment nous extrayons les différents niveaux de développement logiciel du matériel. Mais je veux revenir là-dessus. Je veux commencer par une vue d'ensemble du marché des puces. Nous sortons d'une période de contraintes assez incroyables sur les puces à travers chaque nœud de processus. Où pensez-vous que nous en sommes maintenant ?
Je suis dans le secteur des semi-conducteurs depuis 30 ans et, pendant très longtemps, les gens ne comprenaient pas vraiment ce qu'étaient les semi-conducteurs, ni leur place dans la chaîne d'approvisionnement globale, ni leur nécessité dans les applications. Je pense que ces dernières années, particulièrement avec la demande induite par la pandémie et tout ce que nous faisons avec l'IA, les gens se concentrent désormais réellement sur les semi-conducteurs. Il y a eu un cycle impressionnant : un cycle où nous avions besoin de beaucoup plus de puces que nous n'en avions, puis un cycle où nous en avions probablement trop pour certaines. Mais au bout du compte, les semi-conducteurs sont essentiels à tant d'applications, et particulièrement pour nous, ce sur quoi nous nous concentrons, ce sont les plus complexes, les plus performants, la pointe extrême des semi-conducteurs. Il y a une croissance phénoménale sur le marché.
Quel est selon vous le goulot d'étranglement actuel ? Est-ce au niveau de la pointe technologique ? Est-ce au niveau des nœuds de processus plus anciens, ce dont nous entendions parler au milieu de la pénurie de puces ?
L'industrie dans son ensemble s'est regroupée en tant qu'écosystème pour mettre en place une grande capacité afin de s'assurer que nous satisfaisons la demande globale. En général, je dirais que l'équilibre offre-demande est plutôt bon, à l'exception des GPU. Si vous avez besoin de GPU pour l'entraînement de grands modèles de langage et l'inférence, ils sont probablement rares en ce moment.
Un peu rares ? Pourquoi pensez-vous être ici ? Oui.
Lisa en a quelques-unes en réserve si vous en avez besoin.
La vérité est que nous déployons énormément d'efforts pour que l'ensemble de la chaîne d'approvisionnement monte en puissance. Ce sont certains des appareils les plus complexes au monde, avec des centaines de milliards de transistors et une technologie avancée, mais nous augmentons absolument l'offre globale.
Le CHIPS Act et la fabrication aux États-Unis
Le CHIPS and Science Act a été adopté l'année dernière. Un investissement massif dans les usines de fabrication (fabs) dans ce pays. AMD est, évidemment, la plus grande entreprise de semi-conducteurs sans usine au monde. Cela a-t-il déjà eu un effet notable, ou attendons-nous toujours que cela se concrétise ?
Si vous regardez le CHIPS and Science Act et ce qu'il fait pour l'industrie des semi-conducteurs aux États-Unis, c'est une chose fantastique. Chapeau bas à Gina Raimondo et à tout ce que le département du Commerce fait avec l'industrie. Ce sont des projets à long terme. L'écosystème des semi-conducteurs aux États-Unis aurait dû être construit il y a cinq ans. Il est en train d'être construit et de s'étendre maintenant, surtout à la pointe technologique, mais cela prendra du temps. Je ne sais pas si nous en ressentons les effets en ce moment, mais nous pensons que plus vous investissez sur le long terme, plus vous en verrez les effets. Je suis enthousiasmée par la capacité de production nationale et les investissements dans notre infrastructure de recherche nationale, car c'est aussi extrêmement important pour la force et le leadership des semi-conducteurs à long terme.
Partenariats et diversification de la production
Les résultats d'AMD parlent d'eux-mêmes. Vous vendez beaucoup plus de puces qu'il y a quelques années. Où avez-vous trouvé cet approvisionnement ? Comptez-vous toujours sur TSMC en attendant que ces nouvelles usines voient le jour ?
Quand on regarde le secteur dans lequel nous évoluons, il s'agit de repousser les limites de la technologie. Nous sommes toujours sur le nœud le plus avancé et nous essayons de lancer la prochaine grande innovation. C'est une combinaison de technologie de processus, de fabrication, de conception et de systèmes de conception. Nous sommes très satisfaits de notre partenariat avec TSMC. Ils sont les meilleurs au monde pour les technologies de pointe et avancées.
Mais ils sont à Taïwan. Pouvez-vous vous diversifier par rapport à eux ?
La clé est la diversité géographique, Nilay. Quand on pense à la diversité géographique, c'est vrai quoi qu'il arrive. Personne ne veut être au même endroit car il y a des risques naturels. C'est là que le CHIPS and Science Act a été utile, car il y a maintenant un nombre important d'usines de fabrication en cours de construction aux États-Unis. Elles vont commencer la production au cours des prochains trimestres, et nous serons actifs en ayant une partie de notre fabrication ici aux États-Unis.
J'ai parlé au PDG d'Intel, Pat Gelsinger, lorsqu'ils ont posé la première pierre en Ohio. Ils essaient de devenir une fonderie. Il m'a dit avec beaucoup d'assurance : "J'adorerais voir un logo AMD sur le côté d'une de ces usines." À quel point est-il proche de faire de cela une réalité ?
Du point de vue de la fabrication nationale, nous étudions de nombreuses opportunités. Pat a un plan très ambitieux. Nous regardons toujours qui sont les meilleurs partenaires de fabrication, et ce qui est le plus important pour nous, c'est quelqu'un qui est vraiment dédié à la pointe de la technologie.
Y a-t-il un concurrent à TSMC sur ce front sur le marché ?
Il y a toujours de la concurrence sur le marché. TSMC est certainement très bon, Samsung réalise beaucoup d'investissements, vous avez mentionné Intel, et il y a des activités au Japon pour mettre en place une fabrication de pointe. Il y a beaucoup d'options différentes.
Géopolitique et marché chinois
Dernière question sur ce sujet, et ensuite je veux parler d'IA. Il y a eu beaucoup de bruit récemment autour de Huawei. Ils ont sorti une puce de 7 nanomètres. Soit c'est un événement géopolitique bouleversant, soit c'est n'importe quoi. Qu'en pensez-vous ?
Je ne sais pas si je qualifierais cela d'événement géopolitique bouleversant. La technologie est considérée comme d'une importance capitale pour la sécurité nationale. Du point de vue des États-Unis, nous voulons nous assurer de conserver cette avance. Le gouvernement américain a passé beaucoup de temps là-dessus. Nous sommes une entreprise mondiale. La Chine est un marché important pour nous. Nous vendons davantage de biens de consommation à la Chine, et il y a une opportunité pour nous d'avoir une approche équilibrée dans la manière dont nous traitons ces questions géopolitiques.
Pensez-vous qu'il y avait plus d'approvisionnement disponible chez TSMC parce que Huawei a été évincé du jeu ?
TSMC a mis énormément de capacités sur la table. Si vous pensez aux dépenses d'investissement (CapEx) qui ont eu lieu au cours des trois ou quatre dernières années, c'est parce que nous avons tous besoin de plus de puces, et l'investissement suit cette demande. Les puces sont plus chères en conséquence, et cela fait partie de l'écosystème que nous avons construit.
Concurrencer NVIDIA avec le MI300
Oui, parlons de cette partie-là. Vous avez mentionné que les GPU sont limités. Pour le NVIDIA H100, il existe de fait un marché noir pour accéder à ces puces. Vous avez des puces, vous allez en sortir de nouvelles, vous venez d'annoncer que Lamini s'entraîne entièrement sur vos puces. Avez-vous vu une opportunité de perturber ce marché parce que l'offre de NVIDIA est si limitée ?
Je ferais un pas en arrière pour parler de ce qui se passe sur le marché de l'IA, car c'est incroyable. Si vous pensez aux tendances technologiques que nous avons vues au cours des 10 ou 20 dernières années, qu'il s'agisse d'Internet, de la révolution du téléphone mobile ou de la façon dont les PC ont changé les choses, l'IA est 10 ou 100 fois plus importante que cela en termes d'impact sur tout ce que nous faisons. Que vous parliez de productivité en entreprise, de productivité personnelle ou de la société, c'est à ce point massif. Le fait qu'il y ait une pénurie de GPU n'est pas surprenant car les gens reconnaissent l'importance de la technologie. Nous en sommes aux premières étapes de la mise sur le marché de l'IA générative. Je vois cela comme un cycle de 10 ans, pas seulement une question de savoir combien de GPU vous pouvez obtenir au cours des prochains trimestres. Nous sommes enthousiasmés par notre feuille de route. J'appellerais l'IA générative 'l'application tueuse' pour l'informatique haute performance. Vous avez besoin de toujours plus de performance, et les grands modèles de langage d'aujourd'hui peuvent encore s'améliorer si vous continuez à augmenter les performances d'entraînement et d'inférence. C'est ce que nous faisons. Nous construisons les puces les plus complexes. Nous en avons une nouvelle qui sort, appelée MI300. Elle est destinée à l'entraînement et à l'inférence de grands modèles de langage. Nous voyons des opportunités significatives dans tous les domaines, pas seulement avec les fournisseurs de cloud, mais aussi avec l'IA en entreprise et les startups.
Alors MI300 ?
MI300, tout à fait.
Vous l'avez entendu ici en premier. En termes de performances, cela va être compétitif avec le H100 ou dépasser le H100 ?
Ce sera certainement compétitif pour les charges de travail d'entraînement. Sur le marché de l'IA, il n'y a pas de solution unique en ce qui concerne les puces. Certaines seront exceptionnelles pour l'entraînement, et d'autres seront exceptionnelles pour l'inférence, selon la façon dont vous les assemblez. Avec le MI300, nous avons construit un produit exceptionnel pour l'inférence, en particulier l'inférence de grands modèles de langage. Une grande partie du travail effectué actuellement implique des entreprises qui s'entraînent et décident de ce que seront leurs modèles, mais à l'avenir, nous pensons que l'inférence sera un marché plus vaste, et cela correspond bien à la conception du MI300.
Logiciels ouverts et l'écosystème PyTorch
Si vous regardez ce que Wall Street considère comme le fossé défensif (moat) de NVIDIA, c'est CUDA, c'est la pile logicielle propriétaire, ce sont les relations de longue date avec les développeurs. Vous avez ROCm, qui est un peu différent. Pensez-vous que c'est un fossé que vous pouvez combler avec de meilleurs produits ou avec une approche plus ouverte ? Comment vous y prenez-vous pour attaquer cela maintenant ?
Je ne crois pas aux fossés défensifs quand le marché évolue aussi vite qu'actuellement. Les fossés sont pour les marchés matures où les gens ne veulent pas changer les choses. L'IA générative avance à un rythme incroyable. Des progrès qui prenaient auparavant des années se font maintenant en quelques mois. Notre approche est une approche logicielle ouverte. Par le passé, les gens utiliaient des logiciels spécifiques au matériel parce qu'il n'y avait pas beaucoup de choix. À l'avenir, tout le monde cherchera à construire des logiciels agnostiques du matériel parce qu'ils veulent avoir le choix. Ils veulent utiliser leur ancienne infrastructure et pouvoir passer d'une infrastructure à l'autre. Ils construisent sur des niveaux de logiciels plus élevés comme PyTorch, qui offre cette capacité agnostique du matériel. Je pense que les 10 prochaines années seront différentes des 10 dernières en ce qui concerne le développement de l'IA. L'avantage d'une approche ouverte est qu'aucune entreprise ne détient toutes les idées ; rassembler l'écosystème nous permet de tirer parti de tous ces développeurs intelligents qui veulent accélérer l'apprentissage de l'IA.
PyTorch est très important. C'est le langage dans lequel tous ces modèles sont réellement codés. Je parle à beaucoup de PDG du cloud. Ils n'aiment pas leur dépendance vis-à-vis de NVIDIA, tout comme personne n'aime dépendre d'un seul fournisseur. Est-ce un domaine où vous pouvez aller voir ces fournisseurs de cloud et dire : "Nous allons optimiser nos puces pour PyTorch et non pour CUDA, et les développeurs pourront simplement exécuter sur PyTorch et choisir ce qui est le mieux optimisé" ?
Exactement. PyTorch essaie d'être une couche agnostique du matériel. L'une des étapes majeures est qu'AMD a été qualifié dès le premier jour de PyTorch 2.0. Cela signifie que quiconque exécute du code sur PyTorch en ce moment peut l'exécuter sur AMD tel quel, car nous avons fait le travail. Notre objectif est de faire en sorte que la meilleure puce gagne en rendant le logiciel transparent. C'est PyTorch, mais c'est aussi JAX et des outils comme Triton d'OpenAI. De nombreux outils et frameworks agnostiques du matériel sont mis en avant. C'est la vague du futur pour les logiciels d'IA.
Construisez-vous des puces personnalisées pour l'une de ces entreprises ?
Nous avons la capacité de construire des puces personnalisées. Le moment de les construire, c'est quand vous avez des applications à très haut volume. Je pense qu'il y aura des puces personnalisées au cours des prochaines années. Vous avez également besoin de différents types de moteurs pour l'IA. Nous avons parlé des gros GPU pour l'entraînement, mais vous allez aussi voir des ASIC pour des applications spécifiques et de l'IA dans les puces clientes. Je suis enthousiasmée par la manière dont l'IA sera largement intégrée dans les puces à travers tous les segments de marché.
Partenariat avec Microsoft et coût de l'IA
Je reçois Kevin Scott, le directeur technologique de Microsoft, demain, donc je vais vous poser cette question pour pouvoir le relancer avec. Si, disons, Microsoft voulait diversifier Azure et y mettre plus d'AMD de manière invisible pour les clients, est-ce possible en ce moment ?
J'adore Kevin Scott. Nous avons un partenariat formidable avec Microsoft dans les environnements cloud et Windows. Si vous lui demandiez, ou à d'autres fabricants de cloud, ils diraient que c'est absolument possible. Cela demande du travail des deux côtés, mais c'est bien moins de travail que vous ne pourriez l'imaginer car les gens conçoivent à des niveaux de frameworks plus élevés. Nous pensons que c'est la vague du futur pour la programmation de l'IA.
Permettez-moi de relier cela à une application pour l'utilisateur final une seconde. Nous parlons de choses qui font grimper la courbe des coûts. Beaucoup de gens intelligents font beaucoup de travail pour développer des GPU très haut de gamme sur des nœuds de processus de pointe. Tout devient de plus en plus cher. Et vous voyez que les applications grand public sont chères. 25 $ par mois, 30 $ par poste pour Microsoft Office avec Copilot. Quand descendez-vous la courbe des coûts pour faire baisser ces prix pour les consommateurs ?
Je pense que la valeur que vous obtenez avec l'IA générative en termes de productivité sera prouvée. Le coût de l'infrastructure est élevé en ce moment, mais la productivité de l'autre côté est passionnante. Nous déployons l'IA en interne chez AMD, et c'est une priorité absolue car sortir des puces plus rapidement représente une productivité énorme.
Utilisation interne de l'IA chez AMD
Lui faites-vous confiance ? Est-ce que vos équipes vérifient le travail que fait l'IA, ou lui faites-vous confiance ?
Nous expérimentons tous les étapes très précoces de la construction d'outils et d'infrastructures pour pouvoir les déployer. Cela nous fait gagner du temps. Que nous soyons en train de concevoir, de tester ou de valider des puces, cela nous fait gagner du temps, et le temps, c'est de l'argent. Quant au moment où nous arriverons de l'autre côté de la courbe, il est important de penser à l'IA de manière globale et pas seulement dans le cloud. Dans quelques années, l'infrastructure cloud entraînera les plus grands modèles fondamentaux, mais vous aurez aussi de l'IA à la périphérie (at the edge). Que ce soit dans votre PC ou votre téléphone, vous pourrez faire de l'IA locale. C'est moins cher, plus rapide et plus privé. Cette idée d'IA partout peut vraiment améliorer la façon dont nous déployons.
Réglementation et sécurité de l'IA
Cela m'amène à l'open source et à l'idée de la manière dont nous allons réglementer cela. J'ai assisté à une réunion à la Maison Blanche où tout le monde participe. Vous réfléchissez à la manière dont vous allez réellement appliquer la réglementation sur l'IA, et vous pourriez probablement dire à AWS ou Azure de ne pas exécuter certains flux de travail. Cela semble correct. Pouvez-vous dire à AMD de ne pas laisser certaines choses se produire sur les puces pour quelqu'un qui exécute un modèle open source sur Linux sur son ordinateur portable ?
Nous prenons tous cela très au sérieux. La technologie a tellement d'avantages en termes de ce qu'elle peut faire du point de vue de la productivité et de la découverte, mais il y a aussi la question de la sécurité dans l'IA. En tant que grandes entreprises, nous avons une responsabilité concernant la confidentialité des données et l'assurance que les modèles sont développés sans trop de biais. L'industrie ne sera pas parfaite, mais il y a une clarté quant à l'importance d'un partenariat public-privé pour y parvenir.
Je serais un horrible politicien, mais faisons comme si j'étais un régulateur. Je dis : 'Je ne veux vraiment pas que ces jeunes utilisent un modèle pour développer des armes chimiques,' et je dois trouver où appliquer cette mesure. Je peux certainement dire à Azure : 'Ne faites pas ça.' Mais pour un jeune avec une puce AMD dans un ordinateur portable Dell sous Linux, je n'ai aucun mécanisme d'application sauf de vous dire de faire en sorte que la puce ne le permette pas. Accepteriez-vous cette réglementation ?
Je ne pense pas qu'il y ait de solution miracle. Ce n'est pas que je puisse faire en sorte que la puce ne le fasse pas. Je peux faire en sorte que la combinaison de la puce et du modèle comporte des garde-fous. Nous sommes tout à fait disposés à être à cette table pour aider à ce que cela se produise.
Vous accepteriez donc ce genre de réglementation, que la puce soit limitée ?
J'accepterais l'opportunité pour nous d'examiner quels garde-fous nous devrions mettre en place.
Je pense que cela va être l'une des choses les plus compliquées... Je ne pense pas que nous nous attendions à ce que nos puces soient limitées dans ce que nous pouvons faire. Et on a l'impression que c'est une question que nous devons poser et à laquelle nous devons répondre.
Ce n'est pas la puce toute seule, car en général, les puces ont de larges capacités. C'est l'ensemble puces plus logiciels plus modèles, en particulier du côté du modèle, où l'on place des garde-fous.
L'avenir du Gaming
Nous pourrions commencer à faire la queue pour les questions. J'en ai encore quelques-unes pour vous. Vous êtes dans la PS5, vous êtes dans la Xbox. Il y a une vision du monde qui dit que le jeu en nuage (cloud gaming) est l'avenir de tout. Cela pourrait être formidable pour vous car vous seriez aussi dans leurs centres de données, mais voyez-vous ce changement s'opérer ? Est-ce réel, ou continuons-nous les générations de consoles ?
Le jeu est partout, sous toutes les formes. Il y a eu une longue conversation sur le point de savoir si c'était la fin des consoles de jeu, mais je ne le vois pas. Je vois que le jeu sur PC est solide, le jeu sur console est solide, et le jeu en nuage a aussi de l'avenir. Ils ont tous besoin de types de technologies similaires, mais ils les utilisent de différentes manières.
Questions du public
Veuillez vous présenter.
Alan Lee, Analog Devices. Un an et demi après l'acquisition de Xilinx, comment voyez-vous l'informatique adaptative jouer un rôle dans l'IA ?
Ravi de vous voir, Alan. L'acquisition de Xilinx a été finalisée il y a environ 18 mois. C'était une acquisition fantastique qui a apporté la propriété intellectuelle de l'informatique adaptative dans notre portefeuille de haute performance. Je vois cela particulièrement sur les moteurs d'IA optimisés pour les architectures de flux de données. Cette propriété intellectuelle arrive maintenant dans les PC, et nous y voyons une utilisation importante. Je pense qu'il n'y a pas un seul ordinateur qui soit le bon. Vous avez besoin du bon calcul pour la bonne application. Qu'il s'agisse de CPU, de GPU, de FPGA ou de SOC adaptatifs, vous avez besoin de tous, et c'est l'écosystème que nous rassemblons.
Ce grand monsieur par ici.
Bonjour, Casey Newton de Platformer. Je voulais revenir sur la question de Nilay concernant la réglementation. Un jour, quelqu'un pourrait essayer d'acquérir un grand nombre de vos GPU dans le but exprès de nuire, comme entraîner un grand modèle de langage dans ce but. Je me demande quelles réglementations le gouvernement devrait mettre en place concernant l'accès à de grands nombres de GPU ou la taille des cycles d'entraînement qu'ils sont autorisés à effectuer ?
C'est une bonne question. Je ne pense pas que nous connaissions encore la réponse sur la manière de réglementer. Dans le cadre de tous les contrôles à l'exportation qui existent, nous respectons ces réglementations. Il y a les GPU les plus puissants, puis le niveau suivant. La clé est une combinaison du développement de la puce et du modèle. Nous discutons activement de la manière de faire ces choses. Nous voulons nous assurer de protéger les GPU les plus performants, mais c'est aussi un marché important où beaucoup de gens veulent avoir accès.
Bonjour, je suis Daniel de DR. Pour revenir à quelque chose dont vous avez parlé plus tôt, tout le monde ici pense à implémenter l'IA dans ses flux de travail internes. Pouvez-vous préciser à quoi vous utilisez l'IA en interne dans le processus de fabrication des puces ?
Merci pour la question. Chaque entreprise cherche comment implémenter l'IA. Pour nous, il y a des fonctions d'ingénierie et des fonctions non liées à l'ingénierie comme les ventes, le marketing et l'analyse de données où l'IA peut être très utile. Du côté de l'ingénierie, nous cherchons comment construire des puces plus rapidement. Cela nous aide pour la conception, la génération de tests et les diagnostics de fabrication. Est-ce que je lui fais confiance pour construire une puce sans aucune intervention humaine ? No. Nous avons de nombreux ingénieurs. Les fonctions de Copilot sont assez faciles à adopter. Pour l'IA générative pure, nous devons vérifier et nous assurer que cela fonctionne. C'est un processus d'apprentissage avec de l'expérimentation et des cycles d'apprentissage rapides. Nous avons des équipes dédiées qui étudient comment intégrer l'IA dans nos processus de développement aussi vite que possible.
Bonjour, Jay Peters avec The Verge. Apple semble faire un effort beaucoup plus important dans la manière dont ses appareils, et particulièrement ses puces de la série M, sont vraiment bons pour le jeu AAA. Êtes-vous inquiète à propos d'Apple sur ce front ?
Ils m'ont dit que l'iPhone 15 Pro est la meilleure console de jeu au monde. Et c'est pour ça qu'il est Pro. C'est une situation très déroutante.
Je n'en sais rien. Le jeu est une application importante pour le divertissement. Je pense toujours à la concurrence, mais de mon point de vue, il s'agit de faire en sorte que l'écosystème du jeu permette aux gens d'emporter leurs jeux partout et de jouer avec des amis sur différentes plateformes. Nous avons ces options avec l'écosystème du jeu aujourd'hui. Nous allons continuer à repousser les limites sur les PC les plus performants et les puces de console, et je pense que nous allons être plutôt bons.
Conclusion et paris à long terme
Merci. Très bien, j'en ai une dernière pour vous. Si vous écoutez Decoder, vous savez que j'adore interroger les gens sur leurs décisions. Les PDG de puces doivent prendre les décisions à plus long terme de pratiquement n'importe qui auquel je puisse penser. Quel est le pari à plus long terme que vous faites en ce moment ?
Nous concevons définitivement pour des cycles de plus de cinq ans. Quand je pense au MI300, nous avons pris certaines de ces décisions architecturales il y a quatre ou cinq ans. Nous avons réfléchi à l'évolution du monde et au type d'informatique nécessaire, en étant très ambitieux dans nos objectifs. Nous sommes enthousiasmés par ce que nous construisons pour les cinq prochaines années.
Quel est le pari que vous faites en ce moment ?
Nous parions sur ce que sera la prochaine grande chose dans l'IA.
D'accord. Merci, Lisa.
De rien. J'ai fait de mon mieux.
J'aimerais remercier le Dr Lisa Su d'avoir discuté avec moi à la Code Conference, et particulièrement le public de Code d'être venu au spectacle. Comme toujours, j'aimerais savoir ce que vous pensez de l'émission. Vous pouvez nous envoyer un e-mail à decoder@theverge.com. Je lis tous les e-mails. Ou vous pouvez me contacter directement sur Threads. Je suis @reckless1280. Nous avons aussi un TikTok. Allez voir, c'est @decoderpod. C'est très amusant.