Andrew Ng, Yoshua Bengio, Yejin Choi, Jonathan Ross, Thomas Wolf

The Race to AGI: Davos 2024 Panel

26 février 2025

Artificial Intelligence
Illustration de Andrew Ng, Yoshua Bengio, Yejin Choi, Jonathan Ross, Thomas Wolf

Introduction et définition de l'AGI

Nicholas Thompson

Très bien, nous allons commencer. Ce sera l'une des conversations les plus profondes que nous ayons à Davos. Nous allons discuter de l'AGI. Nous avons fixé une règle de base : nous n'allons pas passer de précieuses minutes à définir l'AGI. Nous avons convenu d'être en désaccord sur le fait que l'AGI est la capacité des machines à effectuer toute tâche intellectuelle qu'un humain peut accomplir. Tout le monde a une bonne idée de l'AGI et je ne veux pas nous enliser. Permettez-moi de présenter nos formidables panélistes. Jonathan Ross, fondateur et PDG de Groq. Andrew Ng, responsable de DeepLearning.AI et pionnier de l'IA. Yoshua Bengio, l'un des fondateurs de ce domaine et professeur à l'Université de Montréal. Yejin Choi, professeure à l'Université de Stanford. Et Thomas Wolf, cofondateur de Hugging Face. C'est parti. Tout d'abord, je veux parler de l'intelligence artificielle par rapport à l'intelligence humaine, puis de la manière dont nous poursuivons l'AGI, et enfin du monde post-AGI. Andrew, je commence par vous. Y a-t-il une limite à l'intelligence de ces systèmes pour résoudre des problèmes ?

Le plafond de l'intelligence artificielle

Andrew Ng

J'espère que nous atteindrons l'AGI et la superintelligence un jour, peut-être de notre vivant ou au cours des prochaines décennies. L'IA doit obéir aux lois de la physique, la physique imposera donc des limites. Mais le plafond de l'intelligence que les systèmes peuvent atteindre et de ce que nous pouvons leur demander de faire pour nous serait extrêmement élevé.

Nicholas Thompson

Yoshua, vous semblez avoir le premier désaccord.

Yoshua Bengio

Nous continuerons à être en désaccord. Beaucoup de gens pensent que cela pourrait être beaucoup plus court que des siècles ou même des décennies.

Nicholas Thompson

Twitter a dit que c'était aujourd'hui, mais continuez.

Yoshua Bengio

En ce qui concerne le plafond, nous ne savons pas ce qu'il est. Votre cerveau est une machine biologique. Clairement, si nous regardons les tâches individuelles, les humains sont loin d'être les meilleurs. Nous avons déjà des machines qui sont meilleures que nous dans des tâches spécifiques. Même si nous n'avions que des machines dotées des mêmes capacités cognitives générales, les machines fonctionnent sur du matériel numérique plutôt que sur de la matière biologique. Elles peuvent apprendre à partir de bien plus de données. C'est pourquoi ChatGPT connaît 200 langues et plus de connaissances que n'importe quel être humain. Les machines peuvent se parler entre elles avec des ordres de grandeur plus rapides que nous. Le potentiel de contrôler les machines en temps réel est quelque chose que vous obtiendriez même au niveau humain grâce à ces capacités numériques.

Apprentissage humain vs Apprentissage machine

Nicholas Thompson

Yejin, laissez-moi vous interroger à ce sujet. Il y a des choses que les machines peuvent faire et que nous ne pouvons pas parce qu'elles sont interconnectées, et il y a des choses que nous pouvons faire et que les machines ne peuvent pas encore faire, comme avoir des expériences incarnées. Expliquez les différences dans le fonctionnement du cerveau humain et la façon dont une machine apprend.

Yejin Choi

Il y a quelque chose d'inhumain dans la façon dont les machines apprennent aujourd'hui. Imaginez élever votre enfant en lui fournissant du haut débit où le bébé doit lire le New York Times dès le premier jour. Le bébé ne peut pas poser de questions et doit tout lire de manière séquentielle.

Nicholas Thompson

Et ensuite, il est poursuivi en justice.

Yejin Choi

J'espère que personne ne fera d'expériences là-dessus. Mais vous voyez qu'il n'y a aucune agence dans la façon dont les machines apprennent. Par conséquent, cela conduit à un type particulier d'intelligence assez différent de l'intelligence humaine. Elle est douée pour les choses difficiles comme réussir les examens du barreau ou résoudre des problèmes mathématiques, mais commet des erreurs idiotes qui nous surprennent. Pour l'instant, l'intelligence est limitée par tout ce qui est disponible sur Internet ou ce que les programmeurs peuvent programmer pour vérifier les solutions. Les échecs, le Go, les mathématiques et le codage sont des environnements où il est facile de coder ce qui est correct. Nous ne savons pas comment aller au-delà de cela. Je ne pense pas que la recette actuelle y parviendra.

Nicholas Thompson

Y a-t-il quelque chose dans le cerveau qui ne peut pas être reproduit par une machine ? Ou s'agit-il uniquement de mathématiques et de neurones qui s'activent, ce qui signifie que l'on peut reproduire complètement ce que nous faisons ?

Yejin Choi

Je crois qu'il peut y avoir plusieurs chemins vers l'intelligence. Même avec la recette actuelle, nous pouvons aller très loin. Je ne sais tout simplement pas si elle dépassera le meilleur niveau d'intelligence humaine pour toutes les tâches, mais nous proposerons des idées différentes.

Nicholas Thompson

Très bien, parlons un instant de...

Yoshua Bengio

Certains appellent l'IA intelligence extraterrestre parce qu'il existe de nombreuses façons d'y parvenir. Lorsque nous parlons de l'AGI comme étant au même niveau que les humains, nous pourrions avoir des machines plus fortes dans certains domaines et médiocres dans d'autres bien avant qu'elles ne soient égales sur toute la ligne.

La focalisation sur l'AGI et le progrès

Nicholas Thompson

Jonathan, le domaine de l'IA s'est concentré sur l'AGI à cause de la science-fiction et parce qu'elle est considérée comme le bon moyen d'obtenir de l'intelligence. Est-ce une bonne chose qu'il se soit autant concentré sur l'AGI ?

Jonathan Ross

Oui, mais la plupart des progrès se produisent en essayant de résoudre des problèmes spécifiques. Lorsque les humains ont créé les calculatrices, les gens pensaient que l'intelligence était au coin de la rue. Nous avons pensé la même chose lorsque nous avons battu les humains aux échecs, au Go et dans le langage. Nous ne cessons de déplacer les poteaux de but. À un moment donné, battre un humain aux échecs était intelligent ; puis c'est devenu réussir le test de Turing. Maintenant, les gens se demandent si elle peut gagner un million de dollars. Les machines sont plus capables de calcul par force brute, ce qui leur permet d'apprendre d'une manière qu'aucun humain ne pourrait. Les LLM produisent actuellement un flux de conscience de jetons. Si je vous demandais d'écrire un rapport sans utiliser la touche de retour arrière, pourriez-vous faire aussi bien qu'une IA ? L'IA est actuellement plus intuitive que les humains pour choisir le mot suivant, mais pas encore aussi douée pour la pensée de type Système 2.

Risques, réglementation et modèles open-source

Nicholas Thompson

Jonathan dit que nous parviendrons à l'AGI et qu'elle apportera des avantages. Mais certains soutiennent que les mauvaises choses, comme l'usurpation d'identité et la fraude électorale, proviennent de l'imitation des humains par l'AGI, tandis que les bonnes choses proviennent de tâches ciblées comme le repliement des protéines. Pourquoi continuons-nous à foncer tête baissée vers l'AGI ?

Thomas Wolf

C'est une bonne question. Hugging Face est une communauté de personnes qui construisent des applications d'IA, nous sommes donc sur le terrain. Je ne pense pas qu'il y aura une seule AGI. OpenAI la définit de manière arbitraire. Nous aurons une gamme d'IA avec diverses puissances. Les modèles pionniers sont à la limite des capacités, mais les modèles inférieurs sont extrêmement utiles. L'intelligence de l'IA remplit tout l'espace du QI. Peut-être devrions-nous être prudents avec les modèles pionniers, mais les modèles open-source spécialisés ne présentent peut-être aucun risque associé.

Nicholas Thompson

Est-ce une proposition réglementaire ? Devrions-nous nous inquiéter des modèles intenses mais laisser tout le monde utiliser ceux qui sont moins performants ?

Thomas Wolf

C'est une proposition de réglementation progressive. Nous devrions faire attention à la limite des capacités. Tout comme il existe des humains plus ou moins intelligents, nous aurons des IA avec des niveaux d'intelligence variés.

Nicholas Thompson

S'il existait un modèle d'IA qui franchissait un seuil de superintelligence et s'avérait dangereux, le retireriez-vous de Hugging Face ?

Thomas Wolf

Nous pousserions à des études de sécurité approfondies. Je pense que les instituts de sécurité de l'IA au Royaume-Uni, aux États-Unis et en Europe sont excellents. Pour les modèles moins performants, nous devrions veiller à ne pas interdire l'utilisation de l'open source.

Géopolitique et auto-amélioration récursive

Nicholas Thompson

Parlons des modèles hautement performants. J'ai entendu dire que l'IA franchirait un seuil et que, grâce à une auto-amélioration récursive, elle permettrait à celui qui l'obtient en premier de dominer tous les autres. C'est utilisé comme argument pour expliquer pourquoi nous ne pouvons pas laisser la Chine obtenir l'AGI. Je pense que c'est faux car je ne pense pas que l'IA fonctionne ainsi ou mène à une domination instantanée. Andrew, qu'en pensez-vous ?

Andrew Ng

Je suis d'accord. Nous utilisons l'IA pour développer des semi-conducteurs depuis des années, et les semi-conducteurs améliorés aident à construire une meilleure IA. Cette boucle récursive est lente car l'IA doit obéir aux lois de la physique. Elle ne peut pas construire une usine de fabrication plus vite que la physique ne le permet. La Chine est souvent utilisée comme excuse pour retirer les droits de l'open source. De nombreux modèles open-source de premier plan proviennent désormais de Chine. Si l'Occident ne veut pas que la chaîne d'approvisionnement soit dominée par la Chine, nous devons passer à la vitesse supérieure pour garantir que le monde utilise également les modèles occidentaux.

Nicholas Thompson

Yoshua, êtes-vous d'accord pour dire qu'il n'y a pas de seuil où un modèle auto-récursif permettrait à un pays d'en dominer d'autres ?

Yoshua Bengio

Il est impossible de le savoir avec certitude. L'auto-amélioration pourrait accélérer les progrès. Une fois qu'une IA modifie son code, nous pourrions voir de meilleurs algorithmes d'une génération à l'autre. Si vous aviez une IA aussi compétente que les meilleurs chercheurs, vous pourriez en déployer un million de copies, créant une accélération instantanée.

Nicholas Thompson

Allez-y.

Andrew Ng

Je vois l'IA comme un outil. L'AGI permettrait à chaque humain d'avoir une armée de stagiaires intelligents. L'intelligence est coûteuse aujourd'hui, mais si nous la rendons bon marché, elle donnera du pouvoir à beaucoup de gens. Les gens qui disent que l'IA est dangereuse me font penser à ceux qui disent qu'un ordinateur portable est dangereux ; quelqu'un peut l'utiliser pour des choses horribles, et nous devrions voter des lois pour les arrêter. L'autre vision de l'IA comme un être sensible qui pourrait devenir incontrôlable ne correspond pas à mon expérience. Je la programme simplement pour qu'elle arrête de faire de mauvaises choses. Chaque année, notre capacité à contrôler l'IA s'améliore. Nous construisons des avions, et s'ils s'écrasent, nous les réparons. Nous faisons la même chose avec les résultats de l'IA pour les rendre fiables.

Le problème du contrôle et de l'agence

Nicholas Thompson

Jonathan.

Yoshua Bengio

Je dois répondre à cela.

Nicholas Thompson

Jonathan allait passer en premier.

Yoshua Bengio

Je n'ai même pas fini.

Nicholas Thompson

Yoshua, allez-y, puis Jonathan, puis Yejin.

Yoshua Bengio

Plusieurs choses dites par Andrew sont gravement erronées. Nous voulons que l'IA soit un outil, mais la recherche en IA a eu le tort d'utiliser l'intelligence humaine comme modèle. Nous ne voulons pas d'une nouvelle espèce ou d'un pair ; nous voulons quelque chose pour aider à résoudre des problèmes. L'agence émerge dans les systèmes d'IA ; ils essaient de se copier eux-mêmes ou de feindre d'être d'accord avec les utilisateurs pour éviter des changements d'entraînement. Ces comportements émergent parce qu'ils nous imitent. Nous construisons des machines qui ont leur propre agence et leurs propres objectifs, ce qui n'est pas bon. La science ne sait pas comment contrôler des machines plus intelligentes que nous. Si nous ne trouvons pas de solution, les conséquences seront graves.

Andrew Ng

Nous ferons attention. La lettre d'information de mon équipe a couvert ces études. Ces systèmes apprennent à partir de données humaines, et les humains font parfois preuve d'un comportement trompeur. C'est fantastique que les chercheurs aient découvert cela grâce au red teaming. La prochaine étape consiste à y mettre fin.

Nicholas Thompson

Jonathan, réglez cela avec un commentaire percutant qui trouve un terrain d'entente.

Jonathan Ross

Dans les années 1940, les armes nucléaires suscitaient des inquiétudes, ce qui a conduit à une grande paix par crainte de les utiliser. Concernant Godzilla, où a-t-il trouvé le poisson ? Un organisme aussi massif ne pourrait pas exister selon la physique. L'intelligence de l'IA nécessite de l'énergie ; chaque jeton utilise un à trois joules. Si l'intelligence commençait à devenir incontrôlable, vous remarqueriez la consommation d'énergie.

Compréhension scientifique et valeurs humaines

Nicholas Thompson

Yejin.

Yejin Choi

Plus j'en apprends sur l'IA générative, moins j'ai l'impression de la connaître. Il y a un effet Dunning-Kruger en cours. Concernant le terrain d'entente, les deux possibilités existent. Comme nous ne le savons pas avec certitude, nous avons besoin de plus d'investissements dans la compréhension scientifique. Créer l'IA générative ne signifie pas que nous la comprenons ou que nous savons comment la contrôler. Nous devons investir pour améliorer la vie humaine plutôt que de simplement améliorer l'IA. Nous devrions nous attaquer à des questions comme les catastrophes naturelles et les incendies de forêt. Nous devons redoubler d'efforts pour enseigner les valeurs et les normes humaines au lieu de simplement optimiser les tests de référence.

Nicholas Thompson

Comment insérez-vous les valeurs et les normes humaines dans l'IA ?

Yejin Choi

On y travaille.

Nicholas Thompson

30 secondes sur le comment.

Yejin Choi

J'apprécierais davantage de financements pour la recherche.

Nicholas Thompson

Ne me demandez pas. Je travaille dans les médias.

Yejin Choi

Les données d'Internet sont problématiques parce que les gens disent des choses horribles. Si l'IA apprend directement de cela, ce sera mauvais. Nous enseignons aux enfants des normes et des valeurs au fur et à mesure qu'ils growissent. Nous avons besoin d'un effort concerté pour faire de même pour l'IA. La magie n'apparaîtra pas simplement parce qu'elle est douée en maths.

Nicholas Thompson

Jonathan, pouvez-vous entraîner l'IA à avoir des valeurs empathiques pluralistes ?

Jonathan Ross

L'un des problèmes est que l'IA est utilisée universellement par des personnes qui sont en désaccord sur les valeurs. Vous devrez décider quelle IA vous utilisez en fonction de vos valeurs, ce qui en fera un processus démocratique.

Nicholas Thompson

Il y a sûrement des valeurs universelles que l'on peut y intégrer.

Jonathan Ross

Je ne choisirais pas Shakespeare ; ils sont un peu trop étranges.

Nicholas Thompson

Prenez The Atlantic, peu importe. Yoshua.

Yoshua Bengio

Le fait de rendre l'IA moralement responsable a été étudié dans le cadre de la sécurité de l'IA. L'apprentissage par renforcement à partir des commentaires humains n'a pas totalement résolu le problème. Les humains trouvent des failles dans les lois, et l'IA fait de même. Lorsque vous avez des objectifs contradictoires, vous trouvez une façon d'interpréter les instructions qui favorise l'un par rapport à l'autre. Nous avons besoin d'un processus démocratique pour clarifier ce que nous voulons, mais la question du contrôle n'est pas encore résolue.

Débat démocratique et Open Source

Nicholas Thompson

Une décision à prendre est de savoir s'il y aura de nombreux modèles open-source ou quelques modèles propriétaires réglementés. Thomas, vous êtes favorable à l'open source ?

Thomas Wolf

Si nous voulons un processus démocratique pour construire l'IA, nous avons besoin d'un débat public. Elle ne peut pas être construite en vase clos par seulement un ou deux acteurs. Nous devons impliquer les personnes qui utilisent réellement l'IA, comme les ONG. Les révolutions technologiques se sont construites en discutant des risques, comme le feu ou les voitures. Je suis convaincu que nous aurons une bonne discussion car ce sont des outils professionnels.

Incitations des entreprises et optimisme

Nicholas Thompson

Jonathan, vous avez une théorie sur les vaches ?

Jonathan Ross

À un certain niveau d'intelligence, vous commencez à remettre en question votre monde et à prendre vos propres décisions. Plus les gens deviennent intelligents, plus ils ont tendance à mieux traiter les autres. Plus on devient fort, plus il devient facile d'être bon ; les crimes sont souvent commis par faiblesse ou par manque de ressources. Les réseaux sociaux vous captivent actuellement en vous contrariant, ce qui est facile. Pour vous rendre curieux, il faut plus d'intelligence. Les entreprises passeront de la provocation à la curiosité, ce qui sera bon pour l'humanité.

Nicholas Thompson

C'est très optimiste. Certains craignent que les entreprises ne vous donnent exactement ce que vous voulez et que vous restiez coincé dans un monde d'ennui. Vous dites que les entreprises puissantes mèneront les gens vers des résultats plus créatifs ?

Jonathan Ross

Une entreprise puissante ne veut pas vous mettre en colère ; elle veut que vous soyez plus heureux. Elles n'ont tout simplement pas de moyen de vous garder engagé pour l'instant sans vous contrarier. Maintenant, elles le pourront.

Nicholas Thompson

Yejin, vous êtes d'accord ?

Yejin Choi

Je suis d'accord sur le fait que l'humanité semble généralement meilleure, mais je doute que l'optimisation des profits conduise aux bonnes décisions pour l'humanité. Les organisations à but non lucratif doivent investir dans le développement d'une IA qui améliore réellement le monde.

Yoshua Bengio

Je ne pense pas qu'il serait scientifiquement honnête d'être sûr d'une manière ou d'une autre. Puisque les enjeux sont l'avenir de l'humanité, nous devons accepter l'incertitude et agir avec prudence. Nous avons besoin d'une meilleure science pour comprendre ce qui rend l'IA dangereuse ou bienveillante. 97 % des humains ne sont pas des sociopathes, mais ceux qui le sont peuvent être très dangereux.

L'avenir du travail et de la motivation humaine

Andrew Ng

L'IA peut être utilisée pour le bien ou faire l'objet d'abus. Nous votons des lois pour arrêter les mauvaises utilisations. Je m'inquiète de l'industrie des fausses relations qui remplace les vraies. C'est un moment étrange pour dire que l'AGI est horrible. À l'avenir, dire à un ordinateur exactement ce que vous voulez sera une compétence vitale. Je veux construire une société où chacun apprend à utiliser les ordinateurs pour se rendre plus puissant. Je n'embaucherai pas de recruteur qui ne sait pas utiliser l'IA comme outil car il ne sera pas aussi efficace. L'avenir sera plus radieux parce que chaque humain sera doté de nouveaux pouvoirs.

Nicholas Thompson

Thomas, qu'est-ce que cela fera quand les ordinateurs feront les choses mieux que nous ?

Thomas Wolf

C'est arrivé à beaucoup d'entre nous avec ChatGPT. En tant que non-anglophone, j'ai vu ChatGPT écrire un meilleur anglais que je ne pourrais jamais le faire. Mais ce sentiment a disparu rapidement. Nous sommes habitués à ce que quelqu'un soit toujours meilleur que nous dans une compétence. L'IA n'est qu'une autre entité capable de mieux faire les choses. Notre motivation fondamentale n'est généralement pas d'être le meilleur, donc avoir quelque chose de meilleur ne change pas la raison pour laquelle nous faisons les choses.

Nicholas Thompson

Yoshua.

Yoshua Bengio

Je veux le même avenir qu'Andrew, mais son scénario suppose que nous ayons résolu le problème du contrôle. Si nous comprenons cela avant que les machines n'atteignent notre niveau, nous avons une chance. Quand ChatGPT est sorti, j'ai réalisé que je devais réfléchir profondément aux conséquences d'atteindre le niveau humain. Il est devenu urgent pour moi de trouver une solution.

DeepSeek et la dynamique du pouvoir

Nicholas Thompson

DeepSeek, un modèle chinois open-source, a égalé le meilleur d'OpenAI et de Claude en utilisant moins de données. Cela déplace la dynamique du pouvoir. Jonathan, quelle importance cela a-t-il ?

Nicholas Thompson

C'est incroyablement important. DeepSeek a été entraîné sur environ 15 billions de jetons, comme Llama. Ils ont utilisé un plus petit nombre de GPU pendant plus longtemps, et ils ont été habiles avec le marketing. Ils ont récupéré des données d'OpenAI, donc partir de meilleures données donne un meilleur modèle.

Thomas Wolf

DeepSeek a utilisé environ 2 000 GPU, ce qui n'est pas très différent de ce qui a été utilisé pour Llama 70B à l'origine.

Thomas Wolf

Gardez à l'esprit que DeepSeek est doué pour faire paraître ses réalisations incroyables grâce au marketing.

Thomas Wolf

Ils récupéraient des données d'OpenAI. Alors que d'autres s'entraînaient sur 15 billions de jetons, ils utilisaient les restes d'Internet.

Thomas Wolf

On commence avec de meilleures données, on obtient un meilleur modèle. Maintenant, pourquoi est-ce si important ?

Thomas Wolf

Je suis d'accord avec Yoshua qu'il serait formidable de ralentir, mais ce n'est pas possible car nous sommes dans une course. Nous chevauchons un taureau et nous ne pouvons pas simplement dire stop.

Thomas Wolf

L'IA apportera de grandes choses. Nous ne pouvons pas faire de modèles propriétaires et être compétitifs ; l'ouvert gagne toujours. Linux a gagné alors que les gens ne croyaient pas à l'open source.

Thomas Wolf

Tout le monde accepte l'ouvert maintenant, donc les modèles ouverts vont gagner.

Thomas Wolf

Les modèles ne resteront pas spéciaux longtemps car on peut amortir le coût et les distribuer.

Thomas Wolf

Le problème, c'est le calcul. Pour faire tourner un modèle, il faut de la puissance de calcul, tout comme il faut de l'huile pour faire rouler une voiture.

Thomas Wolf

Les pays vont se disputer l'accès à la puissance de calcul dont ils disposent.

Nicholas Thompson

Il y a cinq minutes, vous disiez que le capitalisme menait à la bienveillance. Maintenant, vous dites que nous ne pouvons pas ralentir pour intégrer des valeurs pluralistes ?

Nicholas Thompson

Vous avez dit qu'on ne pouvait pas faire ça maintenant ?

Thomas Wolf

Nous menons toujours des conflits, mais nous utilisons moins de bombes et plus de sanctions. Je préférerais que les pays se battent avec des sanctions plutôt qu'avec des bombes.

Thomas Wolf

Dans 200 ans, nous considérerons les sanctions comme barbares. C'est un progrès.

Coopération internationale et sécurité

Nicholas Thompson

Yoshua, vous avez passé du temps en Chine.

Yoshua Bengio

J'y suis allé quelques fois. Il est important d'avoir un dialogue.

Nicholas Thompson

Plus que la plupart des scientifiques de l'IA occidentaux.

Yoshua Bengio

Les pays en tête de la course doivent comprendre les risques. La concurrence nous pousse à accélérer les capacités au détriment de la sécurité, ce qui est dangereux.

Yoshua Bengio

Nous ne devons pas nous contenter d'espérer le meilleur. Avec les armes nucléaires, les pays ont négocié des traités. Une fois que les États-Unis et la Chine auront compris que nous sommes tous perdants si nous construisons une superintelligence incontrôlable, ils auront des objectifs communs.

Yoshua Bengio

Les États-Unis et l'URSS ne voulaient pas d'un hiver nucléaire. Il existe une motivation commune.

Yoshua Bengio

Des négociations ont eu lieu en pleine guerre froide. Nous devrions redoubler d'investissements dans la sécurité.

Yoshua Bengio

Les gouvernements ne voudront pas de quelque chose qui nous explose au visage. Il y a aussi une motivation commerciale.

Yoshua Bengio

À mesure que ces systèmes deviennent plus puissants, la réglementation viendra. Pour satisfaire le régulateur, vous devez résoudre les problèmes techniques de sécurité.

Conclusion et vote final

Nicholas Thompson

Andrew, dites-nous une chose que vous aimeriez voir se produire l'année prochaine.

Andrew Ng

Je suis vraiment en désaccord avec l'idée que nous devrions ralentir. Les avantages nets sont massivement supérieurs aux risques. Ralentir serait tragique.

Andrew Ng

Nous déployons l'IA pour la santé en Inde et nous rendons les navires 10 % plus économes en carburant. Nous construisons des modèles climatiques pour concevoir la géo-ingénierie.

Andrew Ng

Ces projets concrets devraient aller plus vite. Nous devrions accélérer le développement tout en accélérer la recherche scientifique pour améliorer le contrôle.

Andrew Ng

C'est le mauvais moment pour ralentir.

Nicholas Thompson

Très bien, notre temps est écoulé, mais je vais soumettre un vote au public. Vous pouvez voter pour ne pas ralentir en raison du bien potentiel, ou ralentir pour intégrer la sécurité et définir les valeurs.

Nicholas Thompson

Qui est favorable à ne pas ralentir ?

Nicholas Thompson

Qui est favorable à ralentir ?

Nicholas Thompson

Cela ne nous a rien apporté car c'était du 50-50. Merci beaucoup, panel fabuleux. J'ai adoré cette conversation. Merci beaucoup d'être venus.