The Future of AI and Human Connection
28 avril 2025
Technology
Introduction and Sci-Fi Concerns
Y a-t-il une œuvre de science-fiction qui vous vient à l'esprit concernant notre situation actuelle ou les sujets de préoccupation ?
Les gens évoquent sans cesse le concept de Terminator car l'idée d'une IA auto-réplicatrice est une véritable préoccupation qui s'est propagée et que les gens ont entendue résonner dans d'autres domaines scientifiques.
Et vous avez dit vous-même que cela n'arriverait pas à moins que quelqu'un ne le développe ainsi, ce qui n'est pas vraiment rassurant car il est probable que quelqu'un ayant les bons incitatifs financiers puisse le faire.
Oui, quand on met ce genre de pouvoir entre les mains de littéralement des centaines de millions de développeurs, l'équation change.
Mustafa Suleyman's Background and Mission
Je suis Mustafa Suleyman. Je suis actuellement le PDG de Microsoft AI. Et depuis 15 ans, je développe ce que je crois être une intelligence artificielle humaine et éthique.
Mon objectif actuel est de faire en sorte que les jeunes aiment à nouveau les produits grand public de Microsoft et sentent que c'est un endroit où nous produisons une technologie de pointe qui vous comprend vraiment, présentée de manière belle, épurée et facile à utiliser.
Et chaque nouvelle vague technologique nous donne l'occasion de réimaginer l'interface.
Early Activism and the Muslim Youth Helpline
L'une des raisons pour lesquelles je voulais vous parler en particulier, c'est qu'il y a beaucoup de gens qui dirigent l'IA quelque part en ce moment, sans vouloir être dédaigneuse, mais c'est un marché assez vaste.
Beaucoup de gens ont prétendument besoin de beaucoup d'argent pour y parvenir. Mais vous vous distinguez car quand je regarde votre parcours, ce n'est pas celui d'un super ingénieur qui a battu 50 personnes aux échecs et qui se retrouve maintenant à la tête de quelque chose.
Vous abordez cela comme une personne humaine. Et tant de gens à qui j'ai parlé ces deux dernières années sont marqués d'une manière ou d'une autre par le 11 septembre, l'endroit où ils se trouvaient à ce moment-là et qui ils étaient.
Je veux donc revenir sur un point précis : votre expérience du lancement de cette ligne d'assistance pour la jeunesse musulmane quand vous étiez adolescent, n'est-ce pas ? Vous aviez 18, 19 ans.
Que se passait-il à cette époque ? C'était peu après le 11 septembre au Royaume-Uni. Quelle était l'ambiance dans le quartier où vous avez grandi ? Je ne sais pas si vous viviez dans une maison, une cité, ou comment c'était.
Oui, c'est un parallèle intéressant. Ma mère était anglaise, mon père syrien, tous deux étaient musulmans. J'ai été élevé dans un foyer musulman assez strict.
Puis, à 18 ans, je suis allé à Oxford pour étudier la philosophie et je suis devenu essentiellement athée. J'ai quitté la religion.
Mais même en tant que personne laïque, je me sentais toujours poussé à essayer de trouver comment aider les jeunes musulmans britanniques à concilier leur identité religieuse, raciale et ethnique dans le contexte de leur identité britannique.
Mais pourquoi ? Vous sentiez-vous seul à Oxford ? Était-ce votre foyer ? Ce n'est pas quelque chose de fortuit. Ce n'est pas une banque alimentaire. C'est très spécifique. D'où est-ce venu ?
Vous avez raison. C'était dans le contexte du 11 septembre, l'islamophobie était vraiment en hausse. Et on demandait aux gens soit de s'identifier pleinement comme britanniques et alignés, soit non.
Et pourtant, il existait de nombreuses méthodes pour faire face à cette ambiguïté, comme la foi et une écoute et un raisonnement sensibles à la culture et sans jugement, dispensés de pair à pair.
En gros, vous êtes un gamin à Oxford, vous avez quitté votre religion, mais vous voulez quand même une sorte de soutien émotionnel, pourquoi ?
Eh bien, je pense que beaucoup de gens traversaient une transition difficile à ce moment-là parce que leurs parents, souvent immigrés, ne comprenaient pas ce que c'était que de grandir en se sentant britannique et en l'étant, d'être né au Royaume-Uni, tout en ayant un contexte culturel et religieux qui n'était vraiment compris par personne d'autre que leurs pairs.
Notre approche consistait donc à essayer de mettre en place un service de soutien entre pairs pour les jeunes, plutôt que de devoir compter sur les aînés de leur communauté qui étaient souvent portés sur le jugement et ne comprenaient pas les problèmes auxquels beaucoup étaient confrontés concernant leur sexualité, par exemple, ou le fait d'avoir des relations avant le mariage ou de commencer à boire, etc.
Il y avait tellement de tabous et de pressions, et cela semblait tout simplement naturel. C'est juste trouver des moyens de parler pour guérir grâce à la compréhension.
From DeepMind to Empathetic AI
Bien des années plus tard, la personne que vous êtes devenue essaie de créer une IA qui fait ces choses, n'est-ce pas ? Une compréhension sans jugement.
Quand avez-vous réalisé que vous faisiez cela ? Était-ce à DeepMind ? Était-ce quand vous étiez chez Inflection et que vous créiez Pi ? Il y a des indices qui montrent que vous essayez de créer quelque chose de sympathique, d'empathique et d'utile.
Vous savez, durant les sept à dix premières années de DeepMind, de 2010 jusqu'à environ 2020, la plupart des progrès que nous avons réalisés l'ont été dans le contexte de la compréhension et de la génération d'images, et de la compréhension et de la génération de vidéos.
Que peut-elle voir ? Que peut-elle fabriquer ? Que peut-elle générer d'elle-même ? Oui.
Exactement. Et pouvait-elle jouer à ces jeux et optimiser le score dans un jeu ? En 2015 ou 16, j'ai travaillé sur des recherches sur le traitement du langage naturel pour essayer de prédire quel mot viendrait ensuite dans une phrase avec ces mêmes réseaux neuronaux qui avaient réussi dans le jeu.
Nous avons pensé que nous pourrions peut-être appliquer cela au domaine du langage. Nous avons fait de bons progrès, apporté de bonnes contributions au domaine, mais c'était clairement trop tôt. Mais mon rêve a toujours été de pouvoir modéliser le langage car le langage est essentiellement le véritable descripteur de la culture, de qui nous sommes en tant que peuple et de ce que cela signifie.
Et il le façonne. Certains de nos plus grands combats culturels portent sur le nom des choses et la façon dont on en parle.
Et donc cette question sur ce que l'IA va faire est très captivante pour moi, surtout en tant que journaliste, car si les données entrantes sont mauvaises, les données sortantes le seront aussi. Et j'ai juste passé plusieurs années sur un internet terrible et j'ai des doutes.
Et pourtant, le langage est aussi ce qui nous inspire et nous motive à être la meilleure version de nous-mêmes, n'est-ce pas ? Et offrir cela avec bienveillance et empathie est, je pense, l'un des moyens les plus évolutifs d'avoir un impact positif sur le monde. Les enjeux sont donc élevés, mais la récompense est aussi extraordinaire.
Defining AI for a Six-Year-Old
Vous avez partagé par le passé cette histoire de votre neveu de six ans vous demandant ce qu'était l'IA.
Et je veux commencer par là parce qu'habituellement sur internet les gens disent : explique-moi comme si j'avais cinq ans. Alors expliquez-moi comme si j'avais cinq ans ou comme à votre proche de six ans, qu'est-ce que l'IA ? Comment la définissez-vous pour le commun des mortels ?
Une façon de voir les choses est qu'une IA est vraiment là pour accomplir des tâches en votre nom. Elle répond à des questions, explique des choses, recueille des informations sur tout le web.
Et est-ce un programme ou un algorithme ?
Oui, c'est un peu la question clé. Pendant toute l'histoire de l'informatique, nous avons conçu des règles que les ordinateurs suivent très précisément. Comme une base de données relationnelle qui est un moyen de stocker des informations. On y met un tas d'informations, et quand on veut y accéder, on récupère exactement la même information.
Avec ces nouveaux modèles, nous leur apprenons en fait à apprendre leur propre mécanisme de stockage, qui sont ces réseaux neuronaux. Ils stockent les informations de manière beaucoup plus associative.
Chaque mot qui entre dans le réseau neuronal a une relation avec tous les autres mots basée sur son expérience de tous les mots qu'il a vus dans les données d'entraînement.
Maintenant, en tant qu'humain, cela signifie que je l'associe aussi à mes traumatismes passés, aux choses que mes amis ont dites, à la façon dont j'ai été élevé. La machine n'a rien de tout cela à moins qu'elle ne tire les données d'internet, je suppose, de tout ce que nous y avons mis collectivement. Est-ce ainsi que je dois comprendre cela et ses limites ?
C'est exactement ça. Et c'est toute la beauté de la chose. Nous voulons qu'elle apprenne la subtilité, la nuance, nous voulons qu'elle soit créative.
Les gens disent souvent que ces modèles souffrent d'hallucinations, qu'ils inventent des choses. En fait, ils sont conçus pour inventer des choses, n'est-ce pas ? Nous voulons qu'ils nous disent quelque chose que nous ne savons pas.
Nous voulons qu'ils imaginent l'espace entre un zèbre et un poisson, puis génèrent une nouvelle image qui se situe entre ces deux points.
Et cela a toujours été la limite des anciens logiciels. L'ancienne programmation était structurée, basée sur l'heuristique, la logique, rigide. Ceci est flexible, adaptatif, créatif. Et c'est en fait la grande ambition. Nous recherchons des modèles qui nous enseignent quelque chose que nous ne savons pas, qui nous donnent une réponse inédite et créative sur-le-champ.
Est-ce comme le cerveau humain ou pas ?
Je pense que c'est assez similaire dans le sens où quand je dis le mot chien, les synapses de votre esprit s'activent dans des centaines de millions de directions.
Le sound du mot, le toucher que vous avez expérimenté par le passé, l'idée d'un chien à la fois comme protecteur et compagnon, le fait d'être idiot, l'idée qu'un chien a des chiots et vit dans un certain endroit. Toutes ces riches informations sont subtilement déclenchées dans votre cerveau quand je prononce ce mot.
De même avec ces modèles, they have a similar neural representation rather than an XY cell-like relationship in Excel, which is a relational database. Donc ce n'est pas exactement comme un humain, pour être clair, mais il y a des éléments similaires.
AI Safety, Containment, and the Digital Species
Pendant que nous y sommes, il y a eu ce moment avec le haut dirigeant d'Anthropic qui produit Claude, l'une des IA, et il disait qu'ils jouaient avec l'idée d'un bouton de démission que la machine elle-même pourrait déployer si elle ne voulait pas exécuter une commande, et qu'ils pourraient suivre le nombre de fois où cela arrive et ce qu'ils en apprendraient.
J'y ai pensé et j'ai pensé à votre affirmation d'une espèce numérique. Que pensez-vous de quelque chose comme ça ? Envisageriez-vous cela pour Copilot ?
Je pense que c'est le moment d'être très créatif et ouvert d'esprit. Beaucoup de gens ont proposé différentes méthodes pour ce que j'appellerais le confinement.
Dans mon livre, j'ai écrit sur cette idée d'établir des frontières de confiance à toutes les échelles, depuis le modèle jusqu'à la propriété de l'entreprise, puis la réglementation nationale.
Je pense que ce sera l'élément clé pour pouvoir piloter cela de la bonne manière au cours des prochaines décennies.
Mais cette espèce peut-elle avoir le droit de dire non ?
Espèce n'est délibérément pas une représentation littérale. C'est un effort pour essayer de donner un sens à quelque chose de nouveau. Ce n'est pas une espèce. Elle possède simplement certains éléments de ce que pourrait être une espèce.
Et elle aura beaucoup de caractéristiques très différentes des humains. Elle n'aura pas...
Mais est-ce le genre de test pour comprendre quelles pourraient être ces caractéristiques ?
Cela pourrait l'être. Oui, certainement. Il est très intéressant de voir que nous nous sommes beaucoup concentrés sur son QI. Nous essayons donc de faire en sorte qu'elle soit factuellement exacte, qu'elle ait des connaissances très complètes, des citations de référence afin que vous puissiez examiner les preuves derrière chaque affirmation.
Elle s'améliore dans son intelligence émotionnelle, elle peut refléter et être empathique et solidaire, etc. Mais il y a des qualités incroyablement intéressantes qu'elle n'a pas, ce qui est une bonne chose.
Par exemple, elle n'a pas de culpabilité. Elle n'a pas de honte. Elle n'a pas d'ego compétitif. Il n'y a pas de désir intrinsèque en elle. Elle n'est donc pas obligée de faire quoi que ce soit d'autre que de prédire le mot suivant par rapport à la politique de comportement qui lui a été donnée.
Et pourtant, les humains ont tous ces moteurs émotionnels sous-jacents qui forment notre comportement et nos paroles. Nous concevons donc maintenant ces modèles sans beaucoup des faiblesses que nous avons en tant qu'espèce.
Et pour moi, c'est ce qui m'a motivé à l'origine pour essayer de faire cela il y a 15 ans. C'est ce qui m'inspire vraiment. Il y a véritablement une chance que cela puisse refléter le meilleur de nous tous.
Guardrails and Corporate Responsibility
Nous parlons de l'idée de confinement, et cela m'amène à l'idée de garde-fous. Quel genre de garde-fous devrait-il y avoir ? Parce que nous sommes dans un moment où nous les avons littéralement vus reculer.
Oui, oui. C'est une question vraiment difficile. Je veux dire, il y a des garde-fous, nous devons penser aux garde-fous à toutes les échelles. Au niveau le plus bas, vous avez décrit une proposition de mettre des garde-fous autour du modèle lui-même.
Donc dans la machine elle-même. Dans la machine. A-t-elle un moyen de dire : je ne peux pas raisonner sur ce problème, c'est trop compliqué, je dois m'arrêter.
Et quel est le prochain cercle concentrique après cela ?
Au-delà de ça, la machine a-t-elle la capacité de s'auto-améliorer ? Ce serait certainement un domaine où il y aurait plus de risques. Peut-elle modifier son propre code en temps réel ?
Ensuite, il y a la question de savoir quelle est la fonction objective de la machine ? Qu'est-ce qu'elle essaie de faire ? Quelle est sa motivation ? Et cela renvoie au modèle économique. Est-elle alignée sur vos intérêts ? Qu'essaie-t-elle réellement de faire ? Avez-vous le sentiment qu'elle est responsable devant vous ? Pouvez-vous la diriger ?
Et puis, quelle est la motivation et le type de gouvernance de l'entreprise, du laboratoire ou de l'organisation qui la construit ? C'est une question vraiment importante. Et je pense que c'est un moment où nous allons devoir croire et faire confiance à nos entreprises et compter sur elles pour faire ce qu'il faut.
Pourquoi ? Je veux dire, nous venons de passer une décennie ou une décennie et demie où nous avons vu des conséquences imprévues peser sur notre démocratie. Et nous sommes encore aujourd'hui aux prises avec l'exposition des données et les inquiétudes qui y sont liées.
Les gens ont donc appris beaucoup de dures leçons et je pense qu'ils sont beaucoup moins prêts à croire.
Oui. Et je pense que c'est la bonne approche car il serait faux de faire confiance aveuglément. Nous sommes dans un moment de confiance mais vérification. Alors vérifions. Regardons les trois dernières années.
En 2022, 2021, quand ces modèles ont commencé à sortir, nous craignions tous qu'en grossissant, ils soient moins contrôlables. Qu'en ajoutant plus de données, ils soient plus biaisés. Qu'en accédant à plus d'outils, ils causent plus de dommages.
Nous avons maintenant trois ans de données empiriques sur leur mise en production dans de nombreux laboratoires différents, pas seulement un seul, avec des centaines de millions d'utilisateurs quotidiens. Et globalement, il y a eu quelques dommages. Certaines personnes ont clairement été blessées par cela.
Mais le chiffre de 99,999 % est assez stupéfiant. Le fait qu'il mette un capital intellectuel bon marché et abondant à la disposition de tous, quel que soit votre bien-être. Vous pouvez l'obtenir sur WhatsApp et ne payer pratiquement rien. Il est désormais disponible en open source, totalement gratuit pour l'expérimentation.
Encore une fois, j'ai dit : confiance mais vérification. Cela ne signifie pas que demain sera pareil. Nous devrions donc continuer avec une approche sceptique et critique parce qu'ils sont sur le point d'acquérir de nouvelles capacités.
Ils sont sur le point d'appeler des API, de lancer d'autres applications, de parler à d'autres IA. La portée du défi du confinement s'élargit à mesure qu'ils disposent de ces capacités d'interaction et d'auto-amélioration. Mais je pense que nous devons prendre un moment pour célébrer là où nous en sommes déjà. C'est assez remarquable.
Innovation vs. Regulation and Economic Impact
L'une des choses est que vous dites confiance mais vérification. Mais je ne sais pas qui va s'occuper de vérifier. Quand je vois des pays se réunir pour un sommet international, c'était un peu le désordre et ils n'ont pas réussi à se mettre d'accord sur leur intérêt national par rapport à ce que devrait être l'intérêt collectif.
De nombreux avertissements ont été émis concernant les problèmes potentiels. Plus récemment, nous avons eu JD Vance, le vice-président, parlant de l'innovation et disant qu'elle devait être l'étoile polaire de cette conversation.
Alors, comment équilibrer les deux ? Je sais à quoi ressemble l'industrie technologique quand l'innovation est son étoile polaire. Et nous sommes laissés pour compte à bien des égards.
Écoutez, le débat avance puis part dans une autre direction et c'est un équilibre naturel et sain dans nos démocraties.
Mais cela avance très vite. Quand on parle même d'il y a quelques années, ce que l'IA pouvait faire n'est pas ce qu'elle fait aujourd'hui ou là où elle est utilisée aujourd'hui.
Je suis biaisée, je vous pose cette question parce que je suis dans un bâtiment qui pourrait ne plus exister dans quelques années si un grand modèle de langage, si une IA ou une IAG peut mieux faire le travail, et peut générer l'imagerie d'une version de moi que les gens trouvent plus attrayante.
C'est donc très concret pour les gens parce que lorsqu'ils parlent de perte d'emploi ou de changements, cela touche de nombreux types d'industries et les gens le ressentent.
Ce n'est juste une situation luddite où l'imprimerie semble mauvaise pour moi. C'est que beaucoup de gens différents perdront leur travail et nous avons appris que c'est déstabilisant pour les gens lorsqu'ils sentent qu'ils ne font pas partie de l'avancée économique mondiale. La mondialisation nous l'a appris. Les gens sont mécontents aujourd'hui du résultat.
Alors, comment voyez-vous cela pour ce qui est de fabriquer un produit de consommation, tout en voulant qu'il y ait toujours quelqu'un pour le faire ?
Oui. Je veux dire, la nature de notre travail va fondamentalement changer. Et chaque génération technologique change l'endroit où nous travaillons, la façon dont nous travaillons, les personnes avec qui nous interagissons.
Cela se produit plus rapidement que les générations précédentes. Mais je pense que c'est aussi un moment où nous devrons décider quelles parties de la science et de la technologie nous introduisons réellement dans nos sociétés et à quel rythme.
Quand je regarde vers 2050 au cours des 25 prochaines années, il viendra un temps où nous devrons décider de ce que signifie être uniquement humain. Pas seulement en termes d'IA, mais aussi en termes de biologie synthétique aussi.
Il va y avoir beaucoup de gens qui auront un avantage biologique considérable et qui pourront s'améliorer de manière assez fondamentale.
Et cette phrase semble... vous la minimisez par rapport à ce que vous dites. Vous dites qu'il y aura des gens qui auront un avantage biologique grâce à ces diverses avancées.
Tout comme aujourd'hui vous avez un avantage biologique par rapport à il y a 150 ans, avant la pénicilline, le fait que nous ayons maintenant des chirurgies qui nous permettent de combattre le cancer et de vivre des décennies de plus.
Il y a 200 ans, l'espérance de vie moyenne était de 25 ans. Aujourd'hui, elle est de 75 ans. En deux siècles, nous avons triplé la santé et le bien-être dont une personne moyenne sur notre planète peut bénéficier.
Nous sommes donc déjà sur cette trajectoire. C'est juste que quand je parle des 25 prochaines années, cela semble fou, mais nous vivons une époque folle. Ce qui s'est passé est déjà fou.
Mon point était donc simplement qu'il y aura des moments où nous devrons, collectivement en tant qu'humanité, décider de ce à quoi nous disons non. Et c'est vraiment le grand défi. Savoir quand nous pensons que quelque chose ne nous sert plus collectivement.
Ethical Governance and the Proliferation of Power
Y a-t-il des domaines dans lesquels l'IA ne devrait pas être utilisée, ne devrait pas être déployée ?
C'est très difficile à dire à l'avance, vous savez.
Eh bien, nous y sommes en fait dès maintenant. Il y a été des protestations lors d'un événement Microsoft concernant l'IA et la technologie de l'entreprise utilisées dans des contextes militaires. Nous y sommes donc dès maintenant.
Oui, oui. Une partie du défi est que beaucoup de services fournis par toutes les entreprises sont des éléments fondamentaux au sein d'une pile, tout comme le papier, les stylos ou les mouchoirs sont des éléments de base utilisés par tout le monde.
La tablette que vous avez devant vous est utilisée par tout le monde pour toutes sortes de choses, que vous soyez dans un avion ou un enfant de trois ans regardant des dessins animés.
C'est donc l'histoire de la technologie. Elle prolifère si elle est utile et elle est clairement utile, elle devient à usage général et devient donc moins chère et plus facile à utiliser.
Tout le monde veut y avoir accès. Et donc, empêcher l'accès est quelque chose de vraiment, vraiment difficile à imaginer structurellement, comment quiconque pourrait réellement faire cela étant donné qu'il s'agit intrinsèquement d'un double usage.
C'est clairement précieux pour organiser une chaîne d'approvisionnement tout autant que c'est utile pour faire n'importe quoi d'autre. Et je n'ai pas de bonne réponse à cette question. Je veux dire, c'est véritablement la difficile question de gouvernance éthique de notre époque.
Voyez-vous pourquoi les gens la posent et vous la pose-t-on souvent ?
Je pense que c'est une question essentielle à poser. Il n'y a rien d'autre à faire que de se concentrer sur le fait que certaines de ces technologies pourraient rendre la guerre moins chère, plus rapide, plus facile. Nous l'avons certainement vu en Ukraine.
C'est assez remarquable que nous ayons maintenant un accès décentralisé aux outils de guerre pour un drone à mille dollars qui peut livrer une charge utile capable de détruire un petit transport de troupes.
Et cela va changer l'équilibre des forces. C'est la nature même de la prolifération. La technologie est vraiment le plus grand égalisateur que nous ayons jamais imaginé.
Désormais, la technologie ne se limite plus au matériel physique. La technologie est juste une idée. C'est un logiciel. Elle peut être écrite dans une histoire qui peut être transcrite et partagée avec quelqu'un d'autre comme ça.
Puis reproduite à un coût marginal nul. Il n'y a aucun coût supplémentaire pour copier ce logiciel et le partager à nouveau. C'est de l'information.
Cela va changer la structure traditionnelle du pouvoir. Traditionnellement, historiquement, le pouvoir a été concentré parce qu'il était physique : des forts, des chars, des gouvernements centrés sur les villes.
Mais désormais, la connaissance et le pouvoir vont se manifester dans l'information et les bits, et donc se propager très, très largement. Et la règle unique est très simple. Si c'est utile, cela devient moins cher et plus facile à utiliser et se propage partout. Et cette propagation est vraiment une propagation de la connaissance et du pouvoir.
Democratization of AI and Environmental Concerns
C'est là que je remets cela en question. Je ne vois pas la démocratisation du pouvoir à travers cela pour plusieurs raisons. Premièrement, c'est une entreprise à mille milliards de dollars, peut-être. Vu ce qu'on a vu avec DeepSeek venant de Chine, peut-être pas.
Mais l'idée que cela nécessite actuellement une quantité énorme de capital, une quantité énorme de soutien technologique et que l'industrie croit littéralement qu'elle doit se consolider pour y parvenir. D'accord, donc d'emblée, c'est entre les mains de quelques-uns.
Et puis là où c'est déployé, on n'a pas non plus l'impression d'avoir la capacité de le contenir. Je n'ai pas l'impression en ce moment que ce soit une démocratie ; j'ai l'impression que c'est un peu imposé au reste d'entre nous.
Et je ne vous demande pas de me dire que j'ai tort, mais aidez-moi. Parce que je n'ai pas l'impression que ce soit quelque chose que nous puissions tous faire. C'est que certains d'entre nous pourront faire des projets de voyage sans utiliser la recherche booléenne, et certains d'entre nous vont pouvoir faire toutes les choses dont vous parlez.
Sans parler des impacts climatiques. Actuellement, cette chose nécessite beaucoup de travail, nuit à l'environnement et écrase une grande partie de l'économie.
Oui. Je vous entends. C'est logique. Je pense que vous pouvez me dire que j'ai tort. Vous présentez toujours les choses de façon si géniale, puis j'ouvre le journal.
Non, en fait je passe beaucoup de temps à alerter sur les risques également. Je suis très, très obsédé par les risques. Mais j'essaie aussi d'être équilibré à ce sujet, n'est-ce pas ?
Il est certainement vrai qu'un petit nombre d'acteurs peut produire en premier la plus grande IA de la plus haute qualité. Mais beaucoup, beaucoup de gens sont capables d'obtenir les mêmes performances, le meilleur modèle du monde, mais un an plus tard, cent fois moins cher en open source, accessible à tous gratuitement.
C'est juste un fait objectif. Il y a tout juste trois jours, Meta a publié un modèle open source qui est le meilleur au monde. Nous devons donc simplement faire face à ce fait. Il est largement accessible à tous. C'est vrai.
Maintenant, sur la question environnementale, il se trouve que Google, Microsoft, Meta, et certainement chez Microsoft, la vaste majorité de notre consommation informatique est renouvelable.
Et nous achetons, nous créons en fait le marché de l'énergie renouvelable. Cela ne veut pas dire qu'il n'y a pas d'autres problèmes liés à la fabrication de ces puces et à la question de l'exploitation des ressources, qui n'a vraiment aucune histoire environnementale positive.
C'est un mauvais signe. Mais au moins là où nous savons qu'il y a un problème fondamental comme le passage du pétrole aux énergies renouvelables, c'est un grand pas que nous nous soyons engagés à être négatifs en carbone d'ici 2030, à reverser au réseau en fait, à être 100 % positifs en eau propre d'ici 2030.
C'est massif. Nous sommes l'un des plus gros acheteurs d'énergie au monde. Je ne veux donc pas toujours vous donner une réponse positive en retour, mais je pense qu'il y a des signes fondamentalement positifs dont nous devrions nous réjouir et essayer de nous appuyer sur ces choses.
The Politics of Technology and Terminator Scenarios
Vous avez dit dans votre livre The Coming Wave que toute technologie est politique. Alors, où en sommes-nous dans ce moment politique avec cette technologie ?
Oui. Je pense qu'il y a un récit très banal et facile à écarter. Les gens disent souvent que l'outil lui-même est neutre, que c'est vraiment la personne qui l'utilise. Et c'est tout à fait vrai.
Pourtant, nous concevons aussi des outils de manière beaucoup plus complexe et nuancée que lorsque nous avons inventé le marteau, n'est-ce pas ? Et une partie du défi est que notre langage est si limité.
La raison pour laquelle nous finissons par parler d'une espèce, par exemple, ou toute la confusion autour de la superintelligence et de l'IAG, c'est parce que nos mots ne sont tout simplement pas assez subtils et précis pour capturer toutes les distinctions nuancées de toute la variété d'outils que nous avons.
Aujourd'hui, ce que nous créons, il ne semble pas satisfaisant de le décrire simplement comme un outil. Vous parlez à Copilot, par exemple, l'IA que je fabrique chez Microsoft.
Elle vous donne une réponse qui est unique pour vous, basée sur votre historique, personnalisée selon les choses dont vous avez parlé par le passé, ce qui vous intéresse. Et puis vous répondez quelque chose et elle vous donne quelque chose de tout à fait unique.
Nous n'avons jamais rien inventé auparavant qui donne une réponse unique, émergente et générée dynamiquement à la volée. Ce n'est donc clairement pas un outil. En même temps, ce n'est clairement pas encore une espèce, n'est-ce pas ?
Il se pourrait bien que ce soit davantage le cas à l'avenir, mais pour l'instant, ce ne l'est pas du tout. Nous luttons tous un peu pour trouver le bon langage pour formuler notre réponse autour de ces choses.
La plupart des gens en parlent, les gens ordinaires en parlent dans le contexte de la science-fiction. Les gens ne cessent d'évoquer le concept de Terminator parce que l'idée d'une IA auto-réplicatrice est une véritable préoccupation qui s'est propagée et que les gens ont entendue résonner dans d'autres domaines scientifiques.
Et vous avez dit vous-même que cela n'arriverait pas à moins que quelqu'un ne le développe ainsi, ce qui n'est pas vraiment rassurant car il est probable que quelqu'un ayant le bon incitatif financier puisse le faire.
Oui, je veux dire, une partie du défi est que, comme c'est tellement accessible à tous, parce que l'avant-garde est entre les mains de l'open source, vous ne pouvez pas... il y a des problèmes pour gouverner des entreprises puissantes.
Mais elles sont peu nombreuses, elles sont soumises au contrôle des actionnaires, aux conseils d'administration, ainsi qu'à la réglementation et aux gouvernements. Quand on met ce genre de pouvoir entre les mains de littéralement des centaines de millions de développeurs, l'équation change.
Oui, il est beaucoup plus probable que quelqu'un fasse cela. Personnellement, je ne crois pas qu'un des grands laboratoires sera le premier à se lancer dans ce genre d'expérimentation risquée d'auto-amélioration ou de réplication.
Mais puis-je affirmer qu'un développeur quelconque dans son garage ne va pas le faire ? Non, je me sens plus inquiet à ce sujet. Et c'est en quelque sorte une partie du défi.
Que souhaiteriez-vous voir en termes d'environnement réglementaire ? Qu'est-ce qui vous semble logique et que nous n'avons pas pour le moment ?
Je pense que c'est une bonne chose pour nous de divulguer de manière proactive à des fonctions d'audit centralisées ce que nos modèles peuvent faire et de faire des affirmations sur ce qu'ils ne peuvent pas faire et ce pour quoi ils ne sont pas conçus.
Nous l'avons certainement fait chez Microsoft en discutant de manière proactive avec l'Autorité irlandaise de protection des données avant de déployer un modèle, en décrivant tout ce qu'il était censé faire, toutes les faiblesses connues aujourd'hui, notre meilleure évaluation des risques, puis notre analyse et notre suivi continus de ce qu'il fait, en les tenant au courant de manière proactive.
Ainsi, les entreprises partagent volontairement des informations issues de leurs audits internes. Je pense que c'est la bonne chose à faire.
Ce n'est pas réglementaire. Eh bien, je veux dire, j'appelle à une réglementation depuis de nombreuses années. Donc, nous n'y arrivons pas.
Alors qu'est-ce que vous aimeriez... c'est l'environnement politique, c'est votre domaine. J'ai activement appelé à une réglementation pendant la majeure partie de ma carrière et j'ai participé à la rédaction de ces documents et à l'information des gens à ce sujet.
Êtes-vous content d'être en dehors de la politique alors ? Vous avez travaillé à un moment donné dans un bureau politique très brièvement. Oh, ça ne compte pas. J'avais 21 ans. Oh, vous étiez idéaliste en pensant que les choses changeraient.
J'ai travaillé pour le maire de Londres en rédigeant des documents d'orientation et sur les droits de l'homme pendant neuf mois quand j'avais 21 ans.
Mustafa Suleyman, c'est pertinent ici car vous n'avez pas été cynique une seule fois durant tout cet entretien jusqu'à ce que j'aborde l'idée de la politique de tout cela et de la réglementation. Et là, soudain, vous froncez les sourcils.
C'est très frustrant. J'adorerais que nous puissions faire plus de progrès là-dessus. Mais je veux dire, mon avis est que jusqu'à présent, il y a beaucoup de peur.
Mais si vous regardez objectivement les dommages réels au cours des trois dernières années, il est difficile de dire que c'est maintenant le moment pour une réglementation agressive ou sans précédent. Même moi, je ne dis pas ça, n'est-ce pas ?
Et donc je pense que dans la plupart de ces situations, nous devons attendre et voir, surveiller de près, être prêts à réagir très vite, être proactifs et transparents, nous tenir responsables de la meilleure façon possible, inviter tout le monde à débattre et à discuter de ce qu'ils voient.
Et gardez juste l'esprit très ouvert. Mais jusqu'à présent, je ne vois aucune preuve qu'il soit temps de prendre des mesures réglementaires sans précédent.
Closing Thoughts and the Future of Human-AI Interaction
Je vous ai posé toutes mes questions alarmistes. Alors, avez-vous des questions pour moi ? Que souhaiteriez-vous que les gens abordent dans cet espace ou dans ces environnements ?
Oui. Comment communiquer d'une manière qui nous permette d'être à la fois optimistes et enthousiastes, mais en même temps sceptiques et critiques ? Comment trouvez-vous cet équilibre ?
Qu'entendez-vous dans cette série de questions ? Non, j'aime votre série de questions. Mais qu'entendez-vous quand vous êtes... je pense qu'inverser les rôles est utile. Vous jouez mon rôle, je joue le vôtre.
Votre rôle est beaucoup plus amusant. On n'a pas toujours cette impression.
Vous savez, et je pense que c'est tout l'art pour nous tous qui communiquons publiquement, ce qui est difficile en ce moment. Les médecins et les infirmières me posent cette question. Quiconque possède une expertise est aujourd'hui dans la position de devoir faire preuve d'autorité.
D'une manière ou d'une autre, rassurer des gens qui, par définition, croient qu'on ne peut pas leur faire confiance simplement parce qu'ils ont une autorité ou une sorte de diplôme. C'est pour cela que je voulais vous parler car je pense que vous êtes une bonne communicatrice.
Cela étant dit, ce que vous entendez probablement de ma part, c'est juste une décennie de sentiment d'avoir été trompée par divers dirigeants de l'industrie technologique.
Certaines personnes ont des adolescents et se disent : d'accord, je te donne les clés, mais c'est pas génial. Ça pourrait mal tourner. Et c'est une industrie très puissante qui a parfois aimé les récompenses mais pas les responsabilités à parts égales.
Oui. Non, j'adore ce que vous dites. Je ne veux pas essayer de rassurer qui que ce soit. Et je ne veux certainement pas que les gens disent : fais-moi confiance.
Ce que je veux, ce sont des espaces où nous pouvons avoir un dialogue critique où le scepticisme ne se transforme pas en colère malveillante et en violence verbale, afin que je puisse jouer le rôle des autres et qu'ils puissent jouer le mien.
J'aimerais que les gens me donnent des suggestions concrètes, spécifiques et pratiques sur ce qu'ils aimeraient voir de différent, compte tenu des contraintes dans lesquelles nous nous trouvons. La réalité de notre politique est ce qu'elle est. Et cela ressemble à une force immobile au sein de laquelle je dois opérer.
Vraiment ? Oui. Je suis donc toujours ouvert à entendre ce que nous devrions faire différemment. Et aussi, je pense que ce dont nous avons besoin, ce sont des gens qui réfléchissent aux conséquences de troisième degré.
Parce que ce qui s'est passé avec les réseaux sociaux, je ne pense pas que ces gens, du moins dans la phase initiale des réseaux sociaux, en étaient vraiment conscients ou pouvaient même le voir. Je pense qu'ils croyaient sincèrement que c'était manifestement utile, que plus il y avait d'informations, mieux c'était, qu'il n'y avait pas besoin de vérification de la qualité ou que nous ne voulions pas centraliser cela, etc.
Je pense que vers la fin, c'était peut-être plus difficile à défendre. Je pense qu'il était assez clair que c'était utilisé pour inciter à toutes sortes de chaos. Et je pense qu'en ce moment, nous avons appris certaines de ces leçons et la question est de savoir comment les mettre en pratique.
Comment écouter les gens qui voient le côté obscur de ces chatbots, qui voient certains risques que je ne vois peut-être pas ? Comment les exprimer, les intégrer à la conversation ? C'est tout à fait mon invitation et la raison de ma présence ici. C'est ce que je veux faire.
Eh bien, nous apprécions vraiment votre temps. J'apprécie que vous soyez chez Microsoft, franchement, parce que l'entreprise est très influente. Et c'est un peu bizarre de parler de ça parce que je ne sais pas, dans 50 ans, ce que nous entendrons par ordinateur pourrait être complètement différent.
C'est exact. Je pense que ça va avoir un aspect assez différent. On n'aura pas l'impression de taper sur un clavier, mais plutôt de parler à un compagnon IA, à un Copilot ou à un agent.
Cela ressemblera beaucoup plus à une présence qui vit à vos côtés, qui vous comprend vraiment et qui travaille avec vous, pour vous.
Eh bien, Mustafa, merci beaucoup d'être venu dans The Assignment. Je vous remercie d'avoir répondu à mes questions. C'était vraiment super.
Merci beaucoup. J'ai vraiment apprécié. Je vous en remercie. Merci.