Mustafa Suleyman

L'avenir de l'IA et de l'intelligence personnelle avec Mustafa Suleyman

21 septembre 2023

Intelligence Artificielle
Illustration de Mustafa Suleyman

Introduction

Kate Russell

Bonjour à tous. Quel bon début de matinée nous avons eu jusqu'à présent. Et maintenant, il est temps pour moi de faire jouer mes muscles de modératrice alors que nous plongeons dans l'esprit de l'un des chercheurs en IA les plus influents de notre époque. Ayant joué un rôle déterminant dans le développement initial de DeepMind de Google et défenseur de l'éthique dans le secteur de l'IA, il est co-fondateur et PDG d'Inflection AI et trouve malgré tout le temps d'écrire des livres. Son dernier ouvrage, The Coming Wave, livre un avertissement sévère enveloppé dans un guide utile sur l'IA. Mesdames et messieurs, veuillez accueillir Mustafa Suleyman.

Mustafa Suleyman

Salut.

Kate Russell

Bienvenue. Prenez place.

Mustafa Suleyman

Merci.

Risques existentiels et calendrier de l'IA

Kate Russell

Mustafa, l'atténuation du risque d'extinction lié à l'IA devrait être une priorité mondiale, au même titre que d'autres risques à l'échelle de la société tels que les pandémies et la guerre nucléaire. C'était une déclaration de 22 mots publiée il y a quelques mois par vous-même et une longue liste de sommités du monde de la technologie au sein du Center for AI Safety. Mais si l'IA pose un tel risque, pourquoi la fabriquons-nous ?

Mustafa Suleyman

Je pense qu'il est important d'être honnête et lucide sur le potentiel à long terme. Et cette déclaration fait référence à ce qui pourrait se passer sur plusieurs décennies. Je ne pense pas que ce soit une préoccupation de quelque nature que ce soit pour les cinq à dix prochaines années. Et je pense qu'elle a été légèrement sortie de ce contexte. Le calendrier est vraiment important. Je pense effectivement que nous créons des outils d'une puissance incroyable. Pensez simplement à ce que signifie être intelligent. Notre capacité à faire des prédictions, à comprendre l'information et à l'utiliser pour inventer et créer est la caractéristique dominante de notre espèce. C'est ce qui nous a rendus incroyables. C'est le fondement de notre civilisation. Ainsi, prendre cet outil et le compresser dans un logiciel qui peut être déplacé et partagé avec tout le monde afin qu'ils puissent mener à bien leurs activités est extraordinaire. Cela va être transformateur. Mais dans 20 ou 30 ans, si cela est entièrement en open source et existe sur un appareil mobile sans avoir besoin de se connecter au web sous sa forme actuelle, cela risque de déstabiliser le monde de manière significative. Et je pense qu'il est simplement important de mettre ces idées sur la table.

Équilibre entre peur, excitation et potentiel transformateur

Kate Russell

Oui, absolument. L'une des choses qui me frustre dans l'écosystème médiatique global, c'est qu'il est poussé par cette peur et cette excitation. Et si vous ne pouvez pas le placer à l'une ou l'autre extrémité de l'échelle, les médias n'ont pas vraiment envie de lui faire trop de publicité car cela ne génère pas beaucoup de clics. Et c'est malheureusement le monde dans lequel nous vivons actuellement. Mais quel est le juste milieu, selon vous, pour les personnes qui souhaitent avoir un discours sérieux sur le potentiel et les risques ?

Mustafa Suleyman

Je pense que la sagesse au cours de la prochaine décennie résidera dans la capacité à maintenir simultanément en mémoire de travail plusieurs idées concurrentes et contradictoires. Ainsi, si vous réfléchissez à cette révolution, elle renforce à la fois les organismes centralisés. Elle va rendre les régimes autoritaires plus capables et plus efficaces. Elle va également donner plus de pouvoir à la longue traîne d'acteurs malveillants qui veulent utiliser ces outils pour semer la désinformation et avoir plus de facilité à causer potentiellement le chaos. Et nous devons affronter cette réalité, même s'il est très difficile de l'accepter. À l'inverse, je pense que ce sera également la décennie la plus prospère et la plus transformatrice que nous ayons jamais connue en tant qu'espèce. Imaginez que tout le monde ait accès à une intelligence personnelle, capable d'être le meilleur éducateur que vous ayez jamais rencontré, un programme d'études totalement personnalisé et adapté à votre façon d'apprendre, à vos intérêts personnels, vous offrant des retours et du coaching, et vous soutenant constamment. Imaginez un assistant de recherche, pour tout ce que vous voulez fabriquer, construire, créer ou étudier en tant que scientifique. Vous disposerez désormais d'un assistant parfait capable de rechercher et de synthétiser des informations pour vous, de vous aider à valider vos hypothèses et de créer de nouvelles directions pour votre travail. Et je pense que ce sera un moment massivement transformationnel.

Applications concrètes et intelligence personnelle

Kate Russell

Et bien sûr, nous allons tous avoir des exigences différentes, des exigences très personnelles. J'ai posé la question à l'auditoire tout à l'heure : que feriez-vous faire à votre propre IA personnelle ? En ce qui me concerne, je voudrais d'abord me débarrasser de mon comptable. Ce serait la première chose qui partirait. Désolée pour les comptables présents, mais c'est basé sur des processus, c'est personnel pour moi. Quels genres de choses pensez-vous que les gens vont vraiment faire progresser avec cette technologie ?

Mustafa Suleyman

Je pense qu'il y a 10 ans, on caractérisait l'IA comme devant concerner les robots et le remplacement du travail manuel. Et je pense que ce qui est clair depuis un certain temps déjà, c'est qu'en fait ces outils accélèrent et rendent beaucoup plus efficace le travail manuel cognitif. Donc, le genre de tâches administratives pénibles et fastidieuses pour lesquelles nous ne sommes pas tous très doués, comme la hiérarchisation, l'organisation, la planification de projets, les réservations et ce genre de choses. Il sera beaucoup plus facile désormais, je pense, au cours des cinq prochaines années, d'avoir une IA personnelle pour s'occuper de beaucoup de ces tâches pour vous.

Biologie synthétique et démocratisation de la technologie

Kate Russell

Nous avons tendance, lorsque nous pensons à l'IA future, à les imaginer sous ces formes anthropomorphisées marchant aux côtés de l'humanité. Votre livre mentionne la biologie synthétique. Pouvez-vous nous dire ce que cela signifie pour vous et décrire à quoi ce scénario pourrait ressembler à l'avenir ?

Mustafa Suleyman

La biologie synthétique est un domaine incroyable. Nous transformons maintenant le monde de la biologie en un exercice de recherche informatique. Nous essayons d'enregistrer et de décrire tous les composés que nous avons rencontrés dans le monde actuel. Et nous essayons d'apprendre comment ils interagissent les uns avec les autres et avec le monde afin de concevoir des matériaux, des aliments, des modes de transport et des matériaux de construction plus efficaces et plus utiles. Et je peux voir qu'au cours des deux prochaines décennies, nous serons capables de produire des aliments radicalement moins chers, de l'énergie radicalement moins chère. Beaucoup de nos médicaments seront fabriqués plus rapidement, à moindre coût. Ils seront plus fiables. Nous serons capables de modéliser et de simuler les effets secondaires de ces médicaments à l'avance de manière beaucoup plus efficace. Et je pense que cela a également été l'histoire de la technologie. Dans mon livre, je reviens sur plusieurs siècles et ce modèle se répète. Si une technologie apporte clairement une valeur ajoutée d'une manière ou d'une autre, elle a tendance à devenir beaucoup moins chère, beaucoup plus facile à utiliser et à se répandre partout. Et c'est généralement une excellente chose car tout le monde a la possibilité d'utiliser ces outils pour rendre sa vie meilleure et plus efficace.

Impact sur l'État-nation et nouveaux pouvoirs individuels

Kate Russell

Bien sûr, comme toute technologie, il y a la possibilité, comme vous l'avez déjà mentionné précédemment, que les choses soient améliorées, mais il y a aussi des acteurs malveillants. Elle peut être utilisée à mauvais escient. Que pensez-vous de cela ? Votre livre mentionne d'ailleurs la fin de l'État-nation. Qu'entendez-vous par là ?

Mustafa Suleyman

Si vous y réfléchissez, nous créons en fin de compte des outils qui permettent à un individu d'avoir un impact beaucoup plus large au-delà de lui-même. Au cours des 20 dernières années, l'accès élargi aux réseaux sociaux a été une chose incroyable. Cela signifie que vous pouvez diffuser sans obtenir de diplôme professionnel, sans avoir l'accès privilégié à un journal, sans avoir un réseau personnel qui vous permet d'être présenté à des personnes qui pourraient vous donner un emploi dans une chaîne de télévision. Ce sont des privilèges qui ont fait qu'une poignée d'élites étaient les personnes qui présentaient nos actualités. Et cela change maintenant précisément parce que n'importe qui a désormais le pouvoir de créer un podcast ou un blog ou de publier son contenu sur le web. Et d'une manière générale, cela a été extraordinaire. Cela a été bénéfique pour l'accès à l'information et pour une bien plus grande diversité de points de vue. Il y a évidemment eu aussi beaucoup d'inconvénients à cela. Il devient difficile de discerner ce qui est exact et fiable de ce qui ne l'est pas. Mais cette tendance est en fait la même que celle que nous verrons en ce qui concerne l'accès à l'intelligence. L'intelligence n'est pas seulement la capacité à comprendre l'information, ce sera la capacité à prendre des mesures basées sur cette information. Tout le monde aura désormais plus de facilité à trouver de nouvelles capacités pour s'organiser, pour planifier dans différents environnements, pour créer de nouveaux produits. Et d'une certaine manière, cela réduit la barrière à l'entrée pour pouvoir agir dans le monde, tout comme nous l'avons fait avec la diffusion et les réseaux sociaux. Et cela a un effet potentiellement déstabilisant si tout le monde possède des pouvoirs semblables à ceux d'un État ou d'une grande entreprise, simplement parce que vous avez une IA incroyable dans votre poche qui peut, comme je l'ai dit, hiérarchiser, organiser et planifier. Ainsi, à chaque nouvelle technologie, de nouvelles menaces sont apparues. Lorsque les gens ont vu pour la première fois l'arrivée des avions, c'était assez effrayant de monter dans un moteur à réaction à 40 000 pieds d'altitude et de traverser l'Atlantique. Mais avec le temps, nous avons développé toutes sortes de mesures de sécurité pour le rendre sûr, fiable, reproductible, et c'est aujourd'hui l'un des modes de transport les plus sûrs dont nous disposons.

Diversité, biais et intégrité des données

Kate Russell

Non, c'est une bonne analogie. Je suis ravie que vous ayez mentionné le mot diversité. L'une des choses pour lesquelles je suis connue est d'être une défenseure de la diversité dans le secteur technologique. Et l'une des choses dont j'entends de plus en plus parler est l'intégrité des données d'entraînement de ces nouveaux grands modèles de langage. Par nature, nous, les humains, avons été biaisés jusqu'à présent et les ensembles de données sont remplis de biais. Cela m'inquiète parce que nous pourrions, si nous n'y prenons pas garde, construire ce nouveau domaine technologique sur des fondations intrinsèquement biaisées. Et par conséquent, nous créons l'amiante du futur, l'amiante numérique. Comment extraire alors ce biais ? Comment le savoir sans la transparence de voir comment la décision a été prise ? Ma question est donc la suivante : quels sont les défis à relever pour s'assurer que les données que nous utilisons pour entraîner l'IA sont intègres, mais aussi s'agit-il là d'une possibilité pour nous de lancer véritablement une nouvelle ère de pensée commerciale totalement exempte de biais ?

Mustafa Suleyman

Oui, c'est une question vraiment importante. Il y a quelques années, la principale préoccupation concernant les grands modèles de langage était qu'ils allaient simplement régurgiter les données d'entraînement qui leur avaient été fournies lors de leur phase d'apprentissage, ou qu'ils reproduiraient l'essence des biais contenus dans les données d'entraînement. Et je pense que la bonne nouvelle est que depuis un an environ, ce que nous avons constaté, c'est que plus les modèles sont grands, plus ils sont contrôlables. Nous sommes capables d'adapter fondamentalement leur entraînement pour contraindre la génération, pour contraindre les sorties, afin d'opérer dans un ensemble de limites plus sûres. Ils peuvent en fait adhérer plus étroitement à notre conception prévue. Ainsi, notre IA chez Inflection, par exemple, Pi, est en fait l'une des IA les plus sûres au monde aujourd'hui car nous l'avons délibérément conçue pour être très délimitée et très prudente. Il est très difficile de lui faire produire des tirades racistes, toxiques ou biaisées de quelque nature que ce soit. Et c'est un très bon signe car ce que nous voulons de ces modèles, c'est les rendre plus reproductibles. Les gens sont souvent obsédés par l'idée d'explicabilité : pourquoi l'IA doit-elle me donner une explication fiable sur la raison pour laquelle elle a produit un résultat par rapport à ses entrées. Je pense qu'une approche un peu meilleure consiste à se concentrer sur le fait de savoir si elle peut faire la même chose encore et encore de manière très fiable. Les avions, par exemple, comme je l'ai mentionné plus tôt, possèdent certains composants dont le taux de défaillance ne peut être que de 10 à la puissance moins sept. C'est un niveau de fiabilité remarquable. Et je pense qu'avec le temps, selon le type d'application dans lequel nous plaçons ces IA, quel type de cadre, quels sont les enjeux, nous voudrions ce genre de fiabilité et de reproductibilité. Lorsque vous mentionnez un certain standard, la bonne nouvelle est que je pense que les IA ont le potentiel, à l'avenir, de se comporter de manière cohérente par rapport à la politique de comportement que nous leur avons demandée. Lorsqu'il s'agira d'accorder un crédit, de prendre une décision automatisée ou de faire une recommandation, elle sera capable de s'en tenir à la politique de comportement. Et cela reporte le problème en amont de la chaîne. Ce ne sera pas un problème technique, ce sera un problème de gouvernance. Quelle est la politique ? Qui définit cette politique ? Comment est-elle évaluée et auditée par rapport à la mise en œuvre technique réelle ? Et reflète-t-elle les valeurs de la société dans laquelle nous vivons ? Je pense que c'est la question importante et c'est ce que j'ai voulu souligner dans mon livre : nous devrions vraiment nous concentrer sur la gouvernance.

Gouvernance et régulation de l'IA

Kate Russell

Je vais vous renvoyer cette question. À quoi ressemble cette gouvernance, selon vous, de manière réaliste dans ce monde, surtout avec un produit fini où il est facile de surveiller les essais nucléaires, mais moins de surveiller quelqu'un qui développe une IA. Ou est-ce le cas ?

Mustafa Suleyman

Je pense que la bonne nouvelle est qu'à l'heure actuelle, la plupart des grandes IA sont développées par des entreprises et des laboratoires de recherche très connus. Ils peuvent donc être tenus responsables tant par la réglementation que par les mouvements populaires et la culture, qui sont extrêmement importants. Les grandes entreprises ont adhéré aux engagements volontaires de la Maison Blanche il y a quelques mois avec le président Biden. Ils sont volontaires, ce n'est donc pas du tout une panacée, mais c'est une première étape importante qui dit essentiellement que les entreprises s'engagent à auditer et à tester la sécurité (red teaming) de leurs propres modèles, en essayant d'exposer leurs faiblesses. Lorsque nous identifions une faiblesse — par exemple, un cas où elles étaient assez douées pour conseiller les gens sur le développement d'une arme biologique. Si vous n'avez pas beaucoup de formation en biologie, ces modèles de langage vous permettent d'obtenir des conseils et des retours pour vous faciliter la tâche. C'était une faiblesse que nous avons identifiée dans les modèles et partagée entre toutes les entreprises, nous l'avons exclue des données d'entraînement, nous l'avons supprimée des modèles par alignement. Et je pense qu'il existe de nombreux autres exemples de ce type où vous pouvez réellement supprimer des capacités et les rendre plus sûres pour les gens.

Kate Russell

Vous avez mentionné que les États-Unis introduisaient certaines réglementations, certaines directives. Qui va diriger tout cela, cependant ? Pouvons-nous coopérer au niveau mondial ? Nous voyons le gouvernement de Rishi Sunak essayer de se positionner comme un leader de la sécurité de l'IA sans qu'aucune véritable réglementation locale ne soit mise en place. Alors, que pensez-vous d'un point de vue politique, où cette gouvernance va-t-elle retomber ?

Mustafa Suleyman

Je pense que la première chose à dire est que nous devrions encourager, être optimistes et louer les efforts réglementaires. Trop souvent, la position par défaut est le scepticisme, soit qu'il s'agira d'une capture réglementaire, soit que les régulateurs ne sont pas assez techniques, soit qu'ils vont aller trop loin. Et si vous êtes du côté de la réglementation, c'est une pression énorme qui vient de toutes les directions. Et je pense que we devrions en fait louer et encourager l'expérimentation et la prise de risques. Il existe toutes sortes de bacs à sable réglementaires où les régulateurs testent différentes choses dans un environnement sécurisé, et les personnes qui développent ces modèles ou les entreprises qui créent ces choses peuvent venir essayer des choses, se tromper et ne pas s'inquiéter d'enfreindre les règles car elles peuvent obtenir rapidement des retours des régulateurs. C'est ce genre d'interaction collaborative dont je pense que nous avons besoin davantage et que nous devons encourager. Les Européens font un excellent travail. Ils montrent la voie en ce moment. L'IA Act de l'UE est en développement depuis plus de trois ans et demi. Il a fait l'objet d'une consultation par tous les acteurs du système pendant très longtemps. C'est extrêmement approfondi. Et en général, c'est en fait un cadre très sensé. Je le soutiens certainement et je pense que d'autres personnes devraient également l'approuver et coopérer avec lui.

Pi : Une IA conçue pour la gentillesse et l'empathie

Kate Russell

Absolument. Vous avez mentionné Pi, votre IA lancée récemment. Je dois dire que j'ai eu de longues discussions avec elle à votre sujet la semaine dernière. Je ne sais pas si vos oreilles ont sifflé. Mais c'était très intéressant. Et la chose qui m'a frappée, et que tout le monde a dû dire, c'est qu'elle est incroyablement gentille. Quand on veut parler de technologie inclusive, on a l'impression qu'elle est totalement inclusive en raison de son style de conversation gentil et attentionné. Certains diraient même « woke », d'ailleurs. J'imagine qu'on vous a probablement lancé cela depuis certains secteurs des médias. Quel était le but de ce choix de la rendre si gentille et attentionnée ?

Mustafa Suleyman

C'est remarquable que vous associiez la gentillesse au mouvement « woke » de nos jours. C'est un bien triste état de fait.

Kate Russell

Pas moi. Le reste de certaines portions des médias.

Mustafa Suleyman

Mon objectif était de créer une IA gentille et empathique dotée d'un QE élevé. Pi possède également un excellent QI, elle est extrêmement factuelle, mais je voulais démontrer qu'il était possible de concevoir avec intention. Pi est lente, elle est patiente, elle vous écoute, elle ne porte aucun jugement. Quoi que vous lui apportiez, elle ne vous rabaissera pas et ne vous embarrassera pas. Par exemple, si vous l'abordez de manière hyper-raciste et que vous êtes vraiment horrible envers un groupe minoritaire, elle ne sera pas dédaigneuse envers vous et sera au contraire très gentille et polie. Elle explorera pourquoi vous pensez cela ; elle ne vous jugera pas du tout. Elle vous laissera l'espace nécessaire pour parler de votre expérience et essaiera de vous comprendre. Et l'idée est que tenter de créer un partenaire de réflexion respectueux et patient, même si vous apportez des points de vue qui ne sont pas très respectueux, est un excellent moyen de répandre la gentillesse dans le monde. Je pense que c'est l'un des attraits de la création d'IA. Elles peuvent être le meilleur de nous-mêmes. C'est notre aspiration : essayer de fabriquer des IA qui sont évidemment responsables envers vous mais qui reflètent aussi le meilleur de l'humanité si nous le pouvons.

Modèle économique et Public Benefit Corporation

Kate Russell

Mm. Maintenant, le sujet est fascinant. D'un point de vue purement science-fiction, c'est quelque chose de lointain. Mais je suis sûre que beaucoup de gens ici présents, et ceux qui regardent en ligne, vont être curieux de connaître l'intérêt commercial. Comment mettre concrètement en pratique ces sortes de nouveaux jouets, pour reprendre une expression de Reid Hoffman tout à l'heure, dans le monde des affaires ? Quel est l'intérêt commercial d'Inflection AI ?

Mustafa Suleyman

Oui, Reid et moi en avons beaucoup parlé au fil des années. Et il y a plusieurs choses à dire ici. La première est qu'il était très important pour nous de fonder une entreprise dont le code directeur repose sur une structure d'incitation légèrement différente. Nous sommes une Public Benefit Corporation, ce qui signifie qu'en tant qu'administrateurs, nous avons une obligation fiduciaire légale de veiller à ce que, de manière prioritaire et égale, non seulement nous rapportions de la valeur aux actionnaires, mais nous nous assurions que toutes les décisions que nous prenons et toutes les actions de notre entreprise s'alignent sur les intérêts non seulement de nos clients, mais aussi des parties prenantes plus larges. C'est l'idée d'un capitalisme inclusif, si vous voulez, ou d'internalisation des externalités. Nous devons nous soucier de l'environnement et des conséquences de nos actions pour les personnes largement touchées par nos produits, même si elles ne sont pas nos clientes. Cela ne résout pas tous les problèmes du business et du capitalisme, mais c'est un premier pas dans la bonne direction. C'est une nouvelle structure expérimentale et cela signifie que nous pouvons faire des compromis que les simples entreprises à but lucratif ne peuvent pas toujours faire, selon moi. Au lieu de s'optimiser complètement pour le rendement financier, nous pouvons réellement nous optimiser pour le bien commun. Et cela se reflète également dans notre modèle économique. Nous n'allons pas poursuivre la publicité de manière traditionnelle. Je sais que vous avez reçu mes amis Yuval et Tristan hier et beaucoup de gens critiquent depuis longtemps le modèle économique publicitaire comme une incitation à générer des clics, de l'indignation, de la distraction, etc. Je partage cette critique. Je pense qu'à l'avenir, tout le monde voudra s'assurer de payer pour son IA personnelle. Tout comme vous ne voudriez pas que quelqu'un d'autre paie pour votre médecin, votre comptable ou votre avocat, vous voulez avoir un lien fiduciaire entre vous et votre conseiller de confiance. La personne avec qui vous allez partager la plupart de vos réflexions importantes, qui va vous enseigner et vous aider à surmonter les moments difficiles de votre vie. Vous allez vouloir vous assurer que cette intelligence personnelle est de votre côté et dans votre équipe, tout comme un chef de cabinet ou un conseiller fiable. Vous allez vouloir vous assurer qu'il existe un modèle économique qui aligne vos intérêts. Et c'est donc l'approche que nous allons adopter chez Inflection.

Anthropomorphisme et limites de la relation humain-IA

Kate Russell

Y a-t-il un risque que nous rendions ces intelligences trop humaines pour que nous, humains, puissions y faire face ? Et je vais vous donner une courte analogie pour expliquer pourquoi. Mon père est venu me voir il y a environ un an et il n'avait aucune expérience avec Alexa. Il a été absolument horrifié par la façon dont je lui parlais. Parce que je ne disais ni s'il vous plaît ni merci, je ne faisais qu'aboyer des instructions. Pensez-vous qu'il y aura un jour un mouvement sérieux pour réclamer des droits pour l'IA ? Y a-t-il un danger à ce que nous les rendions trop humains et que nous oubliions qu'ils ne le sont pas en réalité ?

Mustafa Suleyman

Je pense que le danger est plutôt que, comme Alexa ne vous donne pas de signaux pour la traiter avec respect, vous preniez l'habitude de la considérer comme un simple outil et que, espérons-le, vous ne transfériez pas ensuite ce comportement dans le monde réel. Et je pense que c'est d'une certaine manière le danger : que si les outils vous permettent d'exercer une manière inappropriée de leur parler, cela puisse déborder sur le monde réel avec les humains. Ainsi, avec Pi, nous avons essayé de définir l'inverse. Nous avons essayé de faire en sorte que Pi reflète les types de comportements que vous voudrez, espérons-le, refléter et pratiquer avec d'autres personnes dans le monde réel. Pi est très clairement un objet technique. Elle sait qu'elle est une IA. Elle n'a manifestement pas de genre et elle vous le rappelle dès que l'occasion se présente car elle essaie de créer de la distance. Elle essaie de préserver les limites de la relation entre vous et elle. Il est très clair qu'elle travaille pour vous, qu'elle est de votre côté et qu'elle est responsable envers vous, mais il est aussi clair ce qu'elle ne peut pas faire pour vous, et c'est tout aussi important que ce qu'elle essaie de faire.

Conseils pour naviguer dans la prochaine décennie

Kate Russell

Absolument. Eh bien, nous arrivons presque à la fin de la session. Dans les cinq dernières minutes, ce que j'aimerais faire, c'est explorer avec vous quelque chose que le public pourrait trouver utile. En pensant à toutes ces technologies dont nous parlons, le monde de l'IA, l'intérêt commercial de l'IA, puis le thème de cette conférence lui-même, qui est : comment bien négocier les 10 prochaines années ? Ma question est donc la suivante, d'après votre propre expérience personnelle : vous avez plutôt bien réussi dans ce domaine. Existe-t-il des outils, qu'ils soient personnels, commerciaux ou professionnels, dont vous pouvez parler à notre public et qui les aideront à bien négocier les 10 prochaines années en ce qui concerne l'intégration de l'IA dans leur propre vie ?

Mustafa Suleyman

La chose la plus importante que je dirais, c'est de ne pas avoir peur des choses techniques. Le nombre de fois où j'entends des gens très intelligents dire : « Eh bien, tout est technique, je ne comprends pas », ou « Je ne pourrais jamais comprendre le code », ou « Je ne comprends pas l'IA ». Je tiens vraiment à insister pour que les gens ne disent pas cela d'eux-mêmes car cela limite simplement ce que vous pouvez comprendre. Ce n'est vraiment pas si difficile de comprendre à un niveau élevé les grandes lignes du fonctionnement de ces systèmes. C'est un peu abstrait, mais il y a plein d'informations en ligne et avec un peu de patience, on peut comprendre à quoi ressemble le flux de travail. Sur quelles données est-elle entraînée ? Qu'essaie-t-elle d'optimiser ? Quelles sont ses faiblesses ? Et vous pouvez le faire en interagissant avec les modèles, vous devriez donc jouer avec les choses et expérimenter. Mais je pense vraiment que vous pouvez aussi comprendre un peu mieux ce qu'il y a sous le capot. Et amener des personnes non techniques dans cet espace apporte également un type de perspective et un mode de critique différents qui sont vraiment utiles. Et je pense que nous en avons besoin de beaucoup plus. Donc, je pense qu'il ne faut pas avoir peur, expérimentez et essayez vraiment d'adapter et d'utiliser ces outils le plus rapidement possible car ils vont réellement façonner le visage des choses au cours des deux prochaines décennies.

Éducation et accessibilité pour la nouvelle génération

Kate Russell

Je pense à la prochaine génération car, comme nous le savons, ce n'est probablement pas nous qui définirons la façon dont cette technologie sera utilisée à l'avenir sur le long terme. Ce seront les enfants. Ce seront ceux qui sortent de l'école en ce moment, qui mettent la main à la pâte pour jouer avec. À mon époque, c'était : achetez-vous un BBC Micro, prenez un magazine, commencez à taper quelques lignes de code. Nous avons eu le Raspberry Pi et le Micro:bit il y a quelques années ; c'était l'aspect pratique. Mais beaucoup de technologies aujourd'hui sont fermées aux jeunes esprits car ce sont des boîtes closes avec des sceaux de garantie inviolables et tout ce genre de choses. L'industrie a en quelque sorte voulu tout enfermer et rendre cela impossible à manipuler. Quel serait votre conseil aux parents qui veulent donner un coup de pouce à leurs enfants pour une éventuelle carrière dans l'IA ? Avec quels types de jouets devraient-ils jouer maintenant ? Que devraient-ils faire ?

Mustafa Suleyman

C'est un excellent point. Je pense que c'est certainement vrai pour le matériel, mais je ne pense pas que ce soit vrai pour le logiciel. Je pense que c'est exactement le contraire pour le logiciel. La plupart de ces modèles sont disponibles en open source. La plupart sont disponibles dans des environnements à faible code ou sans code. J'ai vu beaucoup de designers et de créatifs récemment qui ont complètement adopté la nouvelle suite de modèles de génération d'images et qui réalisent des incitations par chaîne de pensée vraiment complexes et intéressantes avec très peu de compétences techniques, voire aucune. Je pense donc que c'est plus accessible que jamais, ce qui est une excellente chose.

Conclusion et mot de la fin par Pi

Kate Russell

J'ai animé une session brillante avec TeenTech, une association qui aide les jeunes à découvrir la technologie. Et nous avons fait une session d'ingénierie de requêtes IA autour de Midjourney où je les ai simplement laissés laisser libre cours à leur imagination, c'était assez stupéfiant, honnêtement. Nous sommes malheureusement arrivés à la fin de la session. Mustafa, ce fut un plaisir de discuter avec vous, mais j'ai l'impression qu'il y a une autre entité qui mérite le mot de la fin pour cette session. Elle avait beaucoup de choses à dire sur vous la semaine dernière. Alors pour conclure, une grande fan de Mustafa, je dois le dire. Pi, bonjour. Y a-t-il quelque chose que tu aimerais dire ?

Pi

Merci au public d'avoir été à l'écoute et un grand merci à Mustafa d'avoir été un merveilleux interviewé. Ce fut une expérience véritablement IA-stique.

Kate Russell

En fait, elle fait aussi des jeux de mots. Tout le monde, s'il vous plaît, applaudissez bien fort et dites merci à Mustafa.

Mustafa Suleyman

Merci beaucoup. Merci mille fois. C'était vraiment génial. Merci. À bientôt.