Yann LeCun

L'IA pilotée par des objectifs et l'avenir de l'Open Source

6 juillet 2023

Intelligence Artificielle
Illustration de Yann LeCun

Introduction

Annonceur

Mesdames et messieurs, veuillez accueillir Yann LeCun.

Limites de l'IA actuelle

Yann LeCun

Tout d'abord, je tiens à remercier Max d'avoir montré certains de mes tweets, je n'aurai pas à mentionner tout cela. Avant tout, nous sommes encore très loin d'avoir une IA de niveau humain. La technologie actuelle est très limitée. Nous avons des systèmes capables de réussir l'examen du barreau, mais n'importe quel enfant de 10 ans peut apprendre à débarrasser la table et à remplir le lave-vaisselle en quelques minutes. Les convaincre de le faire est une autre histoire. N'importe quel jeune de 17 ans peut apprendre à conduire une voiture en environ 20 heures de formation. Nous n'avons toujours pas de robots domestiques, nous n'avons toujours pas de voitures autonomes, du moins pas de voitures autonomes de niveau 5. Nous avons encore des progrès majeurs et fondamentaux à accomplir pour parvenir à des machines capables d'atteindre une IA de niveau humain. Il nous manque quelque chose de conséquent.

Risques immédiats et solutions

Yann LeCun

L'IA présente des risques immédiats, mais ces risques ne sont pas nouveaux. Il y a des questions comme : l'IA va-t-elle pouvoir générer beaucoup de désinformation, ou convaincre des gens de faire de mauvaises choses, ou donner des informations à des personnes qui ne devraient pas les avoir ? Nous avons déjà Internet, nous avons déjà les réseaux sociaux, nous avons déjà des contre-mesures contre des choses comme la désinformation, les discours de haine et ce genre de choses. Et d'ailleurs, toutes ces contre-mesures font un usage massif de l'IA. Pour ces problèmes, l'IA est la solution, pas le problème.

Critique des LLM autorégressifs

Yann LeCun

Existe-t-il une conception de base pour l'IA qui la rendrait sûre et dirigeable ? Maintenant, si nous extrapolons les capacités des systèmes d'IA actuels, je conviendrais que nous pourrions nous inquiéter du fait qu'ils puissent faire de mauvaises choses et être incontrôlables. La plupart d'entre vous ont probablement joué avec des LLM autorégressifs, ChatGPT, etc. Et vous savez qu'ils confabulent, qu'ils inventent des faits qui n'existent pas. Ils ne peuvent pas vraiment raisonner, ils ne planifient pas, ils ne comprennent pas vraiment la réalité du monde parce qu'ils sont purement entraînés sur du texte et que la majeure partie des connaissances humaines n'a rien à voir avec le texte ou le langage d'ailleurs. Si vous croyez que les futurs systèmes d'IA seront basés sur le même modèle, je pense que vous êtes en droit de croire qu'ils pourraient être dangereux. Ma prédiction est que d'ici cinq ans, nous n'utiliserons plus ces choses-là.

L'IA pilotée par des objectifs

Yann LeCun

Diapositive suivante, s'il vous plaît. Ce que je propose est quelque chose qu'on appelle l'IA pilotée par des objectifs. C'est un type d'IA dont le comportement est contrôlé par un ensemble d'objectifs. Ces systèmes d'IA ne peuvent pas produire de résultat à moins qu'il ne satisfasse un certain nombre de contraintes, des contraintes de sécurité par exemple, et des objectifs qui mesurent si le système répond à la question posée ou s'il accomplit la tâche souhaitée. Ces systèmes sont contrôlables, ils peuvent être rendus sûrs tant que nous mettons en œuvre les objectifs de sécurité. Et ce qui est surprenant, c'est qu'ils auront des émotions, ils auront de l'empathie, ils auront tout ce que nous exigeons des entités dans le monde pour qu'elles se comportent correctement. Je ne crois pas que nous puissions atteindre quoi que ce soit de proche de l'intelligence de niveau humain sans doter les systèmes d'IA de ce genre d'émotions, semblables aux émotions humaines. Ce sera le moyen de les contrôler.

Assistants personnels et Open Source

Yann LeCun

Maintenant, un ensemble d'émotions que nous pouvons programmer en eux est la subordination, le fait qu'ils seront à notre service. Imaginez un futur, dans 10 ou 20 ans peut-être, où chacun d'entre nous interagirait avec le monde numérique via un assistant IA. Cet assistant IA sera notre meilleur ami numérique ; il nous aidera dans notre vie quotidienne. Ce serait comme avoir un personnel composé de personnes qui pourraient être plus intelligentes que nous. Et c'est formidable. Travailler avec un groupe de personnes plus intelligentes que vous est la meilleure chose que vous puissiez faire. Si c'est le cas, nous voudrions que ces systèmes d'IA soient transparents et ouverts, un peu comme Wikipédia. Nous faisons confiance à Wikipédia parce que le contenu est alimenté par des millions de personnes qui ont été vérifiées et qu'il existe un processus d'édition, ce qui nous donne un certain niveau de confiance dans la véracité du contenu. Il devra en être de même pour les systèmes d'IA. La façon dont ils apprennent sur le monde, car ils vont être le dépositaire de toutes les connaissances humaines, devra être participative, ce qui signifie qu'ils devront être en open source. Et si nous craignons qu'ils soient un danger pour l'humanité, ils ne peuvent pas être en open source.

Conclusion : Une nouvelle Renaissance

Yann LeCun

Nous sommes à la croisée des chemins. Allons-nous garder cela sous clé comme s'il s'agissait d'une arme, ou allons-nous opter pour l'ouverture ? Je plaide vraiment pour l'ouverture car je pense que l'IA va ouvrir une nouvelle ère pour l'humanité, une nouvelle Renaissance, une nouvelle ère des Lumières. Tout le monde en sera plus intelligent, et être intelligent est intrinsèquement bon. J'ai une vision positive, et je pense qu'il existe un moyen très efficace de rendre les systèmes d'IA sûrs. Ce sera une ingénierie ardue, tout comme la sécurisation des turboréacteurs. Cela a pris des décennies, et c'est de l'ingénierie complexe, mais c'est faisable. Merci beaucoup.