Tomas Mikolov

Vers une IA de niveau humain : Défis et perspectives

22 mars 2019

Intelligence Artificielle
Illustration de Tomas Mikolov

Introduction et parcours

Tomas Mikolov

Merci pour l'introduction. Je vais donner cette conférence sur la manière dont nous pouvons atteindre une IA de niveau humain dans un futur lointain, car je ne pense pas que cela arrivera de sitôt, mais en même temps, c'est un sujet très passionnant pour moi. Cela portera en grande partie sur le langage parce que c'est ce qui me passionne et ce sur quoi j'ai travaillé pendant mon doctorat. Comme cela a déjà été dit, j'ai travaillé sur l'apprentissage profond pour la reconnaissance vocale, la traduction automatique, etc., avec des réseaux récurrents parmi les premières personnes.

Définitions et malentendus sur l'IA

Tomas Mikolov

Qu'est-ce que c'est que cette IA ? Le terme lui-même a de nombreuses significations car les personnes venant d'horizons differentes pensent qu'il peut s'agir de quelque chose de radicalement différent. De nos jours, même des modèles statistiques très simples sont souvent appelés IA, ce qui peut être assez déroutant, surtout dans les médias. Pour cette raison, au cours des 30 dernières années, différents chercheurs ont inventé de nombreux noms différents pour distinguer ce qu'ils font de la grande étiquette. De nos jours, l'IA signifie à peu près tout ce qui a un rapport avec les statistiques. C'est pourquoi nous avons les termes IA de niveau humain, IA générale, IA forte et IA-complets, et probablement d'autres que je ne connais pas. C'est une façon pour les gens de distinguer ce qu'ils visent à accomplir de ce qui est fait. Un test simple est que nous n'avons pas de véritable IA pour le moment ; si quelqu'un vous montre quelque chose qui fonctionne, alors ce n'est probablement pas de l'IA mais plutôt de l'apprentissage automatique appliqué.

La croissance exponentielle et ses limites

Tomas Mikolov

Ensuite, il y a des gens qui vous montreront ces graphiques illustrant comment les choses évoluent très bien et que nous sommes très proches de réaliser l'IA. Je pense que celui-ci vient de Ray Kurzweil. Le graphique montre que la puissance de calcul que l'on peut acheter pour 1 000 $ augmente de manière exponentielle au fil des ans, et il y a une prédiction selon laquelle, d'ici l'an 2100, nous aurons plus de puissance de calcul disponible pour 1 000 $ qu'il n'y a d'atomes dans l'univers. Je ne sais pas si cela se vérifiera, mais vous pouvez y réfléchir par vous-même. Habituellement, quand on voit ces graphiques, ils sont souvent extrêmement trompeurs. Tout d'abord, une croissance exponentielle ne dure jamais éternellement dans aucun environnement. Deuxièmement, nous ne savons même pas comment simuler les cerveaux simples des insectes et de certains animaux supérieurs. C'est complètement hors de notre compréhension actuelle, et parler de la quantité de calcul nécessaire pour y parvenir relève vraiment de la science-fiction.

Les limites des modèles actuels et le manque de mémoire

Tomas Mikolov

Je pense que nous avons encore besoin de recherche pour parvenir à l'IA, et il y a de nombreux sujets difficiles sur lesquels nous devons travailler. Dans les deux derniers exposés, beaucoup d'entre eux ont déjà été mentionnés. Je peux dire, quel devrait être l'objectif de l'IA ? Imaginons que nous construisions l'IA dans dix ans : à quoi ressemblera-t-elle ? Que fera-t-elle ? Quel sera l'objectif ? Sur quel modèle informatique sera-t-elle basée ? S'agira-t-il d'un réseau de neurones, d'un modèle bayésien ou d'autre chose ? Ce sont des questions pour les chercheurs, et nous n'avons pas de bonnes réponses. Pour toutes ces questions de base, la vraie réponse est que nous ne savons pas vraiment. Nous ne savons même pas comment modéliser la mémoire. Il semble évident que les humains sans mémoire ne seraient pas intelligents, et de nombreuses techniques de pointe dont nous disposons actuellement n'ont aucune mémoire à long terme. Par exemple, les réseaux récurrents, sur lesquels j'ai travaillé pendant de nombreuses années, sont des techniques très intéressantes en soi et ont amélioré la traduction automatique. Si vous avez vu le bond de précision dans Google Translate l'année dernière entre l'anglais et le tchèque, c'est une excellente chose — j'étais au début de ce projet chez Google — mais c'est vraiment de la statistique appliquée. Les modèles derrière ces systèmes de traduction n'ont pas de mémoire ; ce sont de grands modèles statistiques qui peuvent lire beaucoup plus de données sur le web qu'un humain ne peut en lire au cours d'une vie. Ils sont très intéressants d'un certain point de vue, mais c'est vraiment de la statistique agrégée, pas de l'IA.

Optimisme vs Pessimisme dans la recherche

Tomas Mikolov

Il est également possible que tout ce sur quoi nous avons travaillé en tant que chercheurs en IA au cours des 70 dernières années, ou depuis le début du domaine, n'ait pas trouvé les bons ingrédients qui doivent être assemblés pour un bon plan visant à réaliser l'IA. Il est également intéressant de noter que lorsque quelqu'un est très optimiste, il s'agit généralement de personnes débutantes qui commencent tout juste à travailler dans le domaine. Il y a cette illusion quand on commence à travailler sur l'intelligence artificielle que les choses semblent accessibles et que l'intelligence n'est pas un sujet complexe. Mais plus les gens vieillissent et plus ils passent de temps sur ce sujet, plus ils deviennent généralement pessimistes. En fin de compte, on réalise que nous ne connaissons pas vraiment beaucoup de réponses fondamentales à des questions de base.

Apprentissage supervisé et l'illusion de l'intelligence

Tomas Mikolov

Pour donner un aperçu de cette feuille de route, je vais essayer de décrire comment la recherche se déroule actuellement pour certaines personnes. L'apprentissage profond est un sujet à la mode qui était un problème de recherche il y a 10 ans : comment entraîner correctement ces grands réseaux de neurones profonds auxquels certains d'entre nous croyaient beaucoup. Je dois dire qu'il y a 10 ans, quand j'étais doctorant à l'Université de Brno, très peu de gens croyaient que les réseaux de neurones avaient du potentiel pour des tâches comme la traduction automatique. Il est intéressant de noter que, généralement, la majorité de la communauté de recherche travaille sur quelque chose qui fonctionne déjà, et les vrais sujets de recherche sont difficiles et souvent rejetés par le courant dominant. Les réseaux de neurones sont aujourd'hui très utiles — reconnaissance vocale, traduction automatique, classification d'images — toutes ces tâches se sont considérablement améliorées grâce à l'utilisation de réseaux de neurones artificiels. Mais ces modèles sont souvent entraînés de manière supervisée. Vous devez leur montrer de nombreux exemples d'entraînement, comme une image ou une phrase, et leur montrer une étiquette produite par des humains. C'est une sorte d'astuce, et les gens qui n'ont pas de formation en apprentissage automatique peuvent souvent s'y laisser prendre comme à un tour de magicien. Quand vous voyez le résultat de la machine, cela peut sembler très perspicace — une blague ou une phrase compliquée décrivant une image — mais souvent vous regardez un texte produit par un autre humain et faisant partie de l'ensemble d'entraînement. La machine ne fait que répéter ce qu'elle a vu pendant l'entraînement. C'est comme un super perroquet ou un miroir qui ne comprend rien ; elle répète simplement ce que les gens lui ont dit. Par exemple, de nombreux systèmes de pointe pour la classification d'images sont entraînés sur des millions d'exemples supervisés provenant d'énormes bases de données dont la production coûte cher, où des centaines de personnes ont travaillé pour annoter des millions d'images. Si vous voyez le résultat final sans connaître le travail investi dans ces systèmes, cela peut ressembler à de l'intelligence. Mais une fois que vous connaissez le truc, vous réalisez qu'il s'agit essentiellement d'une recherche des plus proches voisins. Pour chaque exemple de test, il trouve l'image annotée la plus similaire dans l'ensemble d'entraînement et répète l'étiquette annotée par l'humain. C'est un avertissement pour interpréter correctement les résultats obtenus. Ils peuvent être utiles, mais je n'appellerais pas cela de l'intelligence, car l'intelligence perçue provient d'autres humains.

Réseaux de neurones vs Cerveaux biologiques

Tomas Mikolov

C'est pour vous convaincre que l'apprentissage profond n'a pas grand-chose à voir avec les cerveaux biologiques. Le nom 'réseau de neurones artificiels' donne l'impression que nous comprenons le fonctionnement du cerveau et que nous le simulons dans un ordinateur, mais ce n'est pas le cas. Voici l'unité de calcul de base dans un réseau de neurones, appelée modèle perceptron, proposée dans les années 1950. C'est très basique. Vous avez N entrées vers le neurone où arrivent des valeurs réelles, celles-ci sont multipliées par des poids, et le but de l'entraînement est de trouver un bon ensemble de poids qui optimise une fonction objectif. Ensuite, vous appliquez une non-linéarité, qui peut être un simple maximum entre zéro et la valeur calculée, et la sortie est envoyée à la partie sortie du neurone. Un réseau de neurones est composé de plusieurs de ces unités. Vous pouvez considérer les réseaux de neurones artificiels comme des projections de données non linéaires où vous représentez les données sous forme d'un vecteur de taille fixe et appliquez une projection de données en plusieurs étapes. Ces modèles ont des limites théoriques connues quant à ce qu'ils peuvent apprendre. Il existe des motifs très simples à partir desquels ils ne pourront jamais apprendre à généraliser et qu'ils pourront au mieux mémoriser, ce qui signifie qu'ils devraient voir toutes les combinaisons possibles d'entrées pour produire la bonne réponse. Ceci est lié à ce dont Brandon parlait concernant la généralisation ou la vitesse d'apprentissage. L'état actuel de l'apprentissage automatique est loin de la vitesse de généralisation des humains, qui peuvent déduire des motifs à un niveau d'abstraction beaucoup plus élevé que les réseaux de neurones actuellement utilisés.

Progrès réels vs Augmentation des données

Tomas Mikolov

L'apprentissage profond est-il utile pour l'IA ? Nous ne le savons pas vraiment ; cela peut être un composant, mais je pense que quiconque a travaillé dans le domaine assez longtemps ne pense pas qu'un grand réseau de neurones entraîné sur beaucoup de données va résoudre l'IA au sens d'une IA de niveau humain. Vous verrez peut-être des affirmations dans les nouvelles disant que nous avons accompli des tons de progrès ces 10 dernières années, mais l'essentiel des améliorations récentes réside simplement dans des ensembles d'entraînement plus vastes. Il y a plus d'argent et plus de données d'entraînement produites pour différentes tâches. Les tâches que nous pouvions déjà résoudre il y a 5 ou 10 ans avec des performances raisonnables, comme la reconnaissance vocale et la traduction automatique, nous pouvons les résoudre mieux maintenant parce que nous avons des modèles plus grands entraînés sur plus de données. Ils peuvent mieux généraliser parce que les réseaux de neurones sont capables de modéliser une plus large gamme de motifs dans les données que les techniques qu'ils ont remplacées. Par exemple, dans la modélisation du langage, les réseaux de neurones ont remplacé les modèles N-grammes, qui étaient considérés comme l'état de l'art pendant 30 ans.

Apprentissage par renforcement et non supervisé

Tomas Mikolov

Une grande partie de la communauté de recherche réalise qu'une supervision forte, où vous avez besoin d'étiquettes produites par des humains, n'est pas réaliste pour parvenir à l'IA. Pour cette raison, de nombreuses personnes s'intéressent à l'apprentissage par renforcement comme alternative. Dans ce cas, nous n'avons pas besoin de fournir une étiquette correcte pour chaque exemple d'entraînement ; nous fournissons simplement un signal qui indique au système s'il fait quelque chose de bien ou de mal. Imaginez un système de jeu : lorsqu'il obtient des points supplémentaires, il reçoit une récompense positive et peut extrapoler qu'il a fait quelque chose de bien et renforcer son comportement pour répéter des décisions similaires. Inversement, lorsqu'il reçoit une récompense négative, il essaie de comprendre ce qu'il devrait faire différemment. C'est beaucoup moins supervisé ; vous ne dites pas au système ce qu'il doit faire, vous dites simplement quand il fait quelque chose de bien ou de mal, et il doit comprendre par lui-même ce qui doit être fait. C'est plus général que l'apprentissage supervisé seul. Un autre sujet intéressant sur la feuille de route vers l'IA est l'apprentissage non supervisé, bien que ce soit souvent déroutant car les gens le voient comme un problème où l'on obtient des étiquettes à partir des données elles-mêmes. Un exemple est la modélisation du langage. Vous pouvez utiliser des réseaux profonds entraînés de manière supervisée pour la modélisation du langage où la supervision provient des données elles-mêmes plutôt que d'annotateurs humains. Vous pouvez prendre l'intégralité de Wikipédia et essayer de prédire chaque mot en fonction des mots qui le précèdent ; c'est le cœur de la modélisation statistique du langage. Vous n'avez pas besoin d'étiquettes mais pouvez tout de même appliquer les mêmes techniques que pour l'apprentissage supervisé, ou vous pouvez faire du clustering de données. Par exemple, vous pouvez apprendre des vecteurs de mots, comme word2vec, à partir de Wikipédia de manière complètement non supervisée, puis exécuter un clustering K-means pour avoir un aperçu de la façon dont les données sont organisées. Certaines personnes, comme Yann LeCun, pensent que nous pouvons obtenir un aperçu de l'IA en modélisant des vidéos, en prédisant les pixels sur la base des images précédentes. La conviction est qu'un bon modèle prédictif doit modéliser le monde réel de manière très détaillée pour savoir ce qui va se passer ensuite dans la vidéo. C'est ce que beaucoup de gens entendent par apprentissage non supervisé. Je pense que nous devrions également considérer l'apprentissage non supervisé comme quelque chose d'encore moins supervisé, où nous oublions complètement les vecteurs cibles dans les réseaux de neurones. Il existe des techniques comme les techniques évolutionnaires qui étaient populaires il y a 20-25 ans. Elles n'ont pas eu beaucoup de succès, mais l'idée est simple : commencer par une population de modèles initialisée aléatoirement, choisir le meilleur sous-ensemble, le copier dans la génération suivante et créer des copies d'individus réussis avec des mutations aléatoires. Cette approche émule l'évolution et est moins supervisée que les précédentes car les modèles ne savent pas ce qu'ils font de bien ou de mal ; il y a juste une fonction de fitness mesurant quelle solution est la meilleure. Cela peut utiliser des caractéristiques discrètes et les modèles n'ont pas besoin d'être différentiables ou continus. Nous pouvons envisager une plus large gamme de modèles et même devenir moins supervisés en oubliant la fonction de fitness, ce que la communauté de la vie artificielle explore : définir des processus dynamiques qui ont une complexité croissante.

Systèmes à complexité ouverte et évolution

Tomas Mikolov

C'est un sujet intéressant de savoir si nous pouvons développer un système artificiel avec une complexité ouverte qui peut augmenter indéfiniment, car cela semble être le cœur de la vie sur Terre. Même pour les humains et notre langage, de nombreux systèmes peuvent être vus comme des systèmes dynamiques en évolution qui augmentent en complexité sans but concret. Ken Stanley donnera une conférence à ce sujet cet après-midi, expliquant pourquoi ce sont des problèmes de recherche passionnants. Même s'il n'est pas difficile de définir ces objectifs, nous n'avons pas de système ouvert dans ce sens. Si vous regardez les exemples les plus réussis d'apprentissage par renforcement ou d'apprentissage profond, c'est toujours la même histoire : vous mettez à jour les poids sur de nombreuses époques, les changements deviennent plus petits et, à la fin, vous obtenez un modèle fixe et figé. Si vous voulez changer les conditions, vous devez jeter le modèle et recommencer l'entraînement de zéro. Comme Brandon l'a mentionné, si vous changez légèrement les règles d'un jeu, vous devez recommencer l'apprentissage de zéro. C'est très peu satisfaisant d'en être là pour le moment.

Objectifs IA-complets et feuille de route

Tomas Mikolov

Les défis pour notre génération sont de proposer des objectifs IA-complets et d'oublier l'optimisation de tâches spécifiques. Je pense que nous avons déjà résolu certaines tâches à un degré acceptable, comme la reconnaissance vocale et la traduction automatique. Dans de nombreux domaines, nous savons comment les résoudre suffisamment bien, et le problème devient davantage un problème d'ingénierie. Dans de nombreuses applications, le meilleur moyen d'améliorer la précision est simplement d'obtenir plus de données d'entraînement et de payer des gens pour annoter plus d'exemples. Je pense qu'en tant que communauté de recherche, nous devrions fixer des objectifs plus ambitieux et travailler sur quelque chose d'IA-complet — ce qui signifie que si vous résolvez un problème IA-complet, vous résolvez tous les problèmes de la catégorie IA. Nous avons proposé une feuille de route vers l'intelligence artificielle dans un article, un plan rudimentaire sur la façon dont nous pourrions y parvenir dans un avenir lointain. Nous avons essayé de limiter la complexité, mais le plan est toujours hors de portée. Nous avons envisagé un environnement simulé où un robot apprend par la communication à effectuer des tâches de complexité croissante. Comme Marek l'a mentionné lors de la première conférence, les plans sont similaires. Bien que ces tâches semblent triviales pour un humain, les techniques d'apprentissage automatique doivent être réentraînées chaque fois que la tâche change légèrement ; l'apprentissage incrémental est un sujet problématique que personne ne sait comment résoudre.

Inspiration de l'évolution et complexité émergente

Tomas Mikolov

Les défis pour notre génération sont de réfléchir plus largement. Peut-être pouvons-nous nous inspirer pour l'IA non seulement de la simulation du cerveau humain ou de la cognition, mais de tous les cerveaux ensemble, et extrapoler les motifs derrière toute intelligence. Peut-être que l'intelligence n'est pas seulement au niveau des individus ; la vie elle-même est intelligente dans un certain sens, car elle s'améliore d'elle-même. L'évolution est une belle source d'inspiration qui est actuellement hors du courant dominant de la communauté de recherche. Comme je l'ai dit au début, les percées ne se trouvent souvent pas là où tout le monde cherche. Il existe des sujets intéressants comme la vie artificielle et les fractales qui ont une complexité émergente que nous n'observons pas dans les réseaux de neurones. Nous pensons que cela devrait être présent dans l'IA de niveau humain car il ne devrait y avoir aucune frontière pour l'intelligence — les modèles devraient devenir plus intelligents et plus grands, plutôt que d'être des algorithmes convergents qui obtiennent un bon score à un jeu puis s'arrêtent.

Généralisation, transfert d'apprentissage et mémoire

Tomas Mikolov

Le défi pour nous est de savoir comment aborder ces sujets. Il a été mentionné dans les interventions précédentes que nous voulons plus de généralisation. Je peux expliquer cela sous un angle différent : souvent, les gens confondent ces termes. Si vous augmentez la quantité d'exemples d'entraînement ou d'échantillons, ces modèles ne font souvent que mémoriser des combinaisons de caractéristiques d'entrée et d'étiquettes. La généralisation signifie être capable d'apprendre des motifs de plus haut niveau, peut-être compositionnels, et de généraliser plus rapidement. C'est plus facile à comprendre en considérant l'apprentissage incrémental, également appelé transfert d'apprentissage, apprentissage compositionnel ou apprentissage hiérarchique. La logique est que lorsque vous enseignez à des techniques d'apprentissage automatique à effectuer une tâche, vous vous attendez à ce qu'il soit plus facile de réentraîner ou d'adapter le système à une tâche légèrement plus compliquée, à l'image de la façon dont les humains apprennent à l'école. Nous stockons ce que nous avons appris dans la mémoire à long terme et y basons nos connaissances. Les techniques actuelles sont complètement incapables de le faire. Souvent, apprendre un problème légèrement plus complexe après un problème plus simple prend plus de temps que d'apprendre de zéro. Il n'y a aucun transfert de connaissances entre les tâches au niveau algorithmique. Par exemple, si vous apprenez à un réseau de neurones à additionner des nombres et que vous voulez ensuite qu'il soustraie, il n'y a pas de transfert ; vous recommencez de zéro ou devez réentraîner complètement le modèle. Cela va à l'encontre de l'intuition de l'apprentissage. Peut-être que le mot 'apprentissage' est surévalué, car nos modèles ressemblent davantage à des approximateurs des plus proches voisins, mémorisant les exemples d'entraînement plus qu'ils n'apprennent.

Perspectives futures et percées nécessaires

Tomas Mikolov

Les objectifs que j'ai mentionnés, comme l'évolution de la communication ou la construction de chatbots capables de comprendre une conversation et d'aider les gens, sont de grands objectifs pour nous. Ce serait formidable si les chercheurs construisaient des cadres pour aborder ces problèmes. Pour revenir à la question initiale : quand atteindrons-nous une IA de niveau humain ? Je n'essaierais même pas de deviner. Jusqu'à présent, nous avons d'excellentes applications d'apprentissage automatique statistique, mais je ne les appellerais pas IA de niveau humain. Nous en sommes encore assez loin. Je suis un peu optimiste, comme Marek, quant au fait qu'il pourrait suffire d'une ou deux idées pour la prochaine percée, et personne ne sait quand cela arrivera. Mais comme j'ai passé tellement de temps dans le domaine et que je vois peu de percées réelles — et beaucoup qui ne sont que de nouveaux noms pour de vieux trucs — je pense que cela prendra du temps et des gens intelligents avec des idées radicalement différentes sur ce que sont l'apprentissage et l'intelligence.

Sécurité de l'IA et menace existentielle

Tomas Mikolov

Enfin, une idée philosophique : les gens s'inquiètent parfois de la sécurité de l'IA, arguant que nous ne devrions pas développer l'IA car elle pourrait nous détruire, comme dans les films sur les robots tueurs. Je pense que ce n'est pas ce que nous prévoyons de réaliser ; cela fait partie de la science-fiction, qui serait ennuyeuse si elle parlait d'une IA heureuse qui nous aide. Concernant la sécurité de l'IA, nous pouvons regarder les choses de l'autre côté : et si le fait de ne pas réaliser l'IA était la plus grande menace existentielle pour l'humanité ? À mesure que la technologie devient plus complexe, nous produisons davantage de substances artificielles qui pénètrent dans l'environnement. En tant qu'humains, nous sommes mauvais pour faire des prédictions à 20-30 ans dans le futur. Développer l'IA pour nous aider à devenir plus intelligents — peut-être dans une relation symbiotique — pourrait être la façon dont nous éviterons de futures catastrophes. Dans ce cas, travailler sur l'IA est très important pour nous tous. C'est l'une de mes prédictions un peu folles pour la fin de la conférence. Merci de votre attention.

Session Q&A - L'hiver de l'IA

Modérateur

Bon, l'homme à l'iPad est de retour. Commençons par celle-là. J'essaie désespérément de ne pas faire de mème 'A Song of Ice and Fire' ici. Vous avez parlé des attentes gonflées vis-à-vis de l'IA, écrit Lukas Linhart. Pensez-vous qu'un autre hiver de l'IA approche ?

Tomas Mikolov

C'est une situation différente de la dernière fois. Je pense que l'hiver de l'IA a déjà eu lieu deux fois, et nous sommes actuellement dans un 'été de l'IA', ce qui est l'opposé, mais comporte aussi des problèmes. Un hiver de l'IA signifie que chaque fois que les attentes sont surmédiatisées, les gens deviennent frustrés et disent du mal des startups folles qui promettent de tout résoudre. Le financement disparaît et les gens passent à autre chose. C'est ce qui s'est passé quand Marvin Minsky a écrit un livre sur les limites théoriques des réseaux de neurones. Ses conclusions étaient justes, mais certains ont vu dans ce livre la raison de l'arrêt du financement. Je pense que ce sont les gens qui faisaient des affirmations folles qui ont causé l'hiver. Je ne sais pas si cela se reproduira ; la situation est différente car l'apprentissage automatique appliqué a énormément de valeur. L'apprentissage automatique appliqué est considéré comme faisant partie de l'IA, donc toute l'IA ne disparaîtra pas ; elle rapporte de l'argent à des entreprises comme Google, Facebook et Microsoft. Si cette phase d'été ou de battage médiatique de l'IA devient plus régularisée, ce sera une bonne chose pour la recherche. Les gens pourront oublier les affirmations tapageuses des startups en quête de financement. Si les choses deviennent plus calmes et que la communauté ne double pas de taille chaque année, ce sera mieux pour la recherche. Cela arrivera probablement dans un futur proche.

Session Q&A - Nature humaine et culture

Modérateur

J'aime la façon dont l'été de l'IA a dégénéré en battage médiatique et en ruée vers l'or. Hana Kelibotova avait initialement posé une question pour l'exposé précédent qui, je pense, s'applique toujours parfaitement. Hana, es-tu dans le coin ? Ah, là-bas. OK, là-haut. Salut. Quelle différence principale voyez-vous entre l'entraînement de l'IA dans des domaines conçus par des humains pour des humains et la compréhension de la nature d'une manière humaine ?

Tomas Mikolov

Comprendre la nature d'une manière humaine. Si nous voulons développer une IA de niveau humain, nous devons considérer que les humains possèdent des tonnes de connaissances préalables provenant de différentes sources. La culture influence notre intelligence et nos décisions, et nous héritons d'informations des générations précédentes. Parler d'intelligence générale, c'est comme parler d'une forme de vie extraterrestre qui ne partagerait pas notre culture ou nos instincts. Si nous développons une IA basée purement sur les mathématiques, ce serait une sorte d'IA 'autiste' qui ne partagerait pas grand-chose avec nous et vivrait dans son propre monde ; entrer en contact avec elle pourrait être difficile. Je vois cela comme un obstacle : les gens veulent travailler tout de suite sur les problèmes les plus passionnants, mais la partie la plus difficile de la recherche en IA sera de passer par la phase où nous avons quelque chose de petit et de le rendre compréhensible pour les humains afin que nous puissions communiquer avec. La première étape, faire en sorte que l'IA comprenne correctement un vocabulaire de base de dix mots, représente beaucoup plus de travail que de passer à l'échelle supérieure avec des dizaines de milliers de mots. Peut-être que cela répond en partie à la question.

Session Q&A - Intelligence animale vs humaine

Modérateur

Bien, dernière question avant quelques annonces organisationnelles et votre pause café. Olivier Georgon, où es-tu ? Là-bas. En tant qu'objectif pour notre génération, que pensez-vous de la réalisation d'une IA de niveau animal ? Considéreriez-vous cela comme une étape importante vers une IA de niveau humain ?

Tomas Mikolov

Je pense que l'intelligence animale et l'intelligence humaine sont presque les mêmes. Les principes sont fondamentalement les mêmes parce que nous sommes aussi des animaux. Il y a des différences, mais elles proviennent principalement du fait que nous sommes capables de transférer ce que nous avons appris à la génération suivante grâce au langage. La plupart des animaux ne le font pas ; ils s'appuient sur un apprentissage limité et des instincts hérités. La puissance de l'intelligence humaine vient du fait que nous pouvons transférer des connaissances et enseigner à la génération suivante. Sinon, les principes derrière l'intelligence animale et humaine sont fondamentalement les mêmes. Comme je l'ai dit, nous sommes fondamentalement des animaux, nous aussi.

Modérateur

D'accord, remercions encore Tomas.