Discussion sur l'IA avec Mustafa Suleyman et Jana Koehler
18 mars 2021
Intelligence Artificielle
Introduction
Bonjour à tous, nous sommes déjà de retour. Cela a duré un peu moins de cinq minutes puisque nous avons dépassé le temps imparti. Mais comme mentionné il y a quelques instants, nous sommes maintenant ici avec la professeure Jana Koehler, que nous avons fait revenir pour modérer une discussion en tête-à-tête avec Mustafa Suleyman, qu'elle présentera également. Ils auront 45 minutes pour discuter de nombreux thèmes intéressants, allant de l'application de la recherche en IA dans la pratique, à l'IA et la santé, en passant par l'éthique de l'IA. Sans plus attendre, Jana et Mustafa, la parole est à vous.
Vision et applications de l'IA
Merci beaucoup. Cher Mustafa Suleyman, ravi de vous avoir ici. Merci beaucoup pour votre temps. J'ai vraiment hâte de vous rencontrer et d'avoir cette conversation. Permettez-moi de commencer par une première question. Aujourd'hui, l'innovation est à l'ordre du jour, les applications aussi. Beaucoup de gens se demandent : que pouvons-nous faire avec l'IA ? Quelle est votre vision de la manière dont cette technologie, ou toute la gamme de technologies que nous regroupons sous cette bannière, peut être appliquée ? Quelles applications seront, selon vous, les prochains grands sujets et où pouvons-nous avoir l'impact positif le plus important ?
Tout d'abord, merci Jana de me recevoir et merci à Aspen. Je suis très heureux d'être ici. Je pense que c'est une question intéressante et on me la pose souvent. Vers où se dirige le domaine ? Les gens se demandent souvent quel est le rythme du changement. Accélérons-nous réellement ? Les choses vont-elles plus vite ou ralentissent-elles ? Nous semblons être constamment tiraillés entre, d'une part, le sentiment de frustration que nos percées ne soient pas mises en œuvre plus rapidement dans la pratique, et d'autre part, l'anxiété que les choses changent trop vite, avec une nervosité et une peur que tout le paysage autour de nous se transforme. J'ai l'impression que le débat reste souvent bloqué entre ces deux extrêmes. En pratique, je pense que la réalité concrète est que nous progressons régulièrement vers l'application de l'IA dans des environnements réels. Mais naturellement, l'IA dépend d'importantes quantités de données d'entraînement collectées dans le monde réel. Ces données sont souvent désordonnées et bruitées, elles ne sont pas structurées, elles ont souvent besoin d'être nettoyées et étiquetées, et l'environnement de prédiction lui-même doit être structuré de manière à permettre à votre système d'apprentissage automatique de bien s'intégrer et d'être intégré efficacement. Il y a beaucoup de prérequis à mettre en place avant de pouvoir bénéficier de l'IA. Je pense que l'un des aspects les plus difficiles des cinq dernières années en termes d'application de l'IA est que les gens avaient sous-estimé l'ampleur du travail d'infrastructure nécessaire pour que la pièce finale de l'IA soit réussie. D'une certaine manière, l'IA est la cerise sur le gâteau. En dessous, il y a une quantité énorme de travail pour construire l'infrastructure, tester les modèles, concevoir des systèmes logiciels et gérer les éléments sociétaux et politiques d'une nouvelle technologie. Je pense que le domaine rattrape enfin l'étendue des compétences et des capacités que nous devons avoir en place pour tirer profit de l'IA. Cela dit, je reste incroyablement optimiste quant au potentiel de l'IA pour révolutionner véritablement les soins de santé. Comme beaucoup l'ont dit au fil des ans, la santé est un drain incroyablement coûteux pour notre PIB collectif. À mesure que la classe moyenne émerge au cours des prochaines décennies dans les pays moins développés, elle s'attendra à des soins de santé aussi efficaces, sinon aussi potentiellement gourmands en ressources, que ceux que nous connaissons en Europe, en Amérique et dans d'autres pays. Cela signifie que nous allons devoir devenir beaucoup plus efficaces et précis pour détecter les maladies avant qu'elles ne se propagent, grâce à la médecine préventive, pour les diagnostiquer lorsqu'elles surviennent, et pour générer de plus en plus de nouvelles interventions, qu'il s'agisse de médicaments ou de changements de comportement, à l'aide de systèmes d'apprentissage automatique. Nous avons déjà vu des premières indications que nous pouvons le faire. Particulièrement dans le domaine de la reconnaissance d'images et dans le secteur des radiographies, des radiographies thoraciques, des scanners CT ou de la tomographie par cohérence optique (OCT), des scanners oculaires 3D, nous avons montré, et de nombreux autres groupes ont montré, que nous pouvons entraîner des systèmes qui performent aussi bien, sinon dans certains cas mieux, que les meilleurs experts humains au monde. C'est un travail vraiment significatif car, au lieu qu'il en coûte des centaines de milliers de dollars pour former ces experts et des décennies pour apprendre tous les cas qu'ils ont rencontrés pour poser leurs diagnostics, nous pouvons maintenant entraîner des systèmes qui apprennent tout cela presque instantanément. Cela devrait réduire le coût de l'examen de ces analyses à un prix de commodité et garantir leur disponibilité dans le monde entier. Ces systèmes devraient naturellement se propager sur les marchés à mesure que de plus en plus de personnes exigent des diagnostics de la plus haute qualité. Je pense qu'il y a de réelles raisons d'être optimiste, mais il faudra un certain nombre d'années avant de voir des systèmes d'apprentissage automatique dans des domaines d'application hautement sensibles comme la santé. Nous devons rester optimistes, mais aussi être patients. C'est une chose difficile.
Éthique et explicabilité
Alors, quelle est l'une des raisons pour lesquelles nous devons être patients ? Pensez-vous, ou êtes-vous d'accord pour dire que nous ne pouvons pas vraiment mettre cela en pratique tant que ces systèmes ne peuvent pas réellement expliquer leur diagnostic et que nous sommes sûrs qu'ils fonctionnent sur la base de modèles causaux corrects ?
Franchement, je pense que c'est peut-être l'un des défis éthiques les plus intéressants et les plus sensibles de notre époque. À un moment donné, la performance d'un système d'apprentissage automatique, disons pour diagnostiquer des cancers sur des scanners CT ou pour diagnostiquer des maladies potentielles causant la cécité sur des scanners oculaires, ces systèmes de diagnostic seront si performants que pour chaque mois ou chaque année où nous retardons leur mise en œuvre parce que nous voulons nous assurer qu'ils sont absolument parfaits et ne font aucune erreur, des personnes subiront les conséquences de ces maladies non diagnostiquées. D'un autre côté, nous savons que ces systèmes souffrent d'un problème de sous-spécification. Nous travaillons très dur pour essayer de garantir qu'ils reproduisent la même précision et performance dans leurs prédictions, encore et encore. Cette question de reproductibilité est vraiment difficile. Naturellement, ce sont des systèmes stochastiques. Il y a une prédiction de probabilité inhérente impliquée dans la manière dont ils sont entraînés et construits. Il y aura donc une certaine variance. La question de savoir à quel moment nous faisons pencher la balance et déployons le système est la véritable grande question morale de notre époque pour les 10 prochaines années.
Nous verrons certainement des systèmes déployés rapidement parce que le besoin est très élevé. Comme vous l'avez dit, nous voyons actuellement à quelle vitesse nous nous mobilisons pour vaincre le virus et nous pouvons avancer efficacement ; personne ne s'y serait attendu, à quel point cela accélère le changement. Donc, même si le risque de ne pas l'utiliser est plus élevé que le risque de l'utiliser, même s'il y a peut-être quelques erreurs de temps en temps, alors nous irons certainement de l'avant.
C'est exact. Une partie du défi consistera à créer un consensus autour de notre prédiction concernant les risques de dommages par rapport aux bénéfices potentiels. C'est une estimation probabiliste future très difficile. La question est de parvenir à un consensus à ce sujet, et cela concerne la gouvernance et la responsabilité. Quel organisme, quel groupe, quel régulateur, quelle entreprise, quelle startup, quelle ONG peut prendre cette décision ou donner son avis sur cette décision ? À mesure que les enjeux augmentent et que la sensibilité de ces domaines s'accroît, évidemment, l'importance des acteurs qui participent devient cruciale. C'est un thème qui me passionne depuis de nombreuses années et j'ai essayé expérimentalement de comprendre quelle est la bonne structure pour garantir que de larges groupes de personnes puissent participer. Je pense que nous en sommes encore assez loin. Il y a beaucoup plus de travail à faire pour garantir que le processus soit digne de confiance. Il ne s'agit pas seulement de faire confiance aux résultats du système. Il y a très peu de personnes techniquement capables d'examiner ce système et de le rendre responsable, compréhensible et transparent. Je pense que nous devrions vraiment nous concentrer sur le processus : qui a été impliqué et qui a participé, qui a contribué, quelles voix diverses et minoritaires ont pu s'exprimer dans ce processus de décision. C'est le défi de taille auquel nous devons nous attaquer si nous voulons accélérer le déploiement de l'IA dans la prochaine décennie.
Infrastructure et partage des données
C'est une pensée intéressante. J'aimerais aussi revenir sur ce que vous avez mentionné concernant la mise en place d'infrastructures. Par exemple, dans ma présentation, j'ai évoqué l'exemple de la navigation par GPS. Le calcul du trajet le plus court sur une carte peut être facilement réalisé avec une recherche heuristique, mais l'application entière devient réellement utile lorsque nous pouvons la relier à une infrastructure de navigation en temps réel. Je me demande, quand on parle de santé, et vous venez de mentionner que nous avons besoin d'un processus sur la manière dont nous introduisons la technologie, que nous avons certaines structures en place pour appliquer certaines réglementations, quel type d'infrastructure imaginez-vous, en dehors des organismes de réglementation, ou où voyez-vous cela, mais aussi en termes d'infrastructure pour partager les données de santé, probablement aussi au niveau mondial ? De nombreuses inquiétudes surgissent immédiatement, mais il est certain que le partage de ces données et leur mise à disposition pour une analyse plus large apportent beaucoup de valeur.
C'est une excellente question et elle est compliquée. Je pense qu'il appartient au régulateur de créer l'environnement nécessaire pour nous inciter à faire ce qu'il faut. Les exigences de confidentialité concernant le partage des données doivent être explicites, claires et très faciles à suivre et à respecter. Dans cet environnement, je suis très confiant sur le fait que nous pouvons innover pour résoudre ce problème. Vous avez évoqué le défi de devoir procéder essentiellement à un partage de données pseudonymisées ou peut-être même anonymisées afin que nous puissions tous collectivement contribuer avec notre propre dossier médical à un pot public pour en tirer des bénéfices pour tout le monde, nos familles, nos amis et nos communautés, sans compromettre notre vie privée individuelle, ce qui est évidemment très important. Ce sont des défis d'ingénierie. Nous pouvons fixer une barre concernant les exigences réglementaires et les questions de confiance publique, puis dire qu'il appartient aux entreprises et aux collègues chercheurs d'essayer de résoudre ce problème. C'est un problème tout à fait soluble. Si les incitations sont bonnes, ce n'est pas au-delà de nos capacités. Des infrastructures peuvent être construites pour cela. Vous avez mentionné la réponse au COVID. Franchement, je pense que l'un des points positifs de cette terrible pandémie de l'année dernière a été la manière dont Apple et Google se sont associés pour construire une infrastructure de notifications d'exposition préservant la confidentialité. Google gère essentiellement une infrastructure dont il est complètement aveugle. Il n'y a aucune raison de ne pas faire confiance à l'implémentation de Google ici parce que Google et Apple gèrent cela conjointement au nom du public et ne peuvent voir aucun des contacts ou des relations entre les balises Bluetooth qui s'entrecroisent pour effectuer le traçage des contacts et générer une alerte quand quelqu'un est positif. Je pense que c'est un modèle très intéressant que nous devrions explorer dans les années à venir, non seulement parce qu'il a créé un effet d'entraînement pour nous forcer à construire quelque chose très rapidement, mais aussi parce que nous avons eu une collaboration inter-entreprises très rapide, faisant de la confidentialité le paramètre de conception numéro un et construisant quelque chose qui est réellement dans l'intérêt public. Je peux imaginer des systèmes similaires lorsqu'il s'agit de la gestion de vos données personnelles sensibles, que ce soit pour la santé, vos certificats de vaccination ou vos outils de gestion de l'identité, comme la présentation de votre pièce d'identité gouvernementale par exemple. Il existe de nombreuses applications similaires de ce type d'infrastructure public-privé qui doit avoir des garanties de confidentialité absolues pour être digne de confiance et donc utile.
C'est une réflexion très intéressante. La solution semble donc être d'avoir les données distribuées dans divers espaces sécurisés, tout en permettant aux données de se rejoindre pour certains objectifs au lieu d'établir un organisme unique qui possèderait toutes les données.
Financement et organisation de la recherche
Absolument. Personnellement, j'aime la métaphore selon laquelle les données sont un bien commun. Elles existent parce que nous y investissons collectivement, que nous les créons et les fournissons collectivement, et je pense que we devrions collectivement en récolter les bénéfices. Cette question de l'interopérabilité et de la portabilité, dont je sais que la Commission européenne a fait une grande priorité dans ses récents efforts législatifs, est vraiment importante et constitue la bonne trajectoire. Mais d'une certaine manière, c'est un côté de l'infrastructure, l'infrastructure technique. L'autre côté de l'infrastructure concerne la manière dont nous investissons dans la recherche et le développement. Les gens s'inquiètent souvent du fait que les universités, en termes de professeurs d'IA et de soutien, soient sous-financées. C'est une préoccupation sérieuse que nous devons prendre au sérieux, mais c'est en fait un problème très soluble. Cela revient à une question d'argent. À l'heure actuelle au Royaume-Uni, par exemple, les dépenses en R&D s'élèvent à 1,7 % du PIB, ce qui est assez bas pour des pays de PIB et de taille similaires au nôtre. En Allemagne, c'est en fait relativement élevé, c'est 3 %. Aux États-Unis, c'est 3 %. Mais si vous regardez les pays les plus innovants au monde, comme Israël ou la Corée du Sud, ils dépensent 4, 4,5 ou 5 % du PIB. C'est vraiment tout ce qu'il faut. Payez bien les universitaires, créez de nombreux instituts, donnez du prestige aux universitaires, et je pense que nous devons vraiment soutenir nos instituts de recherche car ils sont notre avenir pour résoudre certains des problèmes les plus difficiles que nous rencontrerons au cours des prochaines décennies, qu'il s'agisse de l'agriculture et de l'alimentation, de la mobilité ou de l'énergie et de notre crise climatique. C'est vraiment là que je pense que nous devrions investir. C'est aussi simple qu'une question politique de dépenses.
Comment voyez-vous la répartition de tout cet argent ? En général, il y a pas mal d'argent disponible pour la recherche. Et nous observons des phénomènes intéressants. Par exemple, nous voyons des institutions qui demandent constamment plus d'argent en disant qu'elles peuvent produire davantage. Mais ensuite, il y a ces petites équipes ; elles n'ont pas beaucoup d'argent, mais elles ont des idées brillantes. Parfois, il me semble même qu'il pourrait y avoir trop d'argent. Quel est selon vous le bon équilibre ? Avoir assez de ressources, mais rester créatif et ne pas devenir simplement une machine à lever et à brûler des fonds ? Par exemple, on discute du fait que les professeurs passent plus de temps à réviser des articles et à rédiger des propositions de subvention qu'à faire de la recherche de nos jours.
Ce sont deux excellents points. Je suis d'accord. Tout d'abord, il y a la question des professeurs. Je suis personnellement très favorable à l'investissement du secteur public pour résoudre les grands défis, en créant des instituts destinés à s'attaquer à un problème spécifique dans un délai limité avec un objectif très mesurable, avec un financement qui s'arrête après une période fixe. Je ne pense pas qu'avoir plus de professeurs titulaires soit nécessairement la seule façon de résoudre le problème. C'est clairement nécessaire et important. Ce que je veux dire, c'est que nous avons besoin d'une ingénierie d'intérêt public pour construire des investissements en R&D à très grande échelle sur nos problèmes complexes. Il existe une vaste classe de problèmes qui ne sont pas des problèmes de capital-risque, certainement pas des problèmes de capital-investissement, et avec lesquels certaines grandes entreprises technologiques commencent à expérimenter, mais elles le font avec une fraction infime de leur investissement. Cette catégorie de problèmes est trop vaste pour l'environnement de recherche universitaire actuel. Ils ne sont pas configurés pour diriger des équipes d'ingénierie logicielle ou des équipes expérimentales de 500 personnes. Ils ont l'habitude de diriger des laboratoires de 30 personnes au maximum. C'est pourquoi je pense que nous sommes un peu bloqués. Nous ne progressons certainement pas assez vite sur ces grands défis. Je pense qu'ils nécessitent de très gros investissements et nous devons accepter que le taux d'erreur sera beaucoup plus élevé qu'il ne le serait dans un investissement traditionnel du secteur public. Nous devons tolérer l'échec ; en fait, nous devons célébrer l'échec. Je pense qu'il s'agit d'investissements de plusieurs milliards d'euros sur des périodes de cinq à sept ans. Et nous devons nous attendre à un taux d'échec de 50, 60 ou 70 % en termes d'atteinte de l'objectif principal. De nombreux autres bénéfices dérivés en découleront. Mais c'est ce qu'il faut pour progresser car, pour le moment, il y a ces séries de problèmes qui tombent entre deux mondes et, par conséquent, nous passons à côté d'opportunités.
Mais cela semble aussi nécessiter des formes d'organisation assez différentes. Par exemple, l'Union européenne avait mis en place ce réseau pour s'attaquer au Human Brain Project, mais il y a un consensus sur le fait que ce n'était pas aussi efficace qu'on le pensait initialement. Si nous restons avec ces structures traditionnelles, des professeurs qui privilégient la liberté par-dessus tout, l'individualité, les équipes, et d'autre part vous décrivez une structure où les gens travaillent réellement en équipe, avec un processus très planifié, une assurance qualité, des tests, l'essai d'idées, en allant vraiment jusqu'au bout. Cela semble être assez différent de l'attitude académique traditionnelle.
Je suis tout à fait d'accord. C'est très différent. Je pense qu'une partie du défi avec ces très grands efforts impliquant plusieurs pays et plusieurs universités est qu'il est très difficile de coordonner quand les gens travaillent deux ou trois jours par semaine. La plupart de ces investissements étaient plutôt à temps partiel. Je crois personnellement beaucoup à un engagement à temps plein en embauchant une équipe d'ingénierie dirigée par des chercheurs qui sont vraiment investis, qui se consacrent pleinement, c'est ce sur quoi ils vont travailler pendant cinq ans, ils font partie de cette mission, et cela signifie qu'ils devront choisir de suivre une voie différente de celle des publications et du parcours académique de gestion des doctorants. Et c'est très bien ainsi. Il ne s'agit pas de sous-investir dans l'aspect académique existant. Je pense que c'est un nouvel investissement qui est nécessaire pour s'attaquer à ces grands défis, et le faire d'une manière qui ressemble davantage à la façon dont les grandes entreprises abordent ces problèmes, mais avec l'intérêt public et l'esprit du secteur public.
Processus d'innovation et besoins utilisateurs
J'ai également passé près de 10 ans chez IBM Research et il me semble que la recherche industrielle, comparée à la recherche académique pour certains objectifs, est aujourd'hui le type d'organisation le plus efficace. Mais avançons un peu dans le processus d'innovation. Nous avons toute cette technologie en place, les choses vont encore mûrir, des entreprises comme Google mettent en place des cadres autour de cela, nous avons des services cloud que les petites entreprises peuvent utiliser pour accéder à la technologie. Je me demande si vous pourriez partager avec nous certaines de vos réflexions. Par exemple, il y a aussi une question : quel est votre processus de réflexion lorsque vous concevez de nouvelles applications basées sur l'IA ou des modèles commerciaux ? Et y a-t-il aussi des conseils ? La possibilité de la technologie est un aspect, mais avoir le modèle commercial en place qui nous permet réellement de tirer parti de cette technologie de manière viable afin qu'elle soit également rentable, par exemple qu'elle puisse réellement être maintenue sur le long terme grâce à ses revenus, est une autre histoire. Et puis bien sûr, il y a les utilisateurs. Les utilisateurs désirent-ils cette application ? Vont-ils vraiment l'adopter et l'aimer ? Quel est votre processus de réflexion quand vous avez toutes ces idées en tête et laquelle choisissez-vous ou quelles sont les premières questions que vous posez avant de prendre une décision ?
Excellentes questions. L'une des premières questions que je pose est : quel genre de problème de prédiction est-ce ? Qu'est-ce qu'un utilisateur final a exactement besoin de vivre pour bénéficier de cette technologie ? Cela signifie que je dois aller passer du temps avec les utilisateurs finaux perçus et essayer de comprendre leur problème. Trop souvent, je vois des marteaux à la recherche de clous, où il y a une technologie préexistante et nous pensons qu'elle fonctionne bien en recherche et nous cherchons simplement n'importe quel problème qui semble pouvoir être résolu par notre solution. C'est une erreur classique que les chercheurs en application ont tendance à commettre. J'aime vraiment m'immerger auprès des utilisateurs pour lesquels j'essaie de trouver une solution. Dans le cas de tout le travail sur la santé que j'ai fait au cours des cinq dernières années, j'ai passé énormément de temps dans les services, à parler aux infirmières et aux médecins ; j'ai fait de nombreuses gardes de nuit, je suis allé sur le terrain, j'ai circulé dans des véhicules, beaucoup de choses pour essayer de comprendre. La même chose quand j'ai fait le travail sur les centres de données. Nous avons amélioré l'efficacité des centres de données de Google de manière très significative, de 30 %, il y a quelques années. Nous avons passé beaucoup de temps à discuter avec les ingénieurs des centres de données qui étaient ravis de nous voir passer des journées avec eux à poser des questions très détaillées. On acquiert un instinct sur leur façon de penser, le langage qu'ils utilisent, le vocabulaire et ainsi de suite. C'est clairement la première chose à faire. La deuxième chose à faire est d'être très honnête avec soi-même sur le modèle commercial ici. La plupart du temps, jusqu'à présent avec les méthodes qui ont été développées, particulièrement avec l'apprentissage profond, le résultat est de rendre quelque chose plus efficace. Vous allez gagner du temps et vous allez augmenter la précision d'un processus existant. Qu'il s'agisse de reconnaissance d'images, de reconnaissance vocale ou de tout type de détection d'erreurs. C'est génial car cela améliore la qualité. Dans le domaine de la santé, c'est vraiment important et précieux. Mais souvent, les dynamiques de marché pour les marchés établis n'encouragent pas toujours les améliorations de la qualité. Ce qu'ils recherchent souvent, c'est une réduction spécifique des coûts. Vous pouvez faire gagner du temps, même si vous êtes un ingénieur gazier détectant des fuites ou des tuyaux cassés sur une plate-forme pétrolière ou autre, vous devez vraiment être capable de prouver que vous ne faites pas seulement gagner du temps à l'ingénieur, mais que vous réduisez le nombre d'incidents catastrophiques. Ou pour améliorer l'efficacité de la communication entre infirmières et médecins, vous pourriez dire que vous avez amélioré la qualité et la précision, ce qui est excellent pour le patient, mais est-ce que cela réduit réellement le coût final de fonctionnement du service ? C'est l'un des défis que toute la communauté essaie de résoudre en ce moment. Nous savons que c'est le cas et que ce le sera à long terme. C'est juste que pour catalyser une adoption à très grande échelle rapidement, tout est clairement une question d'argent. Et c'est une considération importante.
Vous dites donc que l'accent est mis sur la qualité, mais bien sûr nous devons d'une certaine manière présenter cela joliment sous l'angle des coûts. C'est vraiment important de ne pas viser des gains à court terme en termes d'argent, mais plutôt de viser les améliorations de qualité profonde que nous pouvons réellement obtenir. Je voulais aussi vous demander quand vous avez parlé d'apprentissage profond, et pour beaucoup de gens l'IA c'est l'apprentissage profond en ce moment. Vous avez dit aussi qu'il faut connaître son utilisateur. Soyez votre premier utilisateur. Par exemple, si vous n'aimez pas utiliser votre propre technologie, alors personne d'autre ne l'aimera probablement. Mais bien sûr, comprendre le domaine, comprendre les scénarios d'utilisation, les processus et ainsi de suite est très important. Peut-être juste une question provocatrice. Pouvez-vous imaginer une application spécifique où l'apprentissage profond pourrait ne pas être la meilleure technologie possible ?
Limites de l'IA et AGI
L'apprentissage profond est typiquement utile lorsque vous essayez de classer un ensemble d'objets connus existants et que vous prenez un ensemble de données rétrospectives qui est déjà bien étiqueté et que vous demandez à l'algorithme de reproduire la structure sous-jacente qui est déjà établie dans un ensemble de données existant. Il existe de nombreux exemples d'environnements de données qui n'ont tout simplement pas ce genre de structure de classification bien étiquetée. Dans ces cas, les méthodes d'apprentissage profond n'ont pas encore tout à fait évolué et il y a encore beaucoup de travail à faire dans ce domaine. Le deuxième domaine dont il faut se méfier concerne les environnements non stationnaires ou dynamiques où la structure de l'environnement change à mesure que votre algorithme effectue une intervention dans cet environnement. Qu'il s'agisse de ce type d'interaction dynamique continue, cela peut produire de nombreuses conséquences ou propriétés émergentes de l'environnement qui deviennent très difficiles à modéliser. Jusqu'à présent, les méthodes d'apprentissage profond supervisé ne sont pas vraiment adaptées à ce genre d'environnements.
Si en particulier de tels environnements ne sont pas entièrement déterministes. Dans certains processus de production et de fabrication, nous pouvons observer cela. Et il y a certainement des limites à l'apprentissage supervisé, mais aussi à l'apprentissage par renforcement car nous ne pouvons pas vraiment créer un environnement de simulation où nous pouvons essayer d'apprendre parce que le comportement est si difficile à prédire et même les experts ne peuvent pas vraiment décrire ce qui va se passer.
C'est un exemple parfait. L'apprentissage par renforcement n'a pas encore été bien mis à l'échelle jusqu'à présent, c'est quelque chose sur lequel j'ai travaillé pendant de nombreuses années et nous n'avons pas encore vraiment réussi à trouver de très bonnes applications à grande échelle de l'apprentissage par renforcement. Je pense que cela viendra avec le temps, mais c'est encore un domaine de recherche active.
Pour moi, c'est intéressant car d'un côté les méthodes d'IA atteignent certaines limites ici dans ces domaines, mais les ingénieurs humains parviennent néanmoins à contrôler ces processus. Et ils le font apparemment à un niveau d'abstraction que nous n'avons pas encore découvert pour les solutions d'IA. Parce qu'ils peuvent d'une certaine manière porter leur attention sur les points clés et ensuite voir si tout est toujours correct ou non. Et c'est très difficile de comprendre comment cela se passe et comment cela arrive.
C'est un très bon point. Je suis d'accord avec vous. Une définition de l'intelligence est la capacité à porter l'attention sur des caractéristiques saillantes dans un environnement au bon moment. Si nous pouvions résoudre ce problème, nous résoudrions une hiérarchie imbriquée d'autres sous-problèmes qui sont réellement critiques pour le domaine. Clairement, c'est ce en quoi les humains sont incroyablement bons. Nous pouvons parcourir toute notre expérience et en extraire ce moment précis. C'est la magie actuelle de l'être humain. De nombreux domaines de recherche se concentrent sur ce problème appelé affectation de crédit temporel, comment attribuer de la valeur à un moment particulier efficace ou gratifiant que l'algorithme a connu dans le passé afin de le rappeler et de le reproduire au bon moment. Je pense que nous sommes encore loin de réussir cela, mais c'est un domaine de recherche active.
C'est un très bon point que vous soulevez ici. Donc vous diriez aussi que l'intelligence artificielle générale est probablement encore assez lointaine parce que nous n'avons pas encore de systèmes dotés de cette capacité, alors que les humains l'ont sans aucun doute.
Je pense que nous en sommes très loin. C'est un peu une distraction, le langage et le battage médiatique autour de l'IA générale. En pratique, il y aura tellement plus d'obstacles au déploiement de systèmes logiciels et d'outils d'IA pratiques plus ciblés au cours des cinq à dix prochaines années que cela va consommer la majorité de notre attention et de notre concentration en tant que domaine réglementaire, en tant que communauté d'ONG et d'activistes et évidemment en tant que communauté d'entreprises et de l'industrie aussi. Nous allons simplement nous concentrer là-dessus pour le moment, ce qui est très bien.
Déploiement et sécurité
Je vois. Revenons à ce point où vous disiez que nous devons comprendre les clients, nous devons penser au modèle commercial. Maintenant, disons que nous avons de bonnes solutions, que nous avons ce prototype et qu'il fonctionne bien. Vient maintenant cette transition critique. Bien sûr, nous l'avons testé et nous avons été dans le monde réel, mais vient maintenant ce déploiement réellement large. Et il n'est pas rare que des applications qui fonctionnaient extrêmement bien pendant leur développement échouent soudainement dans le monde réel. Avez-vous des conseils pour éviter ce problème ? Je ne sais même pas s'il y a un nom pour cela, mais il semble en mériter un.
Vous avez tout à fait raison. Il y a un nom pour cela : le problème de sous-spécification. En fait, un groupe de chercheurs, dont certains étaient chez Google, a publié un excellent article il y a quelques mois. C'est exactement ce que vous décrivez, à savoir que malgré d'importantes quantités de tests dans des environnements simulés, il est incroyablement difficile de reproduire la complexité du monde réel. Par définition, tout système que vous placez dans le monde réel va rencontrer des instances inédites auxquelles il doit répondre. Ce ne sont pas des systèmes déterministes basés sur l'heuristique. Nous nous sommes explicitement éloignés des règles logiques de type 'si-ceci-alors-cela'. Par définition, il y a une certaine stochasticité dans le modèle pour qu'il puisse faire face à la nouveauté. Très souvent, cette nouveauté semble être au-delà des limites du système d'entraînement et produira quelque chose qui s'avère indésirable dans l'environnement du monde réel. Je pense que c'est souvent parce qu'il est difficile pour les personnes qui entraînent ces systèmes d'imaginer ce genre de scénarios à l'avance. C'est une énorme complexité à absorber en tant qu'ingénieur ou concepteur. C'est la raison pour laquelle nous devons avoir des protocoles de test et d'entraînement beaucoup plus robustes au préalable. Tout le monde dans le domaine y travaille activement. En fait, le Partnership on AI il y a quelques semaines, qui est une collaboration interprofessionnelle d'ONG, vient de publier ce qu'ils ont appelé une base de données d'incidents d'IA, ce qui est selon moi une idée vraiment géniale, où ils encouragent les personnes ayant déployé des systèmes en conditions réelles à partager leurs expériences de systèmes ayant fait des erreurs pour apprendre des meilleures pratiques collectives. Je pense que c'est le genre de choses qui nous aideront à minimiser les effets indésirables et à essayer d'améliorer la précision et la stabilité au fil du temps.
J'ai l'impression que cela rejoint aussi ce que vous décriviez plus tôt quand vous disiez que l'intelligence signifie que je peux réellement porter mon attention sur quelque chose d'important à ce moment précis. Bien sûr, l'apprentissage profond repose sur toutes ces caractéristiques de bas niveau qu'il peut traiter si bien, mais bien sûr, il ne peut pas faire ce genre d'abstraction dont nous avons besoin pour attirer réellement l'attention sur ce qui est une caractéristique clé ici. C'est pourquoi nous voyons probablement aussi ces problèmes et cela signifie aussi que nous devons inventer des techniques assez différentes pour améliorer la technologie. Plus de données et plus de tests ne changeront pas fondamentalement le problème. Cela peut aider à réduire ce problème, mais cela ne peut pas le résoudre fondamentalement. Je voulais aussi vous demander quand vous avez parlé d'apprentissage profond, et pour beaucoup de gens l'IA c'est l'apprentissage profond en ce moment. Vous avez dit aussi qu'il faut connaître son utilisateur. Soyez votre premier utilisateur. Par exemple, si vous n'aimez pas utiliser votre propre technologie, alors personne d'autre ne l'aimera probablement. Mais comprendre le domaine, comprendre les scénarios d'utilisation, les processus et ainsi de suite est très important. Peut-être juste une question provocatrice. Pouvez-vous imaginer une application spécifique où l'apprentissage profond pourrait ne pas être la meilleure technologie possible ?
Est-il vraiment difficile de reconnaître quand quelque chose arrive qui vous surprend ? Je pense que cela rejoint aussi joliment ce dont nous avons discuté parce que pour nous maintenant nous sommes surpris, mais les systèmes d'IA ne peuvent pas être surpris.
C'est un très bon point et c'est pourquoi les systèmes de sécurité nécessitent de nombreux contrôles et équilibres. Si vous regardez l'histoire d'autres domaines qui ont mis en œuvre la sécurité dans leur déploiement, qu'il s'agisse de réacteurs nucléaires, d'avions ou de l'armée, la redondance est critique et une série de contrôles et de barrières logiques est réellement la manière dont vous protégez et réduisez le nombre de résultats indésirables possibles. Je pense que ce que nous commencerons à voir, c'est que le régime de sécurité entourant le déploiement de l'IA dans des environnements à enjeux élevés aura une couche supplémentaire de logique et d'heuristiques métier imposées par l'humain. Par exemple, aucune recommandation au-delà d'une limite spécifique ou dès que plus de recommandations ou d'exemples d'entraînement sont consommés que nécessaire, alors on arrête le système. Il y a toutes sortes de limites que l'on peut poser pour contraindre l'agence d'un système. Je pense que c'est probablement ainsi que nous commencerons à contourner le problème car il ne me semble pas clair que celles-ci puissent être intégrées dans le moteur de prédiction sous-jacent dès le départ puisque, par définition, elles seront surprenantes et donc ce sera un effet après-coup dans lequel nous devrons devenir bien meilleurs. Jusqu'à présent, ce n'est tout simplement pas le cas, franchement, parce que nous n'avons pas vu beaucoup de déploiements d'IA à enjeux élevés ; les voitures autonomes, par exemple, commencent tout juste à émerger, dans la santé nous en sommes aux tout premiers stades du domaine et ainsi de suite. Nous commençons maintenant à mettre en place ce genre d'implémentations de sécurité.
Questions et innovation ouverte
Bien sûr, mais dans l'industrie nous voyons des applications, bien qu'il y ait généralement un système de contrôle multicouche. Le système d'IA, par exemple, peut contrôler des ascenseurs ou calculer quelque chose, mais il y a un système de sécurité supplémentaire et nous sommes aussi dans un environnement plus technique où nous maîtrisons la complexité. Laissez-moi voir, il y a encore quelques questions, je vais peut-être en prendre quelques-unes dans la liste. Il y a une question sur l'innovation ouverte. Google soutient-il les entrepreneurs qui ont une idée et peuvent-ils demander un financement à Google ?
Oui. Google propose de nombreux programmes pour l'écosystème des startups, pour les entrepreneurs, et particulièrement autour de Google Cloud, par exemple, il y a beaucoup d'ateliers et de cours de formation en libre accès. Il y a beaucoup de choses à explorer. Je recommanderais d'aller sur le site Web ; il y a plein de programmes de formation et de programmes de soutien au mentorat.
Pouvez-vous peut-être nous indiquer comment les gens peuvent trouver le site Web ?
Je vous enverrai un lien. Je ne l'ai pas en tête, mais je vous enverrai un lien que vous pourrez partager avec les gens.
L'Institut Aspen pourra le distribuer aux participants. Il y a une question qui revient en fait à notre discussion sur l'intelligence artificielle générale. Je ne sais pas si vous connaissez OpenCog, le système développé par Ben Goertzel. Voulez-vous faire un commentaire à ce sujet ?
Je connais Ben Goertzel et il a lancé OpenCog peut-être en 2008 ou 2009. C'est un chercheur extrêmement talentueux. Il travaille d'arrache-pied là-dessus depuis de nombreuses années, je crois avec son père Ted Goertzel également, et il a une petite équipe. C'est du bon travail. Cela n'a pas encore tout à fait concrétisé la grande vision, mais plus il y a d'efforts, mieux c'est. Je pense que c'est génial et, en tant que théoricien sur le futur de l'AGI, Ben Goertzel a apporté d'énormes contributions au domaine. Il vaut donc vraiment la peine de lire ses travaux si vous vous intéressez à l'AGI.
L'IA et l'avenir de l'humanité
Merci. Il y a un joli proverbe qui dit : d'abord nous façonnons nos outils, puis nos outils nous façonnent. Si vous réfléchissez à cela et à l'avenir de l'IA, que voulez-vous qu'elle fasse et où devrait-elle façonner les humains ?
C'est tout à fait exact. L'une des choses que j'ai essayé de faire avec force au fil des années où j'ai été impliqué dans ce domaine, c'est de recentrer le cadre de l'IA vers celui d'outils que nous concevons et que nous contrôlons. Nous, en tant qu'humains, les concevons collectivement. La question est de savoir qui participe aux valeurs qui sont imprégnées dans ce processus de conception ? Les questions de garantie de représentativité et d'inclusion deviennent centrales. Comme nous le voyons depuis trois ou quatre ans ou plus, alors que nous devenons tous des natifs du numérique, utilisant nos téléphones portables tout le temps et étant si à l'aise avec les technologies, elles changent notre façon d'entrer en relation les uns avec les autres et notre façon de nous voir nous-mêmes. Mon instinct est que nous devons être accueillants et optimistes quant à la manière dont ces outils nous façonnent et ne pas avoir peur. Avoir peur, c'est nier la réalité d'un immense assaut de changements. Mais en même temps, nous ne devrions pas être naïfs ou banaliser les conséquences. Ces outils changent fondamentalement notre capacité d'attention ou de concentration. Dans certains cas, ils font explicitement appel à notre réactivité dans la façon dont nous aimons les choses ou partageons les choses ou avons un penchant pour le contenu court et percutant. Nous devons y être très sensibles et, en ce sens, je pense qu'il est important que nous considérions sincèrement le principe de précaution dans cet arbitrage où il est très difficile d'évaluer les préjudices futurs et les bénéfices futurs. Nous devrions avancer avec prudence car les préjudices futurs potentiels ne deviennent clairs qu'après coup et parfois il peut être trop tard. Au cours des prochaines décennies, nous allons devoir réfléchir très attentivement à cet équilibre car ces outils nous façonnent bel et bien.
Plus la technologie devient puissante, plus l'impact est puissant et nous voulons nous assurer qu'il soit positif. Sur ce, nous sommes presque à la fin. Je tiens à vous remercier infiniment pour toutes ces réflexions vraiment intéressantes et vous avez aussi envoyé le lien. Je peux simplement le lire. C'est très simple : startup.google.com. Tout le monde est donc invité à y jeter un œil et j'aimerais redonner la parole aux organisateurs pour qu'ils se joignent à nous d'une manière ou d'une autre et nous disent ce que nous faisons ensuite ou pour clore la discussion.
Merci beaucoup, Professeure Koehler. C'était un vrai plaisir. J'ai aimé discuter avec vous.
Moi aussi. Merci beaucoup pour votre temps et je vous souhaite une excellente réussite dans vos prochaines entreprises. J'ai hâte d'entendre parler de ces futurs articles et recherches à fort impact de Google et des applications géniales que nous utilisons et aimons tous.
Merci beaucoup. Merci mille fois.
Merci.
Conclusion de la conférence
Professeure Koehler et Mustafa Suleyman, merci infiniment pour cet échange fascinant. Je ne peux imaginer une meilleure façon d'avoir terminé cette troisième journée de la conférence Aspen Berlin sur l'IA. Nous avons abordé tant de thèmes intéressants, en commençant par la présentation de la professeure Koehler ce matin sur l'application de l'intelligence artificielle dans différents contextes industriels, certains des défis liés à cela, puis en passant à une table ronde sur les startups, les grands acteurs et certains des défis entourant l'innovation ici en Allemagne, et maintenant, bien sûr, en terminant par cette conversation entre Jana Koehler du Centre de recherche allemand pour l'intelligence artificielle et Mustafa Suleyman, qui dirige l'IA chez Google. Merci donc encore à vous deux de vous être joints à nous. Nous avons deux autres jours de programme prévus pour vous demain, commençant comme d'habitude à 15h00, avec une présentation liminaire de David Autor, qui est professeur au MIT et dirige leurs travaux sur l'avenir du travail. Assurez-vous donc d'être à l'écoute. Ensuite, nous aurons une table ronde sur la présidence allemande du Conseil de l'UE et la quête de l'Europe pour la souveraineté numérique, et nous clôturerons demain par une autre conversation en tête-à-tête avec Gunther Oettinger, l'ancien commissaire européen à l'économie et à la société numériques et également ancien ministre-président du Bade-Wurtemberg. Merci beaucoup de nous avoir suivis et nous avons hâte de vous retrouver tous demain après-midi.