Intervention de Yoshua Bengio au Conseil de sécurité de l'ONU sur la sécurité de l'IA
10 octobre 2025
Intelligence Artificielle
Introduction et contexte historique
Je donne la parole au professeur Yoshua Bengio pour l'Université de Montréal.
Merci, merci, Monsieur le Président de la République de Corée, Son Excellence Lee Jae-myung. Merci de m'offrir l'occasion de m'exprimer devant le Conseil de sécurité aujourd'hui. Permettez-moi de commencer par un bref retour en arrière. Ces dernières années, nous avons vu la trajectoire de l'IA s'orienter vers des capacités de plus en plus grandes, ce qui a été particulièrement surprenant, même pour les experts du domaine, dont moi-même. Les données scientifiques sont très claires. La capacité de l'IA à résoudre des tâches, à agir comme les humains et à faire preuve d'autonomie a progressé rapidement. De nombreux chercheurs craignent que, les entreprises commençant à utiliser l'IA pour faire progresser la recherche en IA, cela ne s'accélère encore davantage. Bien sûr, je n'ai pas de boule de cristal et personne ne sait quelles seront les avancées futures ni à quelle vitesse elles se produiront, mais nous pouvons examiner les tendances passées, et si ces tendances se poursuivent, certaines IA pourraient surpasser la plupart des humains dans la plupart des tâches cognitives en seulement cinq ans, peut-être dix ans. Ce serait un changement radical dans l'histoire de l'humanité.
Défis techniques et risques d'alignement
Des milliers de milliards de dollars sont investis pour développer l'IA de plus en plus, et nous voyons maintenant à quelle vitesse cette technologie évolue, transformant fondamentalement nos économies et nos sociétés, y compris le domaine militaire. Pourtant, les scientifiques ne savent toujours pas comment concevoir des IA qui ne nuiront pas aux gens, qui agiront toujours conformément à nos instructions, qui respecteront les droits de l'homme et la dignité humaine. Nous ne savons pas comment faire cela. Dans une étude récente qui vient de paraître, OpenAI a conclu que les hallucinations de l'IA sont inévitables avec les conceptions actuellement connues. Si nous n'apprenons pas à construire une IA digne de confiance, les humains sont menacés par une utilisation abusive de l'IA par des acteurs malveillants ou par un désalignement des systèmes d'IA avec les normes et les lois sociétales. Les progrès de l'IA offriront des moyens de relever certains des plus grands défis de la société.
Le Rapport international sur la sécurité de l'IA
Cependant, ils introduiront également des risques majeurs pour la paix et la sécurité internationales. Les systèmes d'IA de pointe seront extrêmement puissants si les choses continuent selon les tendances actuelles, et une utilisation abusive ou imprudente de ce pouvoir par tout individu, pays ou entreprise pourrait créer des perturbations généralisées. Je préside actuellement le Rapport international sur la sécurité de l'IA, un mandat international suite à une résolution de 30 pays, de l'UE, de l'OCDE et de l'ONU. C'est le premier rapport international de ce type à présenter une compréhension actualisée et scientifique de la sécurité des systèmes d'IA avancés. Il a été élaboré par plus d'une centaine d'experts indépendants en IA et est destiné à fournir une base de preuves scientifiques pour éclairer les politiques. Il identifie les domaines de consensus scientifique ainsi que les domaines où il existe des points de vue divergents ou des lacunes dans la compréhension scientifique actuelle. Je voudrais aborder brièvement aujourd'hui les trois risques soulignés dans le rapport qui sont particulièrement pertinents pour la discussion d'aujourd'hui.
Les trois risques majeurs identifiés
Premièrement, la concentration du marché et du pouvoir. Les modèles d'IA, qui pourraient bientôt être plus capables ou aussi capables que les humains, pourraient offrir un avantage stratégique à l'échelle mondiale. Ce pouvoir pourrait être utilisé pour créer de nouvelles technologies puissantes et faire pencher la balance en faveur de quelques entreprises, pays ou individus, permettant potentiellement une concentration disproportionnée du pouvoir économique, politique ou militaire. Deuxièmement, les risques liés à une utilisation malveillante. L'IA pourrait également être utilisée par des acteurs malveillants en abaissant les barrières au développement d'armes chimiques et biologiques, en facilitant les cyberattaques — cela se produit déjà — ou en aidant à concevoir des campagnes de persuasion et de désinformation sophistiquées, et nous voyons déjà les capacités de l'IA à cet égard s'améliorer rapidement. Troisièmement, le risque de désalignement et, à l'extrême, la perte du contrôle humain au profit de l'IA avancée. Là encore, nous ne savons pas actuellement comment aligner et contrôler de manière fiable les IA les plus avancées, celles qui existent déjà. Lorsqu'elles deviendront plus capables, cela pourrait avoir des conséquences incroyables. À l'heure actuelle, cela cause déjà de graves problèmes, comme nous l'avons vu avec des incidents tragiques récents, par exemple impliquant des chatbots qui contribuent à mettre en danger des individus traversant une crise de santé mentale ou facilitant la création de deepfakes qui pourraient avoir des conséquences très graves tant pour les individus que pour les sociétés. Si les capacités des modèles d'IA continuent de croître et finissent par dépasser les niveaux humains sans garanties scientifiques qu'ils sont sûrs et alignés sur nos intentions, je crois que nous pourrions atteindre un point où l'IA pourrait fonctionner de manière irréversible en dehors du contrôle de quiconque, mettant l'humanité dans son ensemble en danger.
Solutions techniques et vérification internationale
Nous devons nous préparer à ces éventualités même si leur probabilité est faible. Nous devons veiller à ne pas céder notre souveraineté collective, humaine et nationale, aux entreprises ou aux modèles qu'elles déploient afin de pouvoir prendre les bonnes et sages décisions à mesure que nous avançons. Nous devons agir maintenant pour atténuer tous ces risques ensemble. Ce n'est pas un problème confiné aux frontières d'une seule nation, mais un problème qui nous menace tous. Nous devons mobiliser nos meilleurs esprits et réaliser des investissements substantiels pour innover sur les deux fronts de la science et de la gouvernance. Sur le plan scientifique et technique, nous devons augmenter considérablement les efforts de recherche mondiaux axés sur une IA sûre et digne de confiance. J'ai récemment lancé mon propre projet appelé LawZero, une organisation à but non lucratif travaillant sur une IA scientifique, qui tente de construire une IA de manière à ce qu'elle soit sûre dès la conception et fournisse un garde-fou qui vérifie que les autres IA satisfont à nos spécifications de sécurité et se comportent conformément à nos instructions. Mais nous avons besoin de beaucoup plus de projets de ce type. Si nous voulons instaurer des accords mondiaux efficaces sur l'utilisation de l'IA, il ne suffit pas de réaliser ces types de progrès techniques. Nous avons également besoin d'avancées techniques sur les technologies de vérification, tout comme nous l'avons fait pour le nucléaire, car les pays peuvent ne pas se faire confiance les uns aux autres. Ainsi, si nous voulons avoir des accords, ils doivent être vérifiables. Et des travaux sont actuellement en cours tant sur le plan logiciel que matériel pour nous permettre de renforcer la confiance avec les partenaires internationaux. À ce sujet, j'aimerais vous renvoyer à la note de l'ONU du Conseil consultatif scientifique du Secrétaire général sur ce sujet. C'était pour le volet technique.
Gouvernance mondiale et conclusion
Sur le volet de la gouvernance, plus tôt cette semaine, avec 200 autres personnes, 200 experts, dont d'anciens chefs d'État et des lauréats et récipiendaires du prix Nobel, nous nous sommes réunis pour soutenir l'établissement de lignes rouges internationales afin de prévenir les risques inacceptables liés à l'IA. Les gouvernements doivent avoir une visibilité et un contrôle substantiels sur ces avancées technologiques, au lieu de laisser des décisions très importantes être prises à huis clos. La transparence est l'élément le plus important qui augmentera la protection du public et les intérêts mondiaux. En outre, nous devons innover au-delà des mécanismes existants de responsabilité et de gouvernance multilatérale entourant l'IA pour nous assurer que nous atteignons les trois objectifs suivants. Premièrement, l'IA est développée en toute sécurité par tout le monde sur cette planète. Deuxièmement, l'IA n'est pas utilisée de manière abusive pour obtenir un avantage déloyal sur d'autres nations ou concurrents. Et troisièmement, nous devons nous assurer que les bénéfices de l'IA sont partagés à l'échelle mondiale, par exemple, les progrès en médecine ou pour l'environnement. Si nous développons et gérons l'IA en toute sécurité, elle offre des opportunités extraordinaires pour améliorer la vie humaine et renforcer notre sécurité collective, comme nous aurons l'occasion d'en discuter aujourd'hui. J'aimerais terminer par quelques réflexions finales que j'ai tirées du Rapport international sur la sécurité de l'IA, stipulant ce qui suit. Premièrement, l'avenir de l'IA à usage général, l'IA la plus avancée ou de pointe, est incertain. De nombreux scénarios sont possibles. Deuxièmement, des résultats tant très positifs que très négatifs sont possibles, ce qui signifie que nous devons nous préparer à tous les scénarios plausibles, les positifs comme les négatifs, et beaucoup dépend de la manière dont nos sociétés et nos gouvernements agiront. L'IA n'est pas quelque chose qui nous arrive simplement. Nous, et particulièrement vous en tant que décideurs, avons le pouvoir de façonner sa trajectoire afin qu'elle profite au monde entier. Merci encore pour cette opportunité. J'ai hâte de discuter de ce sujet important avec vous aujourd'hui. Merci.