Les enjeux éthiques et sociaux de l'intelligence artificielle
31 octobre 2018
Intelligence Artificielle
Impact sur l'emploi et filet de sécurité sociale
et arriver à la retraite. Il y aura donc beaucoup de personnes d'âge moyen qui vont perdre leur emploi et je pense que cela pourrait être très dangereux pour la démocratie, car nous voyons déjà certaines de ces choses se produire avec l'automatisation. Et bien sûr, nous voulons minimiser ce genre de misère. Je pense donc que les gouvernements ont la responsabilité d'anticiper ces changements et d'introduire peut-être des programmes de reconversion et des modifications du filet de sécurité sociale. Je suis un partisan du revenu de base universel, par exemple, pour essayer de tempérer ces changements et maintenir la société en bon état.
Surveillance de masse et vie privée
D'accord, c'est pour le travail, mais il y a beaucoup d'autres questions qui surgissent à mesure que la puissance de cette technologie devient plus claire. Et un domaine dont j'ai aussi pas mal parlé est celui des applications militaires et de sécurité. Je vous ai montré ces visages que l'ordinateur peut reconnaître ou synthétiser et, avec ce genre de technologie, on peut traquer les gens n'importe où, fondamentalement, si on a assez de caméras. Et il existe aujourd'hui des bases de données contenant des centaines de millions de visages de personnes que les ordinateurs peuvent reconnaître à partir d'un seul cliché. En Chine, à l'heure actuelle, plus de 100 millions de caméras sont installées dans les rues et ce n'est qu'un début. On voit donc comment cette technologie pourrait être utilisée pour suivre où sont les gens, ce qu'ils font, et cela pourrait être utilisé pour le bien, bien sûr, mais cela pourrait aussi être utilisé pour contrôler une population et permettre à des régimes autoritaires de rester en place. Donc, en gros, le genre de scénario Big Brother qui relevait de la science-fiction il y a quelques années pourrait devenir une réalité si nous ne faisons pas attention aux questions de vie privée et aux applications que nous jugeons acceptables ou non.
Armes létales autonomes (Robots tueurs)
Et parmi les applications qui ne sont pas acceptables pour moi figurent ces fameux robots tueurs, ce qui signifie simplement des armes capables de tuer un être humain sans qu'un autre être humain ne soit impliqué dans la boucle de décision. Donc tuer des gens automatiquement, essentiellement, et c'est déjà quelque chose sur lequel travaillent les organisations militaires et je ne vois aucun obstacle scientifique à la construction de ces engins. Nous avons des drones qui peuvent déjà tuer, sur lesquels des armes sont installées ; actuellement, ils sont télécommandés, mais à l'avenir, avec le genre de technologie de reconnaissance faciale et de détection de personnes qui existe déjà, on pourra utiliser ces drones pour cibler des individus et l'on pourrait imaginer que tout l'équilibre sécuritaire de la planète soit bouleversé par ce type de technologie. Ce que nous pouvons faire pour cela, c'est faire pression sur nos gouvernements à travers le monde et ici au Canada, je l'ai fait auprès du gouvernement canadien pour que les différents gouvernements du monde s'accordent sur des traités internationaux similaires, par exemple, aux traités que nous avons déjà pour les armes nucléaires et pour les mines antipersonnel afin de limiter les types d'utilisations que cette technologie peut avoir et d'éviter ce genre d'armes létales autonomes.
Publicité et manipulation politique
Il y a aussi d'autres problèmes, comme la façon dont la technologie pourrait être utilisée dans la publicité. Ainsi, lorsque vous utilisez l'apprentissage automatique pour la publicité, qui est bien sûr l'une des plus grandes sources de revenus pour des entreprises comme Google et Facebook, cela peut sembler un peu anodin, du genre qui se soucie si j'achète du Pepsi ou du Coca, mais cela pourrait aussi être utilisé d'une manière qui va à l'encontre de mes intérêts ou de l'intérêt de la planète. Cela pourrait être utilisé par exemple dans la publicité politique et je pense que nous devons encore une fois faire très attention à ce genre d'utilisations.
Biais algorithmiques et discrimination
Un autre problème dont les gens parlent est que, parce que les systèmes que nous construisons sont entraînés sur des données issues du comportement humain, ils ont très souvent tendance à reproduire les préjugés et les discriminations que les gens ont, et c'est une chose dont nous devons être conscients et que nous devons essayer de limiter. Très bien, je vais m'arrêter ici et vous remercier de votre attention.