L'IA et l'éthique militaire : Entretien avec Sam Altman
12 septembre 2025
Technologie et Éthique
Drones d'attaque et technologie létale
Allez-vous autoriser les gouvernements à utiliser votre technologie pour tuer des gens ? Le ferez-vous ?
Est-ce que nous allons construire des drones d'attaque tueurs ? Non.
Prise de décision militaire
La technologie fera-t-elle partie du processus de prise de décision qui aboutit à...
C'est ce que j'allais dire, je ne connais pas la façon dont les militaires utilisent ChatGPT aujourd'hui pour toutes sortes de conseils sur les décisions qu'ils prennent. Mais je soupçonne qu'il y a beaucoup de militaires qui s'adressent à ChatGPT pour obtenir des conseils.
Responsabilité morale et analogies
Certains de ces conseils porteront sur le fait de tuer des gens. Si vous fabriquiez des fusils, vous vous demanderiez à quoi ils servent. Il y a eu beaucoup de poursuites judiciaires sur la base de cette question, comme vous le savez, mais je ne parle même pas de cela. Je veux simplement dire, en tant que question morale, êtes-vous à l'aise avec l'idée que votre technologie soit utilisée pour tuer des gens ?
Si je fabriquais des fusils, je passerais beaucoup de temps à y réfléchir. L'objectif principal des fusils est de tuer des choses, des gens, des animaux, peu importe. Si je fabriquais des couteaux de cuisine, je comprendrais quand même que cela va tuer un certain nombre de personnes par an. Dans le cas de ChatGPT, la chose dont j'entends parler toute la journée, et c'est l'un des aspects les plus gratifiants de mon travail, ce sont toutes les vies qui ont été sauvées grâce à ChatGPT de diverses manières. Mais je suis tout à fait conscient du fait qu'il y a probablement des gens dans notre armée qui l'utilisent pour obtenir des conseils sur la façon de faire leur travail, et je ne sais pas exactement ce que je dois en penser.