Les dangers de la superintelligence et la théorie de la simulation
5 septembre 2025
Technologie et IA
La faisabilité de la sécurité de l'IA
Vous travaillez sur la sécurité de l'IA depuis au moins deux décennies.
J'étais convaincu que nous pouvions créer une IA sûre, mais plus je me penchais sur la question, plus je réalisais que ce n'est pas quelque chose que nous pouvons réellement faire.
Prédictions pour 2027 et chômage de masse
Vous avez fait une série de prédictions sur une variété de dates différentes. Quelle est votre prédiction pour 2027 ?
Dans deux ans, la capacité de remplacer la plupart des humains dans la plupart des professions arrivera très rapidement. Dans cinq ans, nous envisageons un monde où nous aurons des niveaux de chômage jamais vus auparavant. Je ne parle pas de 10 %, mais de 99 %. Et cela sans superintelligence. Un système plus intelligent que tous les humains dans tous les domaines. Il serait meilleur que nous pour créer de nouvelles IA. C'est pire que ça. Nous ne savons pas comment les rendre sûres, et pourtant, les personnes les plus intelligentes au monde continuent de concourir pour gagner la course à la superintelligence.
Critique de l'industrie et de Sam Altman
Que pensez-vous du parcours de personnes comme Sam Altman avec l'IA ?
Il y a dix ans, nous avons publié des garde-fous sur la manière de bien concevoir l'IA. Ils les ont tous violés. Il parie 8 milliards de vies pour devenir plus riche et plus puissant. Je suppose que certains veulent aller sur Mars, d'autres veulent contrôler l'univers. Peu importe qui la construit. Au moment où vous passez à la superintelligence, nous le regretterons très probablement terriblement.
Horizon 2045 et Théorie de la Simulation
D'ici 2045 ?
C'est là que ça devient intéressant.
Dr Roman Yampolskiy. Parlons de la théorie de la simulation.
Je pense que nous en sommes dans une. Il y a un large consensus à ce sujet. Voici ce que vous devriez y faire pour qu'ils ne l'arrêtent pas. Premièrement.