L'intelligence artificielle et la conscience : une perspective mathématique
19 avril 2025
Science & Philosophie
Définition de l'IA et conscience
Eh bien, il faut être prudent. Tout d'abord, le nom est faux. Ce n'est pas de l'intelligence artificielle. Ce n'est pas de l'intelligence. L'intelligence impliquerait la conscience. Et j'ai toujours été un fervent défenseur de l'idée que ces dispositifs ne sont pas conscients. Et ils ne seront pas conscients à moins d'apporter d'autres idées. Ce sont toutes des notions calculables. Je pense que lorsque les gens utilisent le mot intelligence, ils veulent dire quelque chose qui est conscient. Je veux dire cela. J'ai développé mes propres idées après avoir suivi un cours. Quand j'étais étudiant de troisième cycle à Cambridge, j'ai suivi trois cours qui n'avaient rien à voir avec ce que j'étais censé faire. L'un était celui de Bondi sur la relativité générale, l'autre celui de Dirac sur la mécanique quantique, le très distingué Paul Dirac. Et le troisième sujet portait sur la logique mathématique. Et j'ai appris l'existence des machines de Turing et la notion de calculabilité, et je savais ce que signifiait la calculabilité, et j'ai appris le théorème de Gödel. Et j'ai trouvé le théorème de Gödel stupéfiant parce qu'il vous disait qu'il y a des choses où la compréhension transcende l'utilisation. Laissez-moi formuler cela plus clairement. Ce que fait Gödel est très ingénieux. Ce qu'il fait, c'est produire une déclaration. Maintenant, supposez que vous essayiez de développer vos méthodes mathématiques de preuve. Que voulez-vous dire par prouver un théorème en mathématiques ? Comment savez-vous qu'il est vraiment vrai ? Eh bien, vous le prouvez. Que signifie une preuve ? Cela signifie-t-il que vous avez un ensemble de règles, et que si vous suivez ces règles, cela constitue une preuve ? Maintenant, comment savez-vous que ces règles ne vous donnent que des vérités ? Eh bien, vous les avez examinées attentivement et vous dites : 'oh oui, c'est bon'.
Mais peut-être que l'IA crée ses propres règles.
Le théorème de Gödel et la calculabilité
Non, il faut être prudent à ce sujet. C'était un homme nommé Steen, qui était logicien. Et j'ai appris de lui cette chose importante sur le théorème de Gödel. Or, le théorème de Gödel est extrêmement ingénieux. Vous faites une déclaration qui affirme qu'elle ne peut pas être prouvée par ces règles. L'astuce consiste à lui faire faire cela. Il dit, vous donnez vos règles, que vous considérez comme les règles de preuve, et vous pourriez les mettre sur un ordinateur. Cela signifie donc que ce sont des règles de calcul. Or, je savais qu'il y avait des choses que l'on ne peut pas mettre sur un ordinateur. J'ai appris de ce cours qu'il existe des choses non calculables. Il y a des choses en mathématiques qui ne sont pas calculables. Maintenant, que signifie calculable ? Cela signifie que vous pouvez définir ce qu'est un ordinateur. Et Turing avait une définition de l'ordinateur. Il y en avait plusieurs autres — Church et Curry, d'autres personnes avaient leurs définitions — elles se sont toutes avérées équivalentes. Il existe donc une notion universelle de calculabilité, qui est ce que l'on entend par ce qui peut être fait par un ordinateur.
Mais c'est peut-être seulement un problème de langage.
La logique du théorème de Gödel
Ce n'est pas un problème de langage. Vous créez votre propre langage. Bien sûr, vous pouvez le faire. Laissez-moi maintenant décrire comment fonctionne le théorème de Gödel. Le théorème de Gödel dit que vous construisez une déclaration qui dit — par la façon dont vous avez construit la phrase, vous pouvez voir ce qu'elle signifie. Et ce qu'elle signifie est 'Je ne suis pas prouvable par ces règles'. Et elle dit vraiment cela. Ensuite, vous voyez, est-elle peut-être prouvable par les règles ? Si elle est prouvable par les règles, alors elle doit être vraie. Supposez qu'elle soit fausse. Alors cela signifie qu'elle est prouvable par les règles. Et si elle est prouvable par les règles, vous avez compris les règles ; vous les avez toutes examinées et vous avez dit : 'si vous suivez ces règles, c'est vrai'. Donc cela signifie que vous croyez que les règles ne donnent que des vérités. Par conséquent, il est vrai qu'elle n'est pas prouvable par les règles. Si elle est fausse, alors elle est prouvable par les règles et donc elle est vraie. Elle doit donc être vraie et non prouvable par les règles. J'ai trouvé cela incroyable.
Mais je ne comprends toujours pas pourquoi l'IA ne peut pas créer ses propres règles.
Compréhension vs Règles
Parce qu'elle ne sait pas qu'elles sont vraies. C'est tout l'intérêt du théorème de Gödel. Tout l'intérêt, en ce qui me concerne, du théorème de Gödel est comment transcender les règles ? C'est ce que l'on fait en les comprenant. On comprend pourquoi elles sont vraies. Ce n'est pas que l'on utilise les règles, mais que l'on comprend pourquoi l'utilisation des règles ne donne que des vérités. Et c'est ainsi que l'on peut prouver des choses qui vont au-delà des règles en sachant pourquoi elles sont vraies. Or, savoir pourquoi elles sont vraies — qu'est-ce que cela signifie ? Cela signifie qu'on les comprend. Que signifie comprendre ? Il faut en être conscient. La formulation est claire. Cela signifie que vous devez savoir ce que vous faites. Vous devez savoir pourquoi elles sont vraies, pas seulement qu'elles sont vraies. On pourrait vous dire qu'elles sont vraies ; vous apprenez à l'école qu'elles sont vraies. Ce n'est pas la question. Vous devez savoir pourquoi elles sont vraies. Savoir pourquoi elles sont vraies nécessite de les comprendre. Et les comprendre nécessite d'en être conscient. Le point que je soulignais est que la conscience vous permet de transcender les règles. Vous voyez pourquoi elles sont vraies, et cela va au-delà. Ce que fait le théorème de Gödel, c'est de vous dire comment utiliser votre compréhension de la raison pour laquelle les règles sont vraies pour transcender les règles.
Vous pensez que l'IA est le simple outil ou la chose simple que nous pouvons utiliser dans un cas unique ?
La puissance de calcul et le test de Turing
No, c'est évidemment infini. Clairement, ce n'est pas la question. Le point est qu'elle ne sait pas ce qu'elle fait. C'est toujours vrai avec l'IA. Vous parlez à un objet d'IA, il ne sait pas ce qu'il fait. Il parle à partir d'expériences, si vous voulez. Les gens ont confondu l'histoire. Ils l'ont perdue dans la puissance de calcul. Le fait est que les ordinateurs sont devenus si puissants qu'ils ont perdu le fil de ce qu'ils font. Je pense que l'idée s'est perdue avec l'IA actuelle. Je pense que Turing n'était pas trop loin du compte. Il était un peu confus d'une certaine manière parce qu'on ne savait pas trop ce qu'il croyait. Mais il a appelé cette chose le test de Turing. Comment décidez-vous si une entité est consciente ou non ? Eh bien, vous avez une conversation avec elle. Vous lui parlez.
Peut-être que l'IA est une nouvelle sphère de l'existence humaine.
Limites de l'IA et compréhension
Non. Il lui manque quelque chose. C'est là le problème. Évidemment, elle a un rôle à jouer. Je ne vais pas dire le contraire. Clairement, elle a un rôle à jouer. Elle a un rôle, mais il ne faut pas se méprendre. Le fait qu'elle ait un rôle à jouer est lié à la puissance de calcul. Les ordinateurs sont devenus si puissants maintenant qu'ils peuvent faire des choses qui dépassent de loin ce que les humains font en matière de calcul. Et vous pouvez prendre des données massives et analyser ces données et vous pouvez voir ce que les données disent et si cette chose est en accord avec les choses précédentes dans les données ou non. Et l'IA, c'est tout ce qu'elle fait. Elle ne comprend pas ce qu'elle fait. Et la compréhension est différente du calcul.