La chambre chinoise

Lors d’un autre billet, je vous parlais du protocole que Turing proposa en 1950 pour déterminer si une machine est capable de penser. En 198 John Searle, un philosophe, propose une expérience de pensée qui remet en question la validité du test de Turing. Elle s’attaque précisément à l’argument que Turing décrit lui-même comme le point faible de son argumentation, c’est à dire l’identification de la pensée à la réussite du test qu’il a présenté.

L’expérience

L’expérience s’inspire du moulin de Leibniz, un argument qui permet à ce dernier de se démarquer d’un déterminisme absolu en introduisant ce qu’il appelle la Monade1.

L’expérience est construit de la façon suivante: Searle s’imagine dans une pièce verrouillée sans aucun aperçu vers l’extérieur. Dans cette pièce se trouvent des instruction. Régulièrement, on lui apporte une question écrite en chinois et il doit y répondre. Searle n’a aucune connaissance du chinois, et contrairement aux autres langues européennes, le chinois n’a pas de lien avec l’anglais qui lui permette de comprendre. Il suit alors les instructions qui lui sont données afin de rédiger une réponse. Searle prétend que si les instructions sont suffisamment bien rédigées, alors il serait impossible de distinguer ses réponses de celles d’un sinophone. Pourtant, il sera incapable de comprendre ce qu’il écrit. Il n’a aucune compréhension de ce qui se trouve dans les messages, et un mot écrit en chinois n’aura aucune signification pour lui. Ce que prétend Searle, c’est que ce qui vaut pour lui dans la chambre chinoise vaut aussi (et surtout) pour un ordinateur. L’expérience de la chambre chinoise reprend la même mise en place que le test de Turing, mais avec le but de l’invalider. Si on admet d’une part que Searle-dans-la-chambre est effectivement capable de répondre aux questions et si l’on admet qu’il ne comprend pas les symboles qui sont manipulées (ou plus précisément comme nous le verrons par la suite qu’aucune compréhension n’est créée) alors, il semble inéluctable d’admettre que le test de Turing ne permet pas de déterminer si une machine est capable de penser ou non.

Sémantique, syntaxe et intentionnalité

Au delà de ces questionnements, Searle prétend qu’une machine dont le fonctionnement repose sur l’interprétation et l’exécution d’un programme est incapable de penser. Cela vient selon lui de l’impossibilité de construire une sémantique à partir d’une syntaxe. Selon Searle, le problème est le suivant: un ordinateur manipule des symboles, qui n’ont pour lui aucun sens (syntaxe), tout comme les caractères chinois n’ont pour Searle-dans-la-chambre aucun sens. La manipulation de ces symboles, sans aucune possibilité de leur attribuer un sens, c’est à dire une sémantique, est dans la totale incapacité de générer de la compréhension. Searle en arrive donc à la conclusion que les machines telles que construites aujourd’hui sont dans l’incapacité de penser, ou plutôt de comprendre ce qu’elles disent et font.

Searle ne prétend pas que les machines sont incapables de penser. Il se défend même d’avoir de telles pensées. En matérialiste, il prétend même que de telles machines existent: il s’agit de nos cerveaux. Ce qu’il pense impossible, c’est qu’une machine manipulant des symboles (une machine du type de celle inventée par Turing) soit capable de générer une compréhension des symboles qu’elle manipule.

Searle prétend également qu’une machine telle celle de Turing est incapable d’intentionnalité, c’est à dire de désirs ou d’intentions. Pour être plus précis, il admet que des machines soient dotés de tels propriétés mais prétend que ces désirs et intentions ne dont pas dotés eux-même d’intentionnalité originelle (qui serait finalement en quelque sorte une pulsion motrice). Cela, comme l’impossibilité de générer de la sémantique pour les ordinateurs, les rend incapables de penser ou de comprendre à la manière de l’être humain.

Notons que Searle n’exclut pas qu’une machine, y compris une machine artificielle, soit capable de penser. Mais elle devra pour cela être dotée d’états mentaux comme les humains en sont dotés. Cette machine serait l’équivalent d’un cerveau, et fonctionnerait à sa manière, de manière bio-chimique. En revanche, une machine instanciant un programme, fonctionnant à la manière d’une machine de Turing, est soumis aux limitations que nous avons évoquées plus haut, et est incapable de penser.

Les thèmes abordés par Searle dans son article sont donc multiples, mais tendent à deux fins. La première est de démontrer qu’une approche comportementaliste de la pensée n’est pas acceptable. La seconde est qu’une machine de Turing, un ordinateur, ne saurait comprendre les symboles qu’il interprète, ni être doté d’intentionnalité. Cet argument est extrêmement fort, et pas seulement parce qu’il remet en cause le comportementalisme et le test de Turing, mais parce que les théories sur l’esprit les plus récentes s’appuient sur un modèle du cerveau assez similaires à la manière dont est organisé un ordinateur. C’est sans doute l’une des raisons qui vont pousser de nombreux philosophes à se pencher sur la question et à répondre à Searle. Les discussions sur la chambre chinoises sont extrêmement nombreux et ont encore cours aujourd’hui.Nous allons donc nous concentrer sur ceux que Searle a recueillis lui-même avant la parution de son article, et auxquelles il a répondu dans ce même article.

Dans un prochain billet, je reviendrai sur les différentes réponses qui ont été faites à l’argument de la chambre chinoise. En tous cas, je présenterai celles que l’article traite, ainsi que les réponses que Searle y apporte. D’ici-là, renseignez-vous, réfléchissez et surtout n’oubliez pas de rêver.

Bibliographie

Leibniz, Monadologie, 1714 (1840 pour la version française) Erdman (ed.) 

Alan M. Turing, « Computing machinery and intelligence. » Mind 59.236 (1950): 433-460.

John R. Searle, « Minds, brains, and programs. » Behavioral and brain sciences 3.03 (1980): 417-424.

Margaret A. Boden, Computer models of mind: Computational approaches in theoretical psychology. Cambridge University Press, 1988.

Cole, David, “The Chinese Room Argument”, The Stanford Encyclopedia of Philosophy (Winter 2015 Edition), Edward N. Zalta (ed.)


  1. “On est obligé d’ailleurs de confesser que la Perception et ce qui en dépend est inexplicable par des raisons mécaniques, c’est-à-dire par les figures et par les mouvements. Et feignant qu’il y ait une Machine, dont la structure fasse penser, sentir, avoir perception, on pourra la concevoir agrandie en conservant les mêmes proportions, en sorte qu’on y puisse entrer comme dans un moulin. Et cela posé, on ne trouvera en la visitant au dedans que des pièces qui poussent les unes les autres, et jamais de quoi expliquer une perception. Ainsi c’est dans la substance simple et non dans le composé, ou dans la machine, qu’il le faut chercher.”
    Gottfried Wilhelm Leibniz
    Monadologie §17 

Cédric Buron

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *