Les réponses à la Chambre Chinoise

Salut les internautes. Ce billet fait suite à mon billet sur la chambre chinoise, un argument de Searle dirigé contre la possibilité de faire une entité qui comprenne son environnement à partir d’un ordinateur, tout du moins un ordinateur tel que nous le concevons aujourd’hui, ainsi que contre la validité du test de Turing.

La réponse du système

La première réponse que Searle répertorie est la réponse du système. Cette réponse prétend que le fait que Searle-dans-la chambre ne comprend pas le chinois ne signifie aucunement qu’aucune compréhension n’est créée. Il faut voir le système comme un tout, et ce système, dans son ensemble comprend la question et y répond. Searle n’est à l’expérience de pensée que ce que le processeur est à un ordinateur. Il ne s’agit pas de l’ordinateur dans son ensemble, mais d’une partie de l’ordinateur qui en effet est peut-être pas capable d’interpréter ce qui est envoyé à l’ordinateur. Mais ce dernier, dans son ensemble (c’est-à-dire avec sa mémoire et ses différents composants) a une compréhension du problème.

La réponse de Searle à ce contre-argument est la suivante: faisons l’hypothèse que Searle-dans-la-chambre internalise toutes les fonctions de la chambre, les instructions et les données. Il pourrait alors même être capable de discuter directement avec un chinois sans que celui-ci n’ait le moindre doute sur le fait que Searle-dans-la-chambre comprend le chinois. Il n’en reste pas moins qu’en réalité, Searle-dans-la-chambre ne comprend pas les questions de son interlocuteur. En définitive, aucune sémantique n’est créée et l’argument reste valide.

La réponse du robot

L’un des problèmes de la chambre chinoise est l’incapacité de Searle-dans-la-chambre à voir ce qui se trouve en-dehors de la chambre. En somme, la réponse du robot est la suivante: si Searle-dans-la-chambre a la possibilité de voir ce qui se trouve en-dehors de la chambre, il sera capable d’associer la syntaxe à la sémantique de ce qui se trouve à l’extérieur de la chambre et pourra ainsi comprendre les symboles qu’il manipule.

La réponse de Searle à cet argument est la suivante: le fait d’ajouter des perceptions sensorielles au robot ne changeront pas le fait que les robots seront incapables de comprendre son environnement. En effet, pour lui, les perceptions sensorielles ne sont finalement que d’autres symboles (un peu différents certes), qui ne seront pas interprétables sur un plan sémantique, mais toujours d’un point de vue strictement syntaxique.

La réponse du cerveau artificiel

Cette réponse propose de construire un cerveau artificiel en s’appuyant sur la structure réelle d’un cerveau Ce cerveau serait alors capable de simuler le comportement réel d’un cerveau et de comprendre ce qu’on lui dit.

Searle a beaucoup réfléchi au problème de la simulation, mais voici la réponse qu’il apporte dans l’article: imaginons que nous dotions la salle d’un système (mécanique) qui permette de simuler parfaitement le fonctionnement d’un cerveau. Searle-dans-la-chambre actionne ce système afin de répondre aux questions. Il n’en est pas moins vrai que Searle-dans-la-chambre ne comprend pas les symboles qui lui parviennent.

La réponse combinée

Cette réponse consiste simplement à combiner celles qui sont données ci-dessus. Ainsi, un robot dans son ensemble, doté d’un cerveau artificiel serait capable de comprendre les symboles qui lui proviennent. Cet argument est très intéressant. En effet, s’il peut paraître faible, on a dans la réponse de la combinaison des arguments précédents une machine ayant des fonctionnalités identiques à celle de l’être humain: il s’agit d’une machine dotée de sens, d’un cerveau identique à celui de l’homme et vu comme un ensemble, et non seulement comme un cerveau. Comment alors ne pas lui attribuer la capacité de penser ?

Searle répond à cet argument de la manière suivant: on peut attribuer à une telle machine la capacité de penser, mais uniquement tant que son fonctionnement est inconnu. En effet, son comportement, sans doute identique en tout point à celui d’un être humain, ne reflète pas une véritable réflexion, mais un comportement identique à la réflexion. Searle rejette une fois de plus complètement l’argument comportementaliste: le fait qu’un être agisse comme s’il comprenait ne signifie en aucun cas qu’il comprend effectivement.

La réponse de l’autre esprit

Cette réponse demande finalement à Searle de suspendre son jugement quant à la possibilité de compréhension de la machine. Finalement, comment savons-nous que les autres humains sont capables de comprendre ce que nous disons ? Nous ne pouvons pas le savoir. Nous ne faisons que le présupposer. Ne serait-il pas alors juste de considérer que les machines pensent si elles ont les mêmes capacités comportementales que les humains ? Leur compréhension ne fonctionne peut-être pas de manière similaire à la notre, mais il ne faut pas pour autant supposer qu’elle n’existe pas.

La réponse de Searle à cet argument est expéditive. Searle explique qu’il prête des intentions aux autres humains parce qu’ils sont dotés d’états mentaux, ce qui n’est pas le cas des ordinateurs.

La réponse des multiples possibles

Cette réponse, la dernière, consiste à accuser Searle de ne prendre en compte que les machines telles qu’elles existent aujourd’hui?. Cela ne prouve pas qu’il soit impossible, sous d’autres paradigmes, de créer une Intelligence Artificielle forte.

Comme je l’indiquai dans mon billet sur la chambre chinoise, Searle ne répond pas à cet argument par une réfutation, mais au contraire, il pense qu’il est possible de construire une telle machine. S’il est impossible pour une machine qui manipule des programmes de créer de la compréhension, mais cela est possible pour une machine qui fonctionne à la manière d’un humain.

Conclusion

Je vais m’arrêter ici pour ce billet, mais il existe une littérature très fournie sur le sujet. De très nombreux contre-arguments à la chambre chinoise ont été imaginés, notamment Computers models of mind: Computational approaches in theoretical psychology, de Margaret Boden, et la validité du raisonnement est encore discutée. Je conclurai ainsi: l’aperçu que je donne ici n’est qu’un résumé, qui laisse de côté bien des aspects de l’article. Si les thèmes qui sont abordés dans ce billet vous intéresse, je vous recommande de lire l’article original de Searle, ainsi que l’excellente entrée de la Stanford Encyclopedia of Philosophy sur la Chinese Room. Je reviendrai bientôt pour vous présenter un concept qui est à l’origine de nombreux concepts en IA, le neurone formel de Mc Culloch et Pitt. D’ici-là, renseignez-vous, réfléchissez et surtout, n’oubliez pas de rêver.

Bibliographie

Leibniz, Monadologie, 1714 (1840 pour la version française) Erdman (ed.) 

Alan M. Turing, « Computing machinery and intelligence. » Mind 59.236 (1950): 433-460.

John R. Searle, « Minds, brains, and programs. » Behavioral and brain sciences 3.03 (1980): 417-424.

Margaret A. Boden, Computer models of mind: Computational approaches in theoretical psychology. Cambridge University Press, 1988.

Cole, David, “The Chinese Room Argument”, The Stanford Encyclopedia of Philosophy (Winter 2015 Edition), Edward N. Zalta (ed.)

Cédric Buron

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *