Sens commun et problème du cadre en intelligence artificielle

Salut les internautes. “Le bon sens est la chose du monde la mieux partagée”. Ainsi Descartes commence-t-il son Discours de la méthode. Descartes prétend d’ailleurs que ce bon sens est présent, en quantités égales, en chacun de nous. Mais qu’en est-il des robots, de l’intelligence artificielle ? Est-il possible de concevoir un robot doté de bon sens ? Ce problème, de nombreux chercheurs en Intelligence artificielle et philosophes se la sont posée, et se la posent encore. Parmi les problèmes qui se sont posés à eux s’en trouve un assez particulier et surprenant, que l’on appelle “Le problème du cadre”.

Le problème du cadre peut être abordé sous deux angles: en logique d’une part et en épistémologie d’autre part. En logique, le problème a été formalisé en prenant en compte le paradigme logique de l’Intelligence Artificielle (IA). L’article de McCarthy & Hayes paru en 1969, Some philosophical problems from the standpoint of artificial intelligence, le formalise. Le problème est le suivant: dans une IA de l’époque, la représentation du monde se fait à travers un certain nombre de prédicats. Par exemple sur(chien, tapis) = vrai signifie que le chien est sur le tapis. Un robot “intelligent” se verra assigner une tâche qu’il devra remplir (une tâche haut niveau, par exemple “nettoie cette table”, ce qui peut impliquer de déplacer les objets qui se trouvent dessus). Dès lors, il faut également représenter les actions et leurs conséquences. Pour ce faire, on va dire qu’immédiatement après une action, l’état d’un objet est changé. Par exemple, immédiatement après l’action déplacer(verre, cuisine), la valeur de présent(verre, séjour) est faux.

Mais il faut aussi déterminer tout ce qui n’a pas changé. Ainsi, il faut en quelque sorte préciser à la machine tout ce que fait et ce que ne fait pas l’action déplacer(verre, cuisine). Cela donne rapidement lieu à d’immenses bases de données qui, si elles sont stockable aujourd’hui pour des problèmes relativement simples, ne l’étaient pas à l’époque. De plus, afin de réaliser son plan pour nettoyer la table du séjour, le robot devra chercher parmi une immense liste de prédicats, ce qui rend l’établissement d’un plan très complexe. Le problème du cadre consiste à faire en sorte que l’ordinateur sache de façon intrinsèque qu’un certain nombre de variables du système ne sont pas changées par certaines actions. Ainsi, un humain n’a pas besoin de réfléchir pour savoir qu’après avoir amené le verre dans la cuisine, la lumière du séjour (qui était déjà allumée), ne se sera pas éteinte du fait de son déplacement. Cela relève pour nous du bon sens, de l’évidence, et non d’une réflexion particulière sur le plan que nous suivons, comme ce peut être le cas lors d’une partie d’échecs.

Ce problème, qui peut paraître trivial, ne l’est en fait pas du tout. Nous établissons au quotidien quantité de plans, qui se décomposent en actions qui se décomposent elles mêmes en actions plus élémentaires etc. Une action dans un plan peut avoir une conséquence sur une action subséquente, et nous avons parfois nous-mêmes du mal à établir de “bons plans” parce que nous oublions les conséquences de ces actions (se retrouver devant un magasin fermé, et rater son train font partie des conséquences fâcheuses de telles erreurs de planification). Indiquer à un robot ce qui sera modifié dans son environnement s’il applique un plan n’est pas facile, d’autant que cela dépendra parfois de son environnement. Ce problème a cependant été résolu au moyen de logiques particulières, qui permettent de représenter le principe d’inertie, c’est à dire que le fait qu’une action soit menée n’influe pas sur les variables du système autres que sur celles qui ont été précisées au préalable (voir par exemple.

Le problème du cadre épistémologique résulte de l’appropriation par un certain nombre de philosophes du problème du cadre logique. Il consiste à se demander les hypothèses à considérer lorsqu’une action est entreprise. En effet, il n’est pas nécessaire de calculer toutes les conséquences d’une action. En effet, certaines conséquences d’une action ne sont pas intéressantes du point de vue du but de notre robot. Ainsi, le fait qu’il reste une petite cuillère dans une tasse n’a pas d’incidence ni d’intérêt lorsqu’il s’agit de débarrasser la table et de la nettoyer. En revanche, lorsqu’il s’agira de servir le thé, cela aura une grande importance. Il a alors été répondu qu’il fallait pour éviter de considérer toutes les conséquences d’une action de choisir celles qui sont les plus pertinentes, mais cela ne fait que déplacer le problème, puisqu’il faut alors définir ce qui est pertinent, amenant à une régression à l’infini.

Le problème soulevé par le problème épistémologique est donc lui aussi dépendant de la situation dans laquelle se trouvera l’intelligence articficielle. Si le problème du cadre logique a été résolu, ce second problème n’a, lui, pas de véritable solution, et a remis en cause la conception qui était faite de l’esprit humain jusqu’alors. En effet, la conception d’un esprit central et capable de gérer toutes les situation ne semble pas pouvoir tenir: Dans ce cas, l’analyse des plans faits par les êtres humains devraient ressembler à l’analyse faite lors d’un jeu d’échec. Cela a ainsi mené Jerry Fodor à écrire sa théorie de  la modularité de l’esprit, La Modularité de l’esprit : essai sur la psychologie des facultés, selon laquelle l’esprit est en fait composé de modules qui eux-mêmes encapsulent d’autres modules et ainsi de suite. Ces modules seraient capables d’agir indépendamment et en parallèle.

J’espère que ce billet de philosophie de l’Intelligence artificielle vous aura intéressé. Dans tous les cas et d’ici le prochain, renseignez-vous, réfléchissez, et surtout, n’oubliez pas de rêver.

Bibliographie

Cédric Buron

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *