Le Deal du moment : -39%
Pack Home Cinéma Magnat Monitor : Ampli DENON ...
Voir le deal
1190 €

La notion d'"intelligence artificielle" et le mystère de la chambre chinoise.

2 participants

Aller en bas

La notion d'"intelligence artificielle" et le mystère de la chambre chinoise. Empty La notion d'"intelligence artificielle" et le mystère de la chambre chinoise.

Message par Zhongguoren Jeu 8 Sep - 7:05

Tapez "Searle Turing" dans un moteur de recherche quelconque, vous obtiendrez, immanquablement, des articles relatifs au Chinese Room Argument. C'est que l'argument dit "de la Chambre Chinoise" recèle un parfum de mystère digne du Mystère de la Chambre Jaune dont la rigueur de l'exposition et du raisonnement ont été, à juste titre salués. Nous allons montrer que, contrairement au roman policier de Gaston Leroux, l'expérience de pensée de John Searle connue sous ce nom ressemble plutôt à une escroquerie intellectuelle.

Commençons par en retracer la genèse. Dans un célèbre article paru dans la revue Mind en octobre 1950 et intitulé Computing Machinery and Intelligence (https://academic.oup.com/mind/article/LIX/236/433/986238?login=false), Alan Turing suggère une expérience de pensée permettant de déterminer dans quelle mesure une machine peut être dite "intelligente" au sens humain du terme, autrement dit, dotée d'une sorte de "pensée" capable d'effectuer suffisamment d'opérations banalement humaines pour abuser l'observateur Lambda qui ne serait pas au courant de sa nature non-humaine, mécanique. Soit un jeu à trois "joueurs", deux étant humains, le troisième étant un ordinateur. Un observateur humain extérieur pose alors des questions ouvertes aux "joueurs". S'il est incapable de déceler, dans la teneur des réponses, lesquelles proviennent de la machine et lesquelles de l'homme, alors la machine sera réputée "intelligente". D'où la question : une telle expérience de pensée constitue-t-elle ou non un critère opérationnel d'attribution de l'"intelligence" à de l'"artificiel" ? On sait que, dans son article non-moins célèbre Minds, Brains and Programs (https://web-archive.southampton.ac.uk/cogprints.org/7150/1/10.1.1.83.5248.pdf), John Searle y a répondu négativement en 1980 au motif qu'une machine pourrait bien, à la limite, "mémoriser" par avance non seulement toutes les questions possibles mais aussi toutes les manières possibles d'y répondre. En ce sens, elle se comporterait comme quelqu'un qui ignore tout de la langue chinoise mais détiendrait un manuel d'instructions suffisamment complet pour faire face à toutes les situations langagières possibles dans cette langue. En conséquence de quoi, la machine pourrait, théoriquement, "berner" l'expérimentateur sans rien comprendre aux questions posées et donc sans faire le moins du monde preuve d'intelligence.

Il nous semble que l'on peut, préalablement à l'examen du chinese room argument searlien, élever deux objections sérieuses contre le "critère" de Turing :

1 - le domaine de définition de l'intelligence y est abusivement réduit

2 - ce soi-disant "critère" n'en est pas un, c'est plutôt un symptôme.


1 - Dans quelle mesure sommes-nous fondés à réduire le domaine de définition de l'intelligence à la seule compétence consistant à répondre normativement à des questions ouvertes ?

1 - 1 : pourquoi des questions "ouvertes" et non "fermées" ? On aurait tendance à dire spontanément que les questions "ouvertes" sont susceptibles d'un éventail de réponses bien plus large que les questions "fermées" auxquelles, par définition, on ne répond que par oui ou par non (éventuellement, par l'abstention). Or on suppose que plus large est l'éventail des réponses possibles, plus il est difficile de répondre, donc plus il faut faire preuve d'"intelligence" pour le faire. Il est réputé plus difficile et donc plus méritoire de répondre à la question "quelle est la date de l'assassinat d'Henri IV ?" qu'à la question "Henri IV est-il mort à la date t ?" car, en répondant au hasard (c'est-à-dire de manière supposée "inintelligente") à celle-ci, la probabilité est de 0,5 de dire vrai, ce qui incline à penser que le risque de se tromper en répondant à une question fermée est trop faible pour être discriminant. Voilà qui est très problématique pour cinq raisons au moins :

- premièrement, on présuppose que ce qui est vrai n'est pas faux et ce qui est faux n'est pas vrai, ce qui pose le problème de l'évidence d'un des principes logiques tout à la fois les plus intangibles et les plus contestables de l'histoire de la philosophie, à savoir, depuis Aristote et ses Réfutations Sophistiques, le principe dit de (non-)contradiction. Or les recherches menées dans le domaines de la logique formelle au XX° siècle ont montré que rien n'est moins évident que ce principe. Car il se peut très bien que, étant entendu qu'elles ne peuvent être simultanément vraies, deux contradictoires peuvent, en revanche, être simultanément fausses ou simultanément dépourvues de signification. En termes de logique formelle, nous dirons qu'il y a confusion entre principe de contradiction, principe de tiers-exclu et principe de bivalence (je ne m'étends pas ici sur cet aspect, très technique, du problème). Tout ça pour dire qu'on pourrait, tout au contraire de ce qui est présupposé dans l'argument turingien, considérer comme très "intelligent" de répondre à des questions "fermées" autrement que par oui ou par non, par exemple en répondant "oui et non", "ni-oui ni-non", "question dépourvue de sens" ou encore "oui à x  %, non à y  %"

- deuxièmement, même en négligeant le problème inhérent à la confusion sus-évoquée, il suffirait de faire tendre vers l'infini le nombre de questions "fermées" posées pour que tende vers 0 la probabilité d'y répondre correctement par simple hasard (probabilité de répondre "juste" à une seule question = 1/2 ; probabilité de  répondre "juste" à n questions = 1/2^n ; or 1/2^n tend vers 0 lorsque n tend vers l'infini) ; ce qui est le principe même des QCM en général

- troisièmement, si on augmente indéfiniment le nombre de questions posées, qu'elles soient "fermées" ou ouvertes, hasard ou pas, au bout d'un certain temps, l'humain va se fatiguer tandis que la machine, pour peu qu'elle soit convenablement alimentée en énergie, continuera inexorablement sur sa lancée ; d'où le paradoxe : si on veut limiter les risques d'erreur liées à la fatigue biologique de l'intelligence humaine, il faut aussi limiter le nombre de questions posées, et donc limiter le processus de vérification au risque de limiter aussi la valeur de cette vérification

- quatrièmement, le problème posé par les questions "ouvertes", c'est que, justement, l'éventail des réponses étant,  a priori, indéfini, leur domaine de validité l'est aussi ; ainsi, à la question portant sur la date de la mort d'Henri IV, l'"intelligence" de la réponse "1610" sera-t-elle réputée la même que "mai 1610", "le 14 mai 1610", "le 14 mai 1610 à telle heure", etc. ? À l'inverse, n'y a-t-il pas des erreurs plus "intelligentes" que d'autres (répondre "1611" au lieu de "1789" par exemple) ? La solution qu'est censée apporter le caractère "ouvert" des questions posées n'en est donc pas une en soi parce que le prétendu "critère" définitionnel de l'intelligence sous-jacent, d'une part est beaucoup trop vague, d'autre part, fût-il plus précis, semble ne pas devoir faire l'économie d'une interprétation au cas par cas (j'y reviendrai ultérieurement)

- cinquièmement, enfin, le fait d'exclure les questions "fermées" comme trop propices aux réponse aléatoires dénote un contexte culturel dévalorisant le hasard au motif que tout phénomène est censé être déterminé causalement, de manière univoque et définitive, bref, un contexte qui fait fond sur une métaphysique de l'Être immuable et nécessaire où les choses sont ce qu'elles sont et ne peuvent donc pas être autrement qu'elles ne sont, une métaphysique, donc où, comme le dit Hegel, "être, c'est avoir été" ; il en va différemment, si l'on adopte un point de vue héraclitéen, bouddhiste ou taoïste, voire quantique qui privilégie le flux, le passage, l'indétermination et non pas l'Être ; or, de ces derniers points de vue, le hasard devenant le fondement ontologique du réel, répondre aléatoirement à des questions d'un certain type (par exemple celles portant sur le possible ou sur le futur, comme dans le Yi King chinois) sera plutôt considéré comme une preuve d'intelligence.

1 - 2 : dans quelle mesure l'intelligence doit-elle être cantonnée à la faculté de produire une réaction langagière à un stimulus langagier ? Quelle que soit la forme des questions posées par Turing à la machine, on est quand même obligé de se demander par quelle étrange perversion on en est arrivé à considérer que le meilleur (on n'ose pas dire "le seul") indicateur de l'intelligence d'une entité réside dans les réponses que cette entité fournit lorsqu'elle est soumise à un interrogatoire. Même le cognitivisme, malgré sa foi indéfectible dans la validité d'un modèle scientiste de l'intelligence, est plus subtil que cela. Ainsi, Michel Imbert précise-t-il bien que "le cognitivisme est l'étude de l'intelligence, notamment de l'intelligence humaine, de sa structure formelle à son substratum biologique, en passant par sa modélisation, jusqu'à ses expressions psychologiques et anthropologiques [...]. Il est évident, et personne ne peut raisonnablement en douter que ces processus cognitifs sont représentés, incarnés dans le système nerveux ; qu'ils sont, en dernière instance, autant de manifestations et d'expressions du fonctionnement du cerveau"(Imbert, Neurosciences et Sciences Cognitives, in Introduction aux Sciences Cognitives, I, i) : pour lui, il est clair que le fait de répondre à des questions ne peut être que l'une des multiples "manifestations et [...] expressions du fonctionnement du cerveau" parmi d'autres. Je ne vois pas, personnellement, d'autre raison au réductionnisme forcené présupposé par le test de Turing que celle consistant à dire, à l'instar de Bourdieu, que le modèle implicite de ce modus operandi est "la réussite scolaire que l’on identifie à l’“intelligence”"(Bourdieu, Questions de Sociologie, ii). Si Bourdieu dit vrai, comme la "réussite" scolaire n'a jamais su s'évaluer qu'à travers des questionnaires divers et variés, il est facile de comprendre que, de même que le maître pose des questions à l'élève, de même le programmateur humain va poser des questions à sa créature. Dans les deux cas, il s'agit de savoir de quel degré celle-ci se rapproche de celui-là. L'obsession du questionnement serait donc, à cet égard, une synthèse entre un effet Pygmalion et ce que Bourdieu appelle un "narcissisme herméneutique [par lequel] le connaisseur affirme son intelligence et sa grandeur par son intelligence empathique"(Bourdieu, les Règles de l’Art, iii, 1). Bref, pour Bourdieu, l'évaluation de l'intelligence par des batteries de questions n'est que l'effet d'un habitus culturel, autrement dit "le produit de l’incorporation des structures objectives de l’espace social, ce qui incline les agents à prendre le monde social tel qu’il est, plutôt qu’à se rebeller contre lui"(Bourdieu, Langage et Pouvoir Symbolique, iii, 5). En ce sens, déceler l'"intelligence" d'une entité au moyen d'un interrogatoire serait une manifestation particulière de l'assimilation culturelle de l'intelligence à la réussite scolaire.

(à suivre ...)


Dernière édition par Zhongguoren le Dim 18 Sep - 7:08, édité 1 fois

Zhongguoren
Digressi(f/ve)
Digressi(f/ve)

Nombre de messages : 393
Date d'inscription : 23/06/2022

Revenir en haut Aller en bas

La notion d'"intelligence artificielle" et le mystère de la chambre chinoise. Empty Re: La notion d'"intelligence artificielle" et le mystère de la chambre chinoise.

Message par Zhongguoren Ven 9 Sep - 5:54

Fort heureusement, pour qui se refuse "à prendre le monde social tel qu’il est", notamment en matière de conception de l'intelligence, la philosophie offre quelques conceptions alternatives intéressantes. A titre d'exemples, nous en citerons trois : celle d'Aristote, celle de Bergson et celle de Spinoza (de la plus restrictive à la moins restrictive). Sans trop entrer dans les détails de systèmes philosophiques assez difficiles à comparer, nous pouvons toutefois remarquer que
- pour Aristote, "nous avons deux facultés [désir -orexis- et intelligence -noûs-] qui sont donc principes du mouvement local. [...] L’intelligence [noûs] raisonne en vue d’un but [logizomenos] et l’intelligence pratique [noûs praktikos] se distingue de l’intelligence théorique [noûs theoretikon] par sa fin [telei]. [Auquel cas] le terme final du raisonnement est le point de départ de l’action"(Aristote, de l'Âme, III, 433a)
- pour Bergson, "qu'est-ce que l'intelligence ? La manière humaine de penser. Elle nous a été donnée, comme l'instinct à l'abeille, pour diriger notre conduite. La nature nous ayant destinés à utiliser et à maîtriser la matière, l'intelligence n'évolue avec facilité que dans l'espace et ne se sent à son aise que dans l'inorganisé. Originellement, elle tend à la fabrication : elle se manifeste par une activité qui prélude à l'art mécanique et par un langage qui annonce la science [...]. Elle est l'attention que l'esprit prête à la matière"(Bergson, la Pensée et le Mouvant)
- et pour Spinoza, "l’Esprit et le Corps sont une seule et même chose, conçue tantôt sous l’attribut du Corps, tantôt sous l’attribut de la Pensée, [même si] certains sont persuadés que le corps obéit au commandement de l'esprit, [car] ni le corps ne peut déterminer l’esprit à penser, ni l’esprit ne peut déterminer le corps au mouvement ou au repos [...] ; la décision de l’Esprit et l’appétit ou détermination du Corps sont choses naturellement simultanées, ou, pour mieux dire, sont une seule et même chose. [Or], dans la mesure où l’esprit comprend [intelligit] toutes les choses comme nécessaires, il a sur les affections une puissance plus grande, autrement dit, il est moins passif"(Spinoza, Éthique, III, 2 - V, 6)

En bref, si l'on refuse le postulat implicite de Turing réduisant l'intelligence à une simple faculté de répondre d'une certaine manière à des questions posées par un examinateur, en gros, nous avons trois types d'extensions possibles de la notion : en restant dans le cadre strictement langagier, celle d'Aristote consistant à circonscrire l'intelligence à la possibilité de délibérer rationnellement, celle de Bergson pour qui l'intelligence est le prolongement proprement humain de l'instinct adaptatif du vivant en général, celle enfin, de Spinoza qui fait de l'intelligence d'un être le synonyme de sa compréhension du réel donc de son adéquation au réel. Dans les deux premiers cas, la notion d'"intelligence artificielle" est une contradiction puisque seuls les humains peuvent être réputés intelligents. Dans la troisième acception, de loin la plus tolérante, c'est une tautologie lorsqu'on veut parler d'un objet en adéquation avec son milieu (que serait un objet "inadapté" à son milieu ?), soit une contradiction si on prétend déceler dans cette adéquation des degrés comme c'est le cas pour l'être humain. Bref, on ne voit pas bien comment on pourrait éviter l'une de ces deux branches de l'alternative : ou bien on abandonne l'aspect soi-disant problématique de l'attribution de l'intelligence à la machine (dans le sens où la question serait, soit contradictoire, soit tautologique), ou bien, on s'y cramponne au prix d'une réduction de la notion d'"intelligence" à la portion congrue que nous avons dénoncée, à savoir un certain type de réaction langagière à un stimulus langagier calquée sur le modèle scolaire : le maître interroge, l'élève répond.

Pourtant, d'un point de vue historique, cette réduction aussi absurde qu'arbitraire est d'autant plus prégnante qu'elle est, traditionnellement, masquée par un tour de passe-passe rhétorique consistant à noyer la notion d'"intelligence" dans celle de "calcul" à l'occasion de l'émergence de ce que le monde intellectuel de langue anglaise a baptisé "the mind-body problem". On citera évidemment l'article de Gilbert Ryle de 1949 qui dénonce le dualisme philosophique substantialiste (notamment, celui de Descartes), plus précisément, "la représentation de la personne humaine comme un fantôme ou un esprit mystérieusement niché dans une machine"(Ryle, the Concept of Mind).  Ce qui fournit immédiatement un vernis de respectabilité ontologique aux travaux d'Alan Turing commencés vingt ans plus tôt et portant sur la cybernétique, c'est-à-dire sur les systèmes physiques qui sont capables de "faire" des inférences logiques valides au point de transformer les pensées en simples calculs, sous-entendant par là qu'il y a bien un "agent" sous-jacent et que cet "agent" n'est justement pas un "fantôme" ou un "esprit" mais une entité sans mystère. Ce qui tombe bien car, depuis Platon jusqu'à Russell en passant par Descartes et Leibniz, LA logique et le calcul sont considérés par la plupart des philosophes rationalistes comme le paradigme de l'excellence en matière de pensée. Du coup, l'intuition de Turing, qui est un logicien et un mathématicien, est la suivante : voyons si nous ne pourrions pas construire des systèmes mécaniques qui sont capables d'utiliser la logique propositionnelle et la logique des prédicats du premier ordre. Si c'est le cas, l'esprit ou, pour dire le moins, une de ses propriétés essentielles, à savoir l'intelligence, ne sera plus "the ghost in the machine" mais fera intégralement partie d'une procédure mécanique. D'où la thèse de Turing qui affirme que "pour toute procédure, manipulation ou fonction d'entier que l'esprit humain peut exécuter ou calculer concrètement, effectivement, à la manière dont les mathématiciens depuis l'aube des temps appliquent des algorithmes […], il existe une machine (de Turing) capable d'exécuter cette procédure ou de calculer cette fonction"(Andler, Calcul et Représentations : les Sources, in Introduction aux Sciences Cognitives, intro.). Or, de fait, nous savons construire des machines fonctionnant sur le principe dit du modus ponens, c'est-à-dire qui, de l'instruction "si p alors q" et de l'information "p", déduisent "q", de l'instruction "pour tout x appartenant à D, il existe un y tel que y=f(x)" et de l'information "x=a, a appartenant à D", infèrent "y=f(a)". Bref, il est tout à fait possible de construire des machines à calculer (en anglais, computers), "calculer" étant ici synonyme de "utiliser la logique propositionnelle et la logique des prédicats du premier ordre". C'est là la première étape (manifestement couronnée de succès) pour "défantômatiser" l'esprit, c'est-à-dire, au sens de Ryle, pour montrer que celui-ci désigne un ensemble de fonctions sans mystère et donc, en ce sens, communes à l'homme et à sa créature mécanique. De là, comme chacun sait, et au-delà du succès industriel et commercial de l'entreprise, la naissance d'un courant de recherches universitaires particulièrement dynamique connu, depuis soixante-dix ans, sous les noms de neuro-sciences ou encore de sciences cognitives, lequel, de fait, s'est évertué, non pas tant à atténuer d'éventuelles différences de nature entre l'homme, le vivant et le mécanique pour les requalifier en différences de degré à l'instar d'un Spinoza, mais plutôt à tout confondre (là encore, au sens étymologique de "fondre ensemble", "con-fondre") en réduisant à néant les différences de degré et, notamment, en assimilant l'intelligence du vivant, et celle de l'homme en particulier, à un certain type de fonctions mécaniques. Mieux que cela : si l'ordinateur produit avec des règles et des symboles des propositions valides, c'est que, jusqu'à un certain point au moins, le langage humain doit fonctionner comme une sorte de calcul. D'où, évidemment, le problème de savoir si ce que nous appelons l'"intelligence", la "compréhension", la "signification" etc. ne seraient pas de faux problèmes relatifs à notre mécompréhension de la nature véritable, c'est-à-dire mécanique, de la pensée. Nombre d'éminents philosophes du langage ont, au XX° siècle, cédé à la tentation de cet embrigadement idéologique qui a conduit, entre autres, à forger le mythe de l'homo œconomicus idéalement rationnel. Parmi eux, Wittgenstein qui a commencé par défendre une position similaire en disant que "l’acte de penser comme son application [le langage] se déroulent pas à pas comme un calcul [...]. C’est à l’extérieur que le calcul de la pensée se rattache à la réalité"(Wittgenstein, Grammaire Philosophique, I, §110-111). Ce qui est intéressant, ce sont les raisons pour lesquelles il se rétractera ensuite en affirmant tout au contraire "qu’en général nous n’utilisons pas le langage en suivant des règles strictes – il ne nous a pas été enseigné au moyen de règles strictes. Nous, pourtant, dans nos discussions, comparons constamment le langage avec un calcul qui procède selon des règles exactes"(Wittgenstein, le Cahier Bleu, 49). Nous y reviendrons.

Ce qui nous importe, pour le moment, c'est que les sciences cognitives ont fini par attribuer l'"intelligence" à la machine en tant que celle-ci simule un certain type de comportement humain que l'on a coutume d'associer à la notion d'intelligence, en l'occurrence, le comportement calculatoire. Demandons-nous donc à présent si nous tenons là, à tout le moins, un critère opérationnel pour faire le départ entre ce qui est "intelligent" et ce qui ne l'est pas. La question nous semble d'autant plus pertinente que la forme d'"intelligence" dont il s'agit est dérivée d'un modèle scolaire dans le cadre duquel un interrogateur pose des questions à un impétrant non pas pour avoir une information, mais pour savoir si l'impétrant est digne d'être admis à un examen, un grade, une charge, une dignité, un emploi, etc. On pourrait donc raffiner le protocole turingien en imaginant un examinateur qui a sous les yeux une série de réponses anonymes écrites rédigées en caractères d'imprimerie par des candidats parmi lesquels se trouverait un ordinateur couplé à une imprimante, ou encore un GMI qui dispute des parties d'échecs simultanées contre des adversaires humains dont l'un ne ferait que déplacer des pièces conformément au calcul d'un ordinateur caché. Dans tous les cas, le problème est : le juge (examinateur, GMI) est-il capable de soupçonner la présence de la machine ? Si ce n'est pas le cas, moyennant les réserves déjà faites sur la nature, la forme et le nombre des questions posée, on sait que Turing préconise de conclure que la machine impliquée dans le protocole est intelligente. Auquel cas, le test dit de Turing aurait effectivement valeur de critère d'attribution de l'intelligence à une machine. Or, les deux analogies que nous avons proposées (celle de l'examinateur et celle du joueur d'échecs) vont nous aider à comprendre pourquoi le le "test de Turing" ne constitue pas un critère. Dans le premier cas, l'examinateur est certainement supposé savoir par avance quelles sont les bonnes réponses si les questions sont fermées, mais il sera embarrassé si on lui demande de préciser a priori l'éventail d'acceptabilité des réponses en cas de questions ouvertes. Dans le second cas, le GMI est réputé suffisamment expérimenté pour reconnaître une série de coups qui trahissent une culture échiquéenne acceptable mais il n'est vraisemblablement pas capable d'expliquer ce qu'est un bon coup ou un coup acceptable autrement que de manière tautologique en le rapportant à l'issue favorable ou non de la partie. On dira que, dans le cas d'un examen ou d'un concours par question fermées (QCM), on possède des critères de correction dont aucun ne sera suffisant mais qui seront tous nécessaires pour définir la valeur du candidat. Mais autrement, le juge en général ne pourra fonder son jugement que sur des symptômes tirés de sa familiarité avec sa matière d'expertise. Or nous nous souvenons que c'est de cette manière que procède le test de Turing. Nous devons donc établir à présent une distinction entre ce qui relève du critère et ce qui ressortit au symptôme.

(à suivre ...)

Zhongguoren
Digressi(f/ve)
Digressi(f/ve)

Nombre de messages : 393
Date d'inscription : 23/06/2022

Revenir en haut Aller en bas

La notion d'"intelligence artificielle" et le mystère de la chambre chinoise. Empty Re: La notion d'"intelligence artificielle" et le mystère de la chambre chinoise.

Message par Magni Ven 9 Sep - 17:31

Je pense que le test d'Alan Turing n'est pas simpliste.
Supposons qu'une machine est stupide, pas la peine de lui poser une infinité de questions pour le prouver. Supposons qu'une machine soit intelligente, peut-on vraiment, dans le monde physique, poser une infinité de questions fermées de façon à remplacer une série de questions ouvertes ?
Le test de Turing ne sert pas à detecter les machines stupides mais les machines intelligentes.

Peu importe qu'un être qui est intelligent soit également stupide et non intelligent. C'est compliqué et c'est vain, inutile d'y revenir.
Ce qui compte c'est qu'il soit intelligent, le fait qu'il soit non intelligent n'est pas significatif, l'intelligent à le droit d'être non intelligent, cela ne dérange pas, cela n'empêche pas d'être intelligent.
Alan Turing tient-il compte du fait que le contraire du vrai n’est pas forcément faux. Aurait il put être un visionnaire ?

Les questions ouvertes ont des réponses d'une pertinence graduelle interprétable si la personne qui les pose est intelligente. Et oui, par exemple, bien sûr, un intelligent saura que se tromper d'une année c'est plus précis que se tromper d'un siècle.
On peut créer des problèmes ex nihilo mais pour servir quelle cause ?

Le fait de choisir des questions ouvertes n'a rien à voir avec le fait d'exclure les questions fermées. Le fait d'utiliser des questions fermées n'a pas été évoqué par Alan Turing, ce n'est pas son propos. On pourrait dire que les Vénusiennes ont été exclues du concours Miss France seulement si elles s'y étaient présentées, mais on les attend encore !

_________________
Ce que je dis n'engage que moi.
Magni
Magni
Digressi(f/ve)
Digressi(f/ve)

Nombre de messages : 1047
Localisation : Complètement à l'ouest
Date d'inscription : 03/05/2016

Revenir en haut Aller en bas

La notion d'"intelligence artificielle" et le mystère de la chambre chinoise. Empty Re: La notion d'"intelligence artificielle" et le mystère de la chambre chinoise.

Message par Zhongguoren Dim 11 Sep - 5:40

Magni a écrit:Le test de Turing ne sert pas à detecter les machines stupides mais les machines intelligentes.

Peu importe qu'un être qui est intelligent soit également stupide et non intelligent. C'est compliqué et c'est vain, inutile d'y revenir.
Ce qui compte c'est qu'il soit intelligent, le fait qu'il soit non intelligent n'est pas significatif, l'intelligent à le droit d'être non intelligent, cela ne dérange pas, cela n'empêche pas d'être intelligent. [...]

Les questions ouvertes ont des réponses d'une pertinence graduelle interprétable si la personne qui les pose est intelligente. Et oui, par exemple, bien sûr, un intelligent saura que se tromper d'une année c'est plus précis que se tromper d'un siècle.

Le test de Turing n'est pas un test d'intelligence mais un test de mimétisme avec l'homme blanc occidental éduqué à l'occidentale, lequel est, par défaut, supposé "intelligent" au motif qu'il est capable de répondre à des questions choisies par un expert en intelligence (comme à l'école). D'où le problème de la légitimité de la réduction de l'intelligence à une telle capacité.

Magni a écrit:Le fait de choisir des questions ouvertes n'a rien à voir avec le fait d'exclure les questions fermées. Le fait d'utiliser des questions fermées n'a pas été évoqué par Alan Turing, ce n'est pas son propos. On pourrait dire que les Vénusiennes ont été exclues du concours Miss France seulement si elles s'y étaient présentées, mais on les attend encore !

Personne n'a jamais songé à exclure les "Vénusiennes" de quelque concours que ce soit. En revanche, l'exclusion des questions fermées du cursus scolaire est intentionnelle et très ancienne. Et ce n'est que très récemment que l'on s'est rendu compte qu'un QCM bien étalonné était un test d'humanité (je n'ose pas dire d'intelligence) beaucoup plus pertinent (quoique moins scolaire) qu'une batterie de questions ouvertes. Turing, avec tout son génie, n'est que le pur produit d'un système éducatif daté et localisé. Bref, le test de Turing est, comme je vais le développer à présent, un symptôme.

Zhongguoren
Digressi(f/ve)
Digressi(f/ve)

Nombre de messages : 393
Date d'inscription : 23/06/2022

Revenir en haut Aller en bas

La notion d'"intelligence artificielle" et le mystère de la chambre chinoise. Empty Re: La notion d'"intelligence artificielle" et le mystère de la chambre chinoise.

Message par Zhongguoren Dim 11 Sep - 7:01

"A la question « comment sais-tu que ceci ou cela a lieu ? », nous répondons parfois en indiquant des critères et parfois de symptômes. Quand, en médecine, l'inflammation causée par tel bacille est qualifiée d'angine et que, dans ce cas précis, nous demandons : « Pourquoi sais-tu que cet homme a une angine ? », la réponse : « J'ai trouvé dans son sang le bacille X ou Y » nous indique le critère ou ce que nous pouvons appeler le critère de définition de l'angine. Si, en revanche, la réponse était : « Il a une inflammation de la gorge », il nous indiquerait là un symptôme de l'angine. Par symptôme, je désigne un phénomène dont l'expérience que nous en faisons est concomitante du phénomène qui est notre critère de définition. Dire alors « Quelqu’un a une angine si on trouve qu’il est porteur du bacille » est une tautologie, ou une manière vague d’énoncer la définition de « angine ». Mais dire « Un homme a une angine à chaque fois qu’il a la gorge enflammée », c’est faire une hypothèse"(Wittgenstein, le Cahier Bleu, 48). En d'autres termes, nous ne sommes en présence d'un critère autorisant à conclure en faisant le départ entre ce qui est correct et ce qui ne l'est pas qu'à condition de posséder, a priori, un corpus théorique qui recense les conditions nécessaires à la validité de la conclusion, bref, à condition de posséder ce qu'on appelle une définition, laquelle sera alors de la forme "si et seulement si C1 et C2 et C3 et ... Cn alors V" (avec C pour "critère" et V pour "valeur"). C'est le cas dans l'exemple proposé par Wittgenstein (le biologiste se demandant si le tableau infectieux constaté correspond à telle ou telle affection répertoriée a priori), c'est encore le cas pour l'examinateur qui fait passer un QCM et qui a sa "grille" de correction, mais ce n'est le cas ni pour le joueur d'échecs, ni pour le juge judiciaire, ni pour le critique d'art, ni pour le clinicien, etc. Aussi expérimentés soient-ils, et bien qu'il existe, dans tous les cas, nombre de traités théoriques d'"acceptabilité", ils ne disposeront l'un et l'autre que de schèmes mentaux de correction mais non d'une véritable théorie de la correction. Ils en seront donc réduits à conjecturer la valeur de ce qu'ils jugent.

Ce qui n'est, en soi, nullement un problème, nullement une objection sceptique. Car les jugements effectués sur la base d'un constat de symptômes sont, de facto, infiniment plus fréquents et au moins aussi pertinents que ceux qui découlent de l'application de critères en bonne et due forme. Le problème que suscite la distinction wittgensteinienne entre critère et symptôme réside non dans l'enjeu pragmatique mais plutôt dans l'enjeu épistémologique d'une telle distinction. C'est que le critère renvoie, via la possibilité de définir a priori ce qui a de la valeur et ce qui n'en a pas, à une forme de certitude scientifique, voire mathématique, donc de jugement solide. Tandis que la présence d'un simple symptôme empirique comme base de jugement est réputé, dans la culture occidentale moderne et post-moderne, appartenir au domaine du flou artistique, voire de l'arbitraire de l'opinion. Ce que la tradition philosophique est pourtant loin de cautionner. Relisons, par exemple, ce passage du Charmide dans lequel Socrate interroge Critias : "- pour ma part, j'affirme [dit Critias] à peu près que ce en quoi consiste la modération, c'est cela même : se connaître soi-même, et je suis d'accord avec celui qui a apposé à Delphes une telle inscription.  [...] La raison de tout mon discours, Socrate, la voici : je retire tout ce que je t'ai accordé auparavant ; peut-être, en effet, est-ce toi qui avais en un sens davantage raison, à ce sujet, peut-être était-ce moi, en un autre sens, tout n'était pas clair dans nos propos. Mais à présent, je consens à te rendre raison de cette définition-ci, si tu ne m'accordes pas que la modération, c'est se connaître soi-même. - Mais Critias, dis-je, d'abord tu te comportes à mon égard avec l'idée que j'affirme savoir ce sur quoi je pose des questions, et que je t'accorde ce que tu dis à condition de le décider. Or ce n'est pas ainsi que cela se passe ! Au contraire, je mène constamment la recherche avec toi sur ce qui est proposé, parce que, moi-même, je ne sais pas. C'est donc après avoir examiné que je consens à dire si je suis d'accord ou non"(Platon, Charmide, 164d-165c). Or l'expérimentateur turingien prétend, de jure, détenir un critère de ce que doit être l'"intelligence artificielle", tandis qu'il est, de facto, dans la situation de Critias ébauchant une définition qui n'est pas absurde en soi mais qui n'est encore qu'hypothétique, conjecturale, hésitante, en tout cas nullement définitive : c'est une étape, comme le souligne Socrate, dans la recherche commune de la meilleure définition possible que, pour l'heure, personne ne connaît. En ce sens, donc, le "test de Turing" ne nous fournit aucun critère opératoire (scientifique ou technique) d'attribution de l'"intelligence" à la machine faute d'une théorie sous-jacente délivrant, a priori, une définition à peu près stabilisée et partagée de ce qu'est l'"intelligence". La seule réponse possible au problème que nous avons soulevé est, en l'occurrence, celle de Socrate : "ce n'est pas ainsi que cela se passe ! Au contraire, je mène constamment la recherche avec toi sur ce qui est proposé, parce que, moi-même, je ne sais pas". Le fait de répondre d'une certaine manière à une batterie de questions est, manifestement, un simple symptôme d'acculturation à l'occidentale que Turing tire de sa propre culture et de sa propre expérience, de son propre habitus, dirait Bourdieu, et ne peut valoir, dans le meilleur des cas, que comme hypothèse de travail, nullement comme test à valeur conclusive.

Dans une entrevue accordée au magazine Sciences Humaines, John Searle a déclaré son scepticisme à l'égard de la valeur conclusive du "symbolisme binaire d’une machine de Turing. C’est ce que montre [son] argument de la chambre chinoise. [...] Supposons que je sois dans une pièce fermée avec la possibilité de recevoir et de donner des symboles, par l’intermédiaire d’un clavier et d’un écran, par exemple. Je dispose de caractères chinois et d’instructions permettant de produire certaines suites de caractères en fonction des caractères que vous introduisez dans la pièce. Vous me fournissez l’histoire puis la question, toutes deux écrites en chinois. Disposant d’instructions appropriées, je ne peux que vous donner la bonne réponse, mais sans avoir compris quoique ce soit, puisque je ne connais pas le chinois. Tout ce que j’aurais fait c’est manipuler des symboles qui n’ont pour moi aucune signification. Un ordinateur se trouve exactement dans la même situation que moi dans la chambre chinoise : il ne dispose que de symboles et de règles régissant leur manipulation". Searle propose donc une expérience de pensée dans laquelle il remplace la machine par un opérateur humain qui reçoit des messages codés (en l'occurrence, une suite de sinogrammes) en input, qui analyse lesdits messages au moyen et uniquement au moyen d'un manuel d'instructions qu'il consulte afin de traiter le plus adéquatement possible l'information écrite reçue, enfin qui fournit en output un autre message codé (toujours sous forme de sinogrammes) qui n'est autre que l'information reçue et traitée conformément au manuel d'instruction. Pour Searle, on peut parfaitement concevoir un opérateur humain qui "fonctionne", temporairement, comme une "machine de Turing" (autrement dit une "machine intelligente", bref, un ordinateur), à savoir qu'il traite de l'information qu'il ne comprend pas et qu'il répond par de l'information qu'il ne comprend toujours pas. La conclusion qu'en tire Searle, c'est que, même si la réponse est correcte aux yeux de l'observateur, dans une telle situation, l'opérateur, qu'il soit humain ou mécanique ne peut être dit "intelligent". Bref, il critique implicitement l'orientation "fonctionnaliste", c'est-à-dire, en fait "computationnaliste" que le test de Turing a imprimée à la philosophie de l'esprit. Si nous reprenons notre analogie scolaire développée supra, nous dirons que, pour Searle, l'épreuve imposée par l'examinateur ne permet pas de faire la différence entre une machine programmée pour réussir l'examen, un candidat valeureux et honnête et un candidat qui, sans être nécessairement un tricheur, possède une mémoire suffisamment efficace pour apprendre "par cœur" toutes les questions et toutes les réponses possibles au programme de l'examen (après tout, rien n'interdit à l'impétrant de mémoriser le "manuel d'instructions' dont Searle fait état).

Le nœud du problème vient donc de ce que le test de Turing ne permet pas de conclure à l'"intelligence" d'une machine qui se comporterait comme un homme au motif que, tout en lui imposant une épreuve langagière, c'est-à-dire, comme nous l'avons vu, une épreuve censée mettre en lumière ce qu'il y a de plus "humain" en l'homme, le test ne sollicite, en fait, que la seule composante syntaxique du langage. Plus précisément, "l’argument de la chambre chinoise montre que la sémantique du contenu mental n’est pas intrinsèque à la syntaxe du programme informatique"(Searle, entrevue donnée au magazine Sciences Humaines). Sans trop rentrer dans des détails techniques, rappelons brièvement que "les modèles classiques du langage présentent les langues telles que le français ou l’allemand comme composées de trois éléments : le composant phonologique qui détermine comment les mots et les phrases sont prononcés, le composant syntaxique qui détermine la combinaison des mots et des morphèmes en phrases, et le composant sémantique qui assigne un sens ou une interprétation aux mots et aux phrases. Des modèles plus sophistiqués ajoutent qu’il doit y avoir aussi un composant pragmatique"(Searle, what is Language ? Some Preliminary Remarks, ii). Une telle quadripartition est devenue classique dans toutes les formes (philosophiques ou scientifiques) de réflexion moderne sur le langage en général : la phonologie (en fait, la morphologie qui inclut l'orthographe du langage écrit) fait l'inventaire des phonèmes ou des graphèmes constitutifs des symboles admissibles dans une langue donnée, la syntaxe régit les rapports des symboles entre eux, la sémantique les rapports des symboles à ce dont ils sont les symboles et la pragmatique les rapports des symboles au comportement de leurs utilisateurs. De plus, cette quadripartition est cumulative, c'est-à-dire que la syntaxe présuppose la morphologie, la sémantique se construit sur la syntaxe et la morphologie, la pragmatique enfin sur la sémantique, la syntaxe et la morphologie. Or la programmation de l'ordinateur, tout comme les manœuvres dilatoires du simulateur searlien enfermé dans the chinese room ne vont pas plus loin que la manipulation de la morphologie et de la syntaxe d'un langage. Searle en conclut que  ni l'un ni l'autre ne font, à proprement parler, usage d'un langage et, en conséquence, ne sauraient être dits "intelligents". Car, pour qu'il y ait langage, et, corrélativement, intelligence (Searle ne développe pas de théorie de l'intelligence mais fait implicitement de l'usage d'un langage une condition nécessaire à l'exercice de l'intelligence), il faut impérativement envisager en outre, nous dit-il, un "contenu mental", c'est-à-dire des considérations sémantiques et pragmatiques, ce dont une suite morpho-syntaxique d'instructions opératoires, qu'elles soient destinées à une machine ou à un être humain, est nécessairement dépourvue.

(à suivre ...)

Zhongguoren
Digressi(f/ve)
Digressi(f/ve)

Nombre de messages : 393
Date d'inscription : 23/06/2022

Revenir en haut Aller en bas

La notion d'"intelligence artificielle" et le mystère de la chambre chinoise. Empty Re: La notion d'"intelligence artificielle" et le mystère de la chambre chinoise.

Message par Zhongguoren Mar 13 Sep - 6:04

Pourquoi donc une compétence à traiter du langage aux seuls niveaux morphologique et syntaxique n'est-elle pas une compétence à proprement parler linguistique et donc, ne mérite-t-elle pas d'être considérée comme un symptôme d'intelligence ? Pour Searle, et à l'instar de Spinoza ou de Bergson et même, dans une certaine mesure, d'Aristote, l'intelligence est l'extension naturelle des systèmes biologiques de communication. "À quoi ressemblerait une tentative de traiter le langage comme je le conçois, de manière naturaliste ? Le premier pas, que beaucoup de philosophes n’ont pas voulu franchir, serait de considérer le sens linguistique, le sens des phrases et des actes de langage, comme une extension des formes d’intentionnalité fondamentalement biologiques que sont la croyance, le désir, la mémoire et l’intention, et de considérer ces derniers comme les développements d’une intentionnalité plus fondamentale encore, notamment la perception et l’action intentionnelle, ou l’intention-en-action"(Searle, what is Language ? Some Preliminary Remarks, i). Pour lui, tout acte humain de langage (speech act) possède nécessairement un sens, ou bien ce n'est pas du langage. Et la nature de ce qu'on appelle "sens" n'a rien de mystérieux puisqu'elle s'ancre dans l'une des deux directions d'ajustement de la communication biologique de base : d'une part, la direction monde->individu (c'est le cas de la perception, mais aussi de la croyance et de la mémoire : l'individu biologique acquiert et, éventuellement, retient de l'information pertinente à propos de son biotope) ; d'autre part la direction inverse individu->monde (dans le cas du désir ou de l'intention, pare exemple, l'individu biologique modifie tant soit peu son biotope en fonction de ses intérêts bien compris). Parler de direction d'ajustement d'un système biologique de communication est important parce que cela suppose que l'individu qui communique a l'intention de communiquer un message destiné à coordonner les actions des organismes partenaires (congénères, mais aussi commensaux et parasites) et des organismes adversaires (ennemis, prédateurs) dans une direction précise (garder ou perpétuer ce qui est profitable, éviter ou fuir ce qui est nuisible). C'est ce que Searle appelle l'intention-en-action, autrement dit le "sens" (tout à la fois sense et meaning) que l'émetteur du message entend donner à son action et à celle de ses congénères et dont son message (on songe, par exemple, à la fameuse "danse" des abeilles) est l'expression. L'important, pour notre discussion, est que, puisque même dans le système de communication biologique le plus rudimentaire, il y a nécessairement de ce que nous appellerons désormais du "sens-intentionalité-en-action", a fortiori, il ne saurait exister de langage humain qui en fasse l'économie, et, par conséquent, des composantes sémantique et pragmatique de ce sens-intentionalité-en-action.

Ces deux composantes sont indissociables car la sémantique inhérente à tout système biologique de communication ne se résume pas aux seules conditions de possibilité du message, à savoir que l'individu qui communique communique son intention d'agir dans une direction déterminée. Au-delà, c'est toute l'expérience des conditions de satisfaction de son action qui est communiquée à ses cibles potentielles par l'émetteur du message : "du fait que les perceptions, les intentions, les croyances, les désirs, etc., sont des formes d’intentionnalité, ils véhiculent avec eux la détermination des conditions de leur succès ou de leur échec. Un animal affamé, par exemple, a une envie de manger, et toute pathologie mise à part, il a pour cela l’aptitude de reconnaître quand son désir est satisfait ou non. On peut généraliser comme suit : tout état intentionnel détermine ses conditions de satisfaction, et un animal normal, qui a des états intentionnels, doit être capable de distinguer, de reconnaître quand les conditions de satisfaction sont effectivement remplies […]. Avoir des croyances et des désirs, par exemple, c’est avoir déjà quelque chose qui détermine des conditions de satisfaction, et qui implique la capacité de reconnaître le succès de l’échec"(Searle, what is Language ? Some Preliminary Remarks, iv). C'est une autre manière de dire qu'un individu "intelligent" ne communique pas seulement ses croyances et ses désirs pour être compris mais, comme le disent aussi Grice, Sperber ou Wilson, pour être optimalement compris, c'est-à-dire pour maximiser les chances de survie de soi-même, du groupe dont il fait partie et, au-delà, de son espèce tout entière. Dit d'une autre manière, la sémantique (ensemble des conditions de satisfaction du message) présuppose la pragmatique comme ensemble des conditions de satisfaction de l'intention du message. Bref, un langage est un système de communication fondamentalement biologique qui ne saurait faire l'économie, outre de la morphologie et de la syntaxe, de la sémantique et de la pragmatique. Ce qui implique d'abord qu'un ordinateur, qui n'est  pas un être biologique, ne saurait être évalué sur la base d'une compétence pseudo-langagière réduite à la seule maîtrise d'une morphologie et d'une syntaxe. Mais il y a plus : à supposer même qu'il parvienne à mimer sémantiquement l'adaptation biologique d'un être vivant en "apprenant" par lui-même (on pense au deep-learning) ou en mimant l'intentionalité (par exemple dans le cas d'un programme qui "joue" aux échecs) en faisant comme s'il prenait en compte ses propres "intérêts" (mettre le roi adverse échec et mat), encore faudrait-il qu'il fasse tout cela dans l'intention fondamentale de maximiser ses chances de survie. Ce qui, jusqu'à preuve du contraire, ne se rencontre que dans les scénarios de science-fiction.

Nous pouvons donc dire à présent que Searle ne se borne pas à réfuter l'efficacité du test de Turing lorsqu'il s'agit d'évaluer l'intelligence d'une machine. En fait, c'est sa pertinence même qu'il réfute en tant que ce test repose sur une épreuve en fait faussement langagière. Dès lors, en effet, que tout système de communication, a fortiori tout langage, repose indissolublement sur une morphologie, une syntaxe, une sémantique et une pragmatique, il est clair que, pour lui, dans la mesure où le langage est un système de communication utilisé par des agents vivants pourvus d'intentionalité-en-action dérivant elle-même de l'intention fondamentale de survivre, un langage ne peut être que naturel et non-artificiel. Bref, l'ordinateur ne "communique" pas et, a fortiori, ne parle pas. Vouloir le questionner est, dès lors, complètement absurde. Est-ce à dire que Searle va jusqu'à refuser la notion d'"intelligence artificielle" ou bien est-ce que, selon lui, l'ordinateur pourrait, après tout, être analogiquement qualifié d'"intelligent" sur la base de compétences autres que proprement langagières ? Jusque là, Searle, dont l'"argument de base est que c’est une erreur de croire qu’on peut créer un esprit avec le symbolisme binaire d’une machine de Turing"(Searle, entrevue accordée au magazine Sciences Humaines) a rejeté la thèse dite "forte" (assumée par le cognitivisme post-turingien) de l'"intelligence artificielle", celle qui confond intelligence, esprit et calcul, mais non celle, plus "faible", de Turing qui confond l'intelligence, l'esprit et le calcul tout en prenant bien garde à dissocier l'intelligence de "l'âme immortelle de l'homme" (ce sont les termes mêmes de Turing). Est-ce donc que Searle pourrait se réconcilier avec Turing en admettant, après tout, qu'une machine calculante puisse être dite "intelligente", étant entendu que sa puissance de calcul ne suffira jamais à combler le gouffre ontologique qui la sépare l'homme ? On se souvient que, pour Searle, la sémantique d'un langage n'est pas intrinsèque à sa syntaxe, que la sémantique est un niveau de perfection qui survient après (ou au-dessus) de la syntaxe. Or, "à l’époque [en 1980] j’admettais que la machine possédait une syntaxe. En fait, si l’on pose la question de savoir si cette série de zéros et de uns est un processus intrinsèque à la machine, on est obligé d’en convenir que ce n’est pas le cas. J’ai proposé depuis (dans la Redécouverte de l’Esprit) un nouvel argument. La distinction la plus profonde qu’on puisse effectuer n’est pas entre l’esprit et la matière, mais entre deux aspects du monde : ceux qui existent indépendamment d’un observateur, et que j’appelle intrinsèques, et ceux qui sont relatifs à l’interprétation d’un observateur. La computation informatique n’est pas un processus qui a lieu dans la nature. Elle n’existe que relativement à une interprétation syntaxique qui assigne une certaine distribution de zéros et de uns à un certain état physique. Ce nouvel argument, plus radical, montre que la syntaxe n’est pas intrinsèque à la nature physique. Une chose donnée n’est un programme (i.e. une structure syntaxique) que relativement à une interprétation. Ceci a pour effet de démolir l’assomption de base de la théorie computationnelle de l’esprit. La question “Le cerveau est-il intrinsèquement un ordinateur ?” est absurde car rien n’est intrinsèquement un ordinateur si ce n’est un être conscient qui fait des computations. N’est ordinateur que quelque chose auquel a été assignée une interprétation. Il est possible d’assigner une interprétation computationnelle au fonctionnement du cerveau comme à n’importe quoi d’autre. Supposons que cette porte égale 0 quand elle est ouverte, et 1 quand elle est fermée. On a là un ordinateur rudimentaire. Cet argument est plus puissant que le premier mais plus difficile à comprendre"(Searle, entretien accordé à la revue Sciences Humaines).

(à suivre ...)

Zhongguoren
Digressi(f/ve)
Digressi(f/ve)

Nombre de messages : 393
Date d'inscription : 23/06/2022

Revenir en haut Aller en bas

La notion d'"intelligence artificielle" et le mystère de la chambre chinoise. Empty Re: La notion d'"intelligence artificielle" et le mystère de la chambre chinoise.

Message par Zhongguoren Mar 13 Sep - 8:33

Searle reconnaît donc qu'à l'époque de la première version de sa réfutation de l'argument de Turing, il avait admis un peu vite que l'ordinateur possédait, à défaut de sémantique, néanmoins une syntaxe comme, précise-t-il, "qualité intrinsèque". Qu'est-ce donc qu'une qualité intrinsèque ? La définition en est très simple : est intrinsèque une qualité qui existe objectivement "dans les choses", extrinsèque, une qualité qui dépend de l'interprétation d'un observateur. Cette distinction est assez banale, en tout cas classique depuis que Locke a distingué "les qualités premières [qui] sont les qualités absolument inséparables du corps, quels qu'en soient l'état, les altérations, la force exercée sur lui et que les sens trouvent constamment dans toute particule de matière [et] les qualités secondes [qui] ne sont rien dans les objets sinon des pouvoirs de produire en nous diverses sensations par le moyen des qualités premières de leurs parties insensibles"(Locke, Essai Philosophique concernant l’Entendement Humain, II, viii, 10), la différence étant que la notion un peu mystérieuse de "pouvoir" (power) chez Locke fait place, chez Searle, à celle d'interprétation intentionnelle. Et il n'y a d'ailleurs d'interprétation qu'intentionnelle : "Le Débat : Pourquoi ne pas considérer que le cerveau est un ordinateur qui s’interprète lui-même ? John Searle : Il y a assurément des processus dans le cerveau qui sont intrinsèquement computationnels, par exemple lorsque nous effectuons des calculs, mais ces calculs n’ont rien d’intrinsèque, il ne s’agit de calculs que pour la conscience. Le Débat : N’y a-t-il pas une différence entre, par exemple, la simulation d’un diagnostic médical par un ordinateur, qui n’est que l’interprétation que nous assignons à ses opérations, et les calculs arithmétiques que la machine effectue réellement ? John Searle : Les calculs sont relatifs à notre interprétation tout autant que les autres « productions » de l’ordinateur. La seule chose qui ait effectivement lieu dans un ordinateur qui est en train de fonctionner, ce sont des flux électriques. Nous, nous pouvons leur associer des symboles mais, la machine, elle, n’en contient pas. […] L’ordinateur [...] ne produit rien du tout, sinon l’état suivant d’exécution du programme"(Searle, entretien accordé au magazine le Débat, n°109, mai 2000). Donc, d'après Searle, l'ordinateur ne possède intrinsèquement pas plus de morphologie ou de syntaxe que de sémantique ou de pragmatique. Les seules propriétés intrinsèques, celles qui, rappelons-le, "existent indépendamment d’un observateur [par opposition à celles] qui sont relati[ves] à l’interprétation d’un observateur" qui peuvent lui être attribuées sont des propriétés géométriques et des propriétés physiques statiques (matière, masse) ou dynamiques (mécaniques, électriques, électroniques), c'est-à-dire des propriétés causales. La syntaxe doit, par conséquent, être considérée comme une propriété extrinsèque de la machine car c'est ainsi que NOUS interprétons intentionnellement ce qui, dans son fonctionnement, possède pour NOUS, en tant que "calcul", un intérêt (en l'occurrence, celui de nous épargner un certain nombre d'efforts). Il n'existe donc pas de calculs intrinsèques, même s'il y a bien des processus intrinsèquement computationnels, c'est-à-dire des processus physiques qui produisent causalement des états que nous qualifions, in fine, de "calculs". C'est NOUS AUTRES, êtres humains, qui associons intentionnellement une série d'impulsions électriques d'une certaine sorte avec la valeur "1", une autre série avec la valeur "0", puis une certaine série de 0 et de 1 avec tel symbole, enfin telle série de symboles avec telle autre série pour en amener une troisième, etc. Bref, c'est encore et toujours NOUS qui conférons une interprétation à tel système physique doté de certaines qualités intrinsèques existant indépendamment de nous. Or c'est précisément le cas pour un programme informatique de computation de symboles. L'exemple que donne Searle est tout à fait significatif : qu'est-ce qui nous empêche, au fond, de considérer une vulgaire porte comme un ordinateur rudimentaire ? Il suffirait pour cela de coder son fonctionnement en attribuant la valeur 0 à sa fermeture, la valeur 1 à son ouverture. Et pourquoi ne le faisons-nous pas ? Eh bien parce que nous n'y avons aucun intérêt : dans le contexte culturel qui est le nôtre, une porte est destinée à réguler des flux physiques de personnes et de choses et non pas à transmettre des informations. Mais il n'est pas interdit d'imaginer deux personnes qui, pour une raison ou une autre, ne pourraient communiquer entre elles qu'en ouvrant et fermant une porte un certain nombre de fois, à la manière dont fonctionne le code morse, par exemple. Pour le redire une nouvelle fois, tout notre système de communication, tout notre langage donc, obéit à des considérations d'ordre pragmatique déterminées conjointement par l'évolution biologique et par la pression de l'histoire. Or nous avons dit que Searle a, en ce sens, "naturalisé" l'intentionnalité comme propension à optimiser, pour l'individu comme pour l'espèce, l'adaptation biologique à un milieu déterminé et, donc, à maximiser les chances de survie. Tout cela pour dire que ce n'est jamais l'ordinateur qui, dans cette perspective, pense, déduit, calcule, assemble, traite de l'information, bref, fait preuve d'"intelligence", fût-ce aux niveaux élémentaires de la morphologie et de la syntaxe. C'est NOUS qui le faisons en utilisant l'ordinateur comme outil parce que nous y avons intérêt. Ce qui ruine la thèse "faible" de la production d'un calcul comme symptôme possible d'"intelligence" et, par contre-coup, la thèse computationnaliste consistant à considérer le cerveau humain comme une sorte de super-ordinateur. Car, contrairement à l'ordinateur, le cerveau produit intrinsèquement, c'est-à-dire naturellement, des phénomènes et des états (esprit, intelligence, intention, conscience, langage, désir, émotion, etc.) qui vont lui permettre d'auto-évaluer la pertinence tout à la fois de ses messages et des intentions-en-action qui justifient ses messages.

Bref, si d'"intelligence artificielle" il doit être question, ce sera toujours dans le sens analogique d'une "intelligence" extrinsèque, fruit d'une interprétation, au sens où "c’est seulement de l’être humain et de ce qui lui ressemble que l’on peut dire qu’il parle, qu’il a des sensations, qu’il voit, qu’il a des états de conscience, etc."(Wittgenstein, Recherches Philosophiques, §281). Dès lors, qu'une machine puisse être qualifiée d'"intelligente",  cela semble supposer définitivement que tout outil puisse être tautologiquement qualifié d'intelligent du simple fait que nous ne pouvons pas nous en passer pour effectuer certaines tâches. Autant dire alors que ma montre ou ma machine à laver sont "intelligentes" en ce sens, (ce que, d'ailleurs, la publicité n'hésite pas à suggérer à travers l'usage très en vogue de l'adjectif "smart"). Tandis qu'a contrario, même un animalcule très primitif sera intrinsèquement intelligent dans la simple mesure où il est capable, à un stade très archaïque, de procéder à des opérations intentionnelles en vue de servir ses intérêts "bien compris" (que l'on songe à la réplication virale dans la cellule saine sur le modèle du cheval de Troie, ou au "gène égoïste" de Dawkins). Mais alors, que doit-on penser du soi-disant contre-argument que Searle adresse à Turing et selon lequel, l'ordinateur étant définitivement et intrinsèquement inintelligent, un être humain pourrait néanmoins imiter l'idiotie de l'ordinateur en répondrait en chinois à des questions posées en chinois sans rien connaître de la sémantique et de la pragmatique du chinois mais simplement en traitant la langue chinoise du point de vue de sa morphologie et de sa syntaxe ? Nous voudrions montrer à présent que ce contre-argument connu sous le nom racoleur de Chinese Room Argument est encore plus absurde que l'argument qu'il entend réfuter.

Dans un premier temps, Searle affirme avec raison qu'"il n’est pas très compliqué d’imaginer une langue qui découpe les objets différemment de ce que nous faisons, qui ne traite pas un arbre comme un tout, mais comme une moitié supérieure et une moitié inférieure, et qui a deux mots distincts pour chaque moitié. C’est sans aucun doute une possibilité logique. Il est également possible d’imaginer une langue qui ne permet pas de faire référence aux objets, mais seulement aux procès comme états de choses. De la même manière que nous disons « Il pleut » ou « Il neige », nous pourrions imaginer une langue où au lieu de dire « C’est un arbre », ou « C’est une pierre », nous pourrions dire « Ça arborise ici » ou « Ça pétrise ici » sur le modèle de « Il pleut ici » ou « Il neige ici », où « Il » ne réfère à aucun objet"(Searle, what is Language ? Some Preliminary Remarks, v, 4). Sauf qu'il s'empresse d'ajouter qu'"une telle langue, si elle existe, va à l’encontre de notre phénoménologie de perception. Notre appareil perceptif tel qu’il existe est fait de telle sorte que nous traitons naturellement les entités discrètes de l’espace-temps comme des unités singulières, et celles-ci sont typiquement représentées par les SN [syntagmes nominaux] de notre langue"(Searle, what is Language ? Some Preliminary Remarks, v, 4). Or, comme une telle langue existe, puisque le chinois en est une, d'après Searle, elle va "à l’encontre de notre phénoménologie de perception". Le problème, c'est que la langue chinoise, tout en s'adressant à "notre appareil perceptif tel qu'il existe", comme d'ailleurs la totalité des langues humaines, ne traite justement pas "les entités discrètes de l’espace-temps comme des unités singulières [...] représentées par les SN". Mieux (ou pire), Searle prétend que "l’animal possède des contenus (en termes de perceptions et de croyances) mais [que] ceux-ci manquent de structure syntaxique ; il peut voir, et donc croire, quelque chose dont nous pouvons rendre compte (mais pas lui) comme : « Ça vient vers moi ». […]. J’ai supposé que ces éléments se décomposent à la manière des langues européennes que je connais, mais ce n’est pas une hypothèse nécessaire [sic !]. J’ai supposé que le venir-vers-moi-chose-maintenant présyntaxique se décompose en un outil qui réfère à un homme contextuellement spécifique et en une prédication qui exprime le fait de venir vers moi en ce moment, comme dans : L’homme vient maintenant vers moi"(Searle, what is Language ? Some Preliminary Remarks, viii). Donc, pour Searle, il est clair que l'on passe d'un système de communication animal à un langage authentiquement humain lorsqu'une représentation pré-syntaxique (donc non-syntaxique) de la réalité se structure syntaxiquement sur le modèle syntagme nominal/syntagme verbal (ou, pour dire plus simplement sujet/prédicat). Concrètement, il s'agit de passer, par exemple de la représentation chaotique "venir-vers-moi-quelque chose-maintenant" à, par exemple, "l'homme vient vers moi maintenant", c'est-à-dire d'une juxtaposition inorganisée (où peu importe leur ordre de présentation) des morphèmes à une structuration ordonnée de la chaîne des morphèmes. Bref, pour lui, il n'y a de langage au plein sens du terme que lorsque l'on passe de la parataxe à la syntaxe. Le problème c'est que la langue chinoise n'est pas structurée par un net découpage syntaxique des propositions affirmatives en syntagme nominal (sujet) et syntagme verbal (prédicat). En effet, en chinois "l'homme vient vers moi maintenant" se dira 人现在来找我, rén xiànzài lái zhǎo wǒ, littéralement "homme-maintenant-venir-chercher-moi". La langue chinoise n'accordant pas les substantifs, ni en genre, ni en nombre, ne conjuguant pas les verbes, ne déclinant pas les cas est une langue fondamentalement parataxique, c'est-à-dire qui se construit par juxtaposition de morphèmes, lesquels, dans la langue chinoise, ne sont ni des mots ni des syllabes, mais des caractères idéogrammatiques (des "emblèmes" dit Granet, aujourd'hui, on dirait aujourd'hui des "logos") dont l'étymologie est également parataxique (par exemple, le terme "bien" 好 est formé de 女, "femme" et de 子, "enfant", le terme 间, "espace" de 门, "porte", et de 日, "soleil", etc.). Du coup, il est littéralement impossible de rendre en chinois l'article "l'", le verbe "venir" conjugué à la troisième personne de l'indicatif, l'adverbe "vers" (remplacé par la redondance de "venir" et "chercher"), quant à 来, "venir", il peut aussi, selon les contextes être traduit par l'adjectif "suivant", ou "prochain" ou "environ". De plus, le même sinogramme (par exemple 过, guò ou 服, fú ) peut, tantôt être traduit en français par un nom, tantôt par un verbe, tantôt par un adjectif, tantôt par un adverbe, tantôt par une conjonction, etc. Bref, si on suit Searle, le chinois étant non seulement pré-syntaxique mais carrément parataxique, ce serait donc une sorte de système animal (pré-linguistique) de communication, un langage qui, selon son expression, n'engendrerait que des "actes de langage simplement expressifs", laissant donc de côté la faculté de rendre possible également des actes de langage "représentatifs": "les actes de langage simplement expressifs, même effectués intentionnellement, ne sont pas « linguistiques » au sens que nous cherchons à expliciter, et les mots qui leur correspondent dans les langues existantes ne sont pas des « mots » au sens où nous l’entendons. Aïe ! Bon sang ! Beurk ! Super ! servent à exprimer des états mentaux à la fois intentionnels et non-intentionnels, mais ce ne sont pas le genre de phénomènes linguistiques que nous cherchons à expliquer. Pourquoi ? Parce que, bien qu’ils laissent libre cours aux états intentionnels ou autres du locuteur, ils ne représentent pas. Ce que nous cherchons à comprendre, c’est comment nos hominidés peuvent, au cours de l’évolution, acquérir la représentation linguistique"(Searle, what is Language ? Some Preliminary Remarks, vi), sous-entendu, donc, "syntaxiquement structurée".

(à suivre ...)


Dernière édition par Zhongguoren le Dim 18 Sep - 7:00, édité 1 fois

Zhongguoren
Digressi(f/ve)
Digressi(f/ve)

Nombre de messages : 393
Date d'inscription : 23/06/2022

Revenir en haut Aller en bas

La notion d'"intelligence artificielle" et le mystère de la chambre chinoise. Empty Re: La notion d'"intelligence artificielle" et le mystère de la chambre chinoise.

Message par Zhongguoren Mer 14 Sep - 7:08

Elizabeth Anscombe admet avec Searle qu'"il y a deux sortes de connaissance : l'une par observation, l'autre par intention"(Anscombe, l'Intention, §32), la connaissance observationnelle de l'une pouvant assurément être assimilée à la connaissance représentative de l'autre. Sauf qu'il se pourrait bien que "l'ensemble des choses connues sans observation a[it] un intérêt général pour notre enquête car la classe des actions intentionnelles en est un sous-ensemble"(Anscombe, l'Intention, §8) dans le sens où la connaissance observationnelle, et donc le langage représentatif/descriptif qui la manifeste, soient dérivés et non disjoints de la connaissance intentionnelle (sans observation) et du langage "expressif". Dans l'ontogenèse du langage humain, en effet, "ce qu’il y a d’extrêmement important quand on apprend [le langage en général], ce sont les gestes et les mimiques exagérées. Le mot est enseigné comme le substitut d’une mimique ou d’un geste"(Wittgenstein, Leçons sur l’Esthétique, I). "Comment apprendre la signification du mot ‘‘douleur’’ par exemple ? En voici une possibilité : […] un enfant s’est blessé, il crie ; alors des adultes lui parlent et lui apprennent […] une nouvelle manière de se comporter face à la douleur. De sorte que l’expression verbale de la douleur remplace le cri et ne décrit rien du tout"(Wittgenstein, Recherches Philosophiques, §244). En termes searliens, nous dirions que ce n'est pas parce que "j'ai mal au bras" est une articulation syntaxiquement structurée de cinq mots que cette proposition est moins "expressive" ou plus "représentative" que "aïe !" ou bien une série de gémissements. Et de même que "de ce que P est une image de ou représente une licorne, nous ne pouvons pas inférer qu'il y a quelque chose dont P est une image ou que P représente [...]. Nous pouvons éviter la confusion à condition de parler [...] d'une image-représentant-une-licorne [a unicorne-representing-picture]"(Goodman, Langages de l’Art), de même, en comprenant "j'ai mal au bras" comme "j-ai-mal-au-bras", il n'est pas nécessaire qu'il y ait un bras, un mal et un j' pour que ma phrase soit, non seulement expressive mais aussi représentative. On voit néanmoins qu'une phrase peut rester parataxique malgré l'articulation apparente de ses composants (d'où les traits d'union de Goodman qui indiquent que les termes séparés ne sont pas des syntagmes indépendants) qui ne serait donc syntaxique qu'en surface, confondant ainsi les deux niveaux d'articulations que de Saussure a pourtant bien séparés, à savoir l'articulation graphique/phonique et l'articulation syntaxique/sémantique. En tout cas, souligne Wittgenstein, il n'y a aucune différence pragmatique, sémantique, ni surtout syntaxique (bien qu'il y en ait une, évidemment, d'un point de vue morphologique) entre "aïe !" et "j'ai mal", entre "mmmhhh ..." et "ceci est délicieux", etc. : "dire ‘j’ai mal’ n’est pas plus un énoncé à propos d’une personne que ne l’est le fait de gémir"(Wittgenstein, le Cahier Bleu, 67).  Et il n'est pas nécessaire d'être fin lettré pour se rendre compte que nombre de nos bavardages de la vie courante ne sont ni moins expressifs ni plus représentatifs que "beurk !" ou "super !". D'une manière générale, s'il fallait congédier du langage humain tous les actes de langage syntaxiquement articulés en apparence mais, de facto, parataxiques, le langage humain serait probablement restreint à la logique, aux mathématiques et, peut-être, à certaines propositions des sciences, c'est-à-dire, in fine, à des systèmes de communication morphologiquement et syntaxiquement formalisés mais dont le contenu sémantique et l'usage pragmatique sont très pauvres. C'est pourquoi on reste perplexe lorsque Searle écrit que "pour qu’apparaisse une langue, nous avons trouvé que nous avions besoin d’un sens du locuteur, de conventions et d’une structure syntaxique intrinsèque. [...] En suivant cette idée de bon sens, que le langage a pu se développer, et d’ailleurs qu'il s’est sans doute développé à partir de formes prélinguistiques d’intentionnalité, nous avons trouvé que le langage qui résulte de ce processus apporte quelque chose qui ne se trouve pas dans l’intentionnalité prélinguistique [c'est-à-dire parasyntaxique]"(Searle, what is Language ? Some Preliminary Remarks, ix). Et on peut se demander s'il aurait conclu que la langue chinoise n'exprime que des "formes prélinguistiques d'intentionnalité" s'il avait eu, ne fût-ce qu'une connaissance élémentaire de cette langue parlée par un cinquième de l'humanité. Il n'empêche que de tels propos évoquent désagréablement cette bonne vieille notion raciste de "mentalité pré-logique des sociétés primitives" chère à Lévy-Bruhl.

Aussi, si nous sommes d'accord avec Searle lorsqu'il dit que "la pensée non-linguistique est, ou du moins peut être, un flux continu, interrompu seulement par le sommeil ou d’autres formes d’inconscience. Le langage, en revanche, est par essence segmenté. L'énonciation de phrases ne peut être un flux continu indifférencié, car chaque phrase et même chaque fragment de phrase, énoncé comme acte de langage complet, doit être discret"(Searle, what is Language ? Some Preliminary Remarks, v, 3), nous ne le sommes plus lorsqu'il ajoute, avec des accents bergsoniens, que "la situation où nous nous trouvons lorsque nous passons de l’expérience au langage est analogue à celle où nous passons d’un film à une série d’images fixes. En pensant avec le langage, nous morcelons notre pensée en mots et en fragments de phrase"(loc. cit.). Car la langue chinoise montre mieux que toute autre que si le propre d'une langue est effectivement de faire apparaître des unités discrètes, d'être effectivement articulée, donc segmentée, pour autant, la segmentation la plus pertinente n'est pas nécessairement de type syntaxique. Comme Wittgenstein le fait remarquer, l'articulation la plus pertinente, celle qui fait d'une représentation la représentation de quelque chose (plutôt que la-représentation-de-quelque-chose, pour reprendre la formulation goodmanienne) c'est l'articulation sémantique, celle qui fragmente le tout indifférencié d'une perception en unités assimilables pour notre pensée et notre mémoire et communicables pour la pensée et la mémoire d'autrui. Or, dans une langue, c'est l'articulation entre les propositions dans un discours et non celle des mots dans une proposition qui joue ce rôle et dont nous disons, à juste titre, qu'elle est porteuse de sens : "nous nous faisons des images des faits. [...] Ce que l’image représente, c’est son sens. [...] La proposition est une image de la réalité"(Wittgenstein, Tractatus, 2.1-2.221-4.01). Or, dire que la proposition est seule porteuse de sens, qu'elle se trouve donc être la base de l'articulation pertinente d'une langue, ce n'est pas apporter une information sur ce qu'est une proposition, c'est énoncer une tautologie. Car le sens ne définit pas la proposition mais se montre dans la proposition comme sa forme a priori : "ce qu’elle doit avoir de commun avec la réalité pour la représenter, sa forme de représentation, l’image [propositionnelle] ne peut la représenter : elle la montre"(Wittgenstein, Tractatus, 2.172). Bref, le sens d'une concaténation signifiante (que ce soit de caractères linguistiques, d'images ou de quoi que ce soit d'autre) se voit, s'entend, se sent mais ne s'explique pas, ne se décrit pas. Ce sens est, en termes kantiens, transcendantal, c'est-à-dire qu'il est, en amont de celles-ci, la condition de possibilité de toute explication et de toute description et donc, de toute segmentation syntaxique. Car la syntaxe (grammaire) d'une représentation, ce n'est toujours qu'après-coup qu'on en dégage la régularité et qu'à la limite, on la formalise, en ce qu'elle n'est elle-même qu'une conséquence de l'usage d'abord pragmatique puis sémantique qui en est fait : "la grammaire est au langage ce que les règles du jeu sont au jeu"(Wittgenstein, Grammaire Philosophique, II, 23). Or, "c’est seulement lorsque les hommes ont longuement pratiqué un jeu de langage que sa grammaire vient à l’existence, de même que, dans les jeux, on joue primitivement sans que les règles aient été établies"(Wittgenstein, Grammaire Philosophique, I, 26). Donc, l'analogie d'une suite de mots avec une suite d'images cinématographiques qu'utilise Searle est inadéquate en ce qu'un film cinématographique a beau être composé d'événements élémentaires irréductibles (chacune des vingt-quatre images par seconde pour une séquence analogique, chacun des pixels pour une séquence numérique), pour autant aucune de ces images, aucun de ces pixels élémentaires n'est, en soi, porteur de sens, c'est-à-dire en mesure de montrer et, a fortiori, de décrire quoi que ce soit. Comme le souligne Davidson, "il n’y a pas de limite à ce sur quoi une image attire notre attention, et une bonne partie de ce que nous sommes conduits à remarquer n’est pas de nature propositionnelle [...]. Les mots ne sont pas la bonne monnaie d’échange pour une image "(Davidson, Enquête sur la Vérité et l’Interprétation, xvii). Une image, un mot, un son, une odeur, etc. considérés en soi, c'est-à-dire abstraction faite du contexte de leur survenance, sont toujours dépourvus de signification. Et ils le restent tant que l'unité discrète en question n'est pas chargée de ce que Searle appelle une intention en action.

Or pour qu'intention en action il y ait, encore faut-il que ladite unité discrète soit biologiquement pertinente pour la survie de l'organisme. Jacques Bouveresse fait remarquer que "la grenouille présente la particularité de ne pas voir le détail des parties immobiles du monde qui l'entoure, ou, en tout cas, de ne pas être concernée par elles. Elle peut mourir de faim au milieu d'une provision de nourriture parfaitement accessible mais qui n'est affectée d'aucun mouvement. Son choix de nourriture n'est déterminé, en fait, que par la dimension et le mouvement. [...] On pourrait croire [...] que le "langage" dans lequel l'œil s'adresse au cerveau est celui des sense data, des données sensibles élémentaires sur lesquelles est effectué ensuite un travail de synthèse, d'organisation et d'interprétation qui aboutit à la perception proprement dite. Or, justement, il n'en est rien. Ce qui est transmis au cerveau n'est pas le matériau brut qui est supposé correspondre à la sensation pure [...]. L'œil n'a pas simplement, comme on le croit généralement, des sensations, il a pour ainsi dire de véritables perceptions, ce qui signifie que la distinction usuelle que l'on fait entre sensation (non interprétée) et perception (interprétation) devient elle-même très contestable"(Bouveresse, Langage, Perception et Réalité, iii, 1). On doit donc dire que, pour tout être vivant, n'est perçu que ce qui a intérêt à être perçu, autrement dit, percevoir c'est percevoir intentionnellement, et percevoir intentionnellement, c'est percevoir le sens (la signification) de ce qui est perçu. L'intérêt, le sens et l'intention sont une seule et même chose. Et comme, chez les êtres parlants que sont les humains, "le langage est un art social. Pour l’acquérir, nous dépendons entièrement d’indices accessibles intersubjectivement relativement à ce qu’il y a lieu de dire et au moment de le dire et au moment de le dire. Dès lors, il n’y a aucune justification pour conférer des significations linguistiques [en soi]"(Quine, le Mot et la Chose, préf.), il est clair que nous attachons du sens à ce que nous avons socialement un intérêt (un habitus dirait Bourdieu) à dire ou à penser. On pourrait objecter que cet intérêt, cette pertinence est, chez les humains, psychologique avant que d'être sociale. Mais, même alors, "  une image offerte par la vie nous apporte en réalité, à ce moment-là, des sensations multiples et différentes. La vue, par exemple, de la couverture d'un livre déjà lu a tissé dans les caractères de son titre les rayons de lune d'une lointaine nuit d'été. Le goût du café au lait matinal nous apporte cette vague espérance d'un beau temps qui jadis si souvent, pendant que nous le buvions dans un bol de porcelaine blanche, crémeuse et plissée, qui semblait du lait durci, se mit à nous sourire dans la claire incertitude du petit jour. Une heure n'est pas qu'une heure, c'est un vase rempli de parfums, de sons, de projets et de climats. Ce que nous appelons la réalité est un certain rapport entre ces sensations et ces souvenirs qui nous entourent simultanément"(Proust, le Temps Retrouvé, 2280). Ce qu'exprime aussi Nietzsche lorsqu'il dit que toutes les "vérités" à propos du réel sont, in fine, "des illusions dont on a oublié qu'elles le sont, des métaphores qui ont été usées et qui ont perdu leur force sensible, des pièces de monnaie qui ont perdu leur empreinte et qui entrent dès lors en considération, non plus comme pièces de monnaie, mais comme métal"(Nietzsche, Vérité et Mensonge au sens Extra-Moral). Nietzsche dirait donc que, loin que la parataxe soit l'effet d'une syntaxe inaboutie ou dégradée comme le pense Searle, c'est plutôt la syntaxe qui est une parataxe démonétisée. Cet examen de la genèse de la syntaxe nous montre donc que, 1) les quatre aspects (morphologie, syntaxe, sémantique, pragmatique) d'un langage naturel, non seulement ne sont pas cumulatifs (contrairement à ce qui se passe pour les langages formels) mais donnés globalement et simultanément, mais encore doivent être lus dans l'ordre inverse, en partant de la prééminence absolue de l'intérêt pragmatique, laquelle se raffine éventuellement au point de laisser apparaître les trois autres aspects que nous avons considérés ; 2) la distinction établie par Searle entre, d'une part un pré-langage expressif parataxique et un authentique langage descriptif syntaxique est une pure chimère, en fait un sophisme consistant à croire faussement que la partie (morphologique, syntaxique) précède nécessairement le tout (sémantique, pragmatique) ; 3) enfin et surtout que la syntaxe ne nous est, à nous autres humains, pas plus "intrinsèque", au sens où l'entend Searle, qu'elle ne l'est pour l'ordinateur puisque, dans les deux, cas, c'est sous une certaine interprétation qu'une régularité d'usage dans la communication est baptisée "syntaxe" ou "parataxe". En fait, la seule fonction qui soit intrinsèque à la production du langage, et qui, derechef, creuse le fossé entre le vivant et le mécanique, c'est l'intentionalité fondatrice du primat de la pragmatique.

(à suivre ...)

Zhongguoren
Digressi(f/ve)
Digressi(f/ve)

Nombre de messages : 393
Date d'inscription : 23/06/2022

Revenir en haut Aller en bas

La notion d'"intelligence artificielle" et le mystère de la chambre chinoise. Empty Re: La notion d'"intelligence artificielle" et le mystère de la chambre chinoise.

Message par Zhongguoren Jeu 15 Sep - 7:43

Pourtant, l'apprentissage par un locuteur indo-européen de n'importe quelle langue plus synthétique que sa langue maternelle fera prendre conscience du caractère émergent (dans le sens où le tout est donné avant la partie, la partie n'est qu'une abstraction du tout) de la sémantique sur la syntaxe : en latin, par exemple, le terme "morituri" est parataxiquement porteur de sens avant sa décomposition syntaxique formelle et abstraite (ce qui se manifeste, en français, par les quatre termes "ceux qui vont mourir"). Or, le caractère émergent de la sémantique et de la pragmatique est absolument manifeste dans la langue chinois. Comme le souligne Jui Chu Tung dans sa thèse ( https://tel.archives-ouvertes.fr/tel-01371921/document), "une des particularités de la langue chinoise est son monosyllabisme isolant. L'absence de flexions des termes, sans conjugaisons ni déclinaisons, font des mots des unités égales, uniformes, autonomes ; ils sont englobés dans des rapports parataxiques (de juxtaposition) abolissant la syntaxe et renforçant les potentialités d'expression"(Jui Chu Tung, Ecriture Chinoise, Ecriture Occidentale : Variantes de l’Appréhension du Monde). Il n'y a donc, en chinois, à proprement parler, ni règles morphologiques (bien que la configuration des idéogrammes réponde néanmoins à un certain nombre de patterns invariants, les fameuses "clés" ou "racines" répertoriées dans tous les dictionnaires), ni règles syntaxiques, de sorte que le "sens" de ses productions ne fait pas lui-même l'objet d'une sémantique réclamant une application rigoureuse et une interprétation formelle mais tend plutôt vers l'interprétation au sens artistique du terme, au sens où on dit qu'un musicien "interprète" une  œuvre (d'où, évidemment, l'extrême difficulté de traduire la langue chinoise dans une autre langue). De sorte que, contrairement par exemple aux langues indo-européennes munies d'une syntaxe et d'une sémantique relativement rigides, l'intelligence de la langue chinoise par un(e) occidental(e) ne requiert pas la composition d'un sens par l'enchaînement spatial/chronologique des morphèmes, mais plutôt sa com-préhension au sens étymologique (cum prehendere "prendre ensemble") de ce terme que nous avons déjà évoqué à propos de Spinoza. C'est le tout d'une chaîne d'idéogrammes qu'il faut saisir globalement (comme dans l'image propositionnelle de Wittgenstein) pour "comprendre" cette langue. Au point même que les notions de sens ou de sémantique tendent à s'évanouir en chinois. C'est ce que pense François Jullien : "la pensée chinoise est une pensée de la cohérence [co-haere, "tenir ensemble"] plutôt que du sens [...]. Déjà, par sa structure parataxique et si peu régie par la construction grammaticale, le propre de la langue chinoise est de privilégier l'énoncé par corrélation [...] au lieu de ne se livrer qu'à la singularisation d'un sens discursif, en quoi la formulation chinoise est poétique en son principe"(Jullien, la Pensée Chinoise en vis-à-vis de la Philosophie, ix). Par exemple, pour dire, ou plutôt suggérer ce que nous appelons "paysage" ou "panorama", le chinois dira 风景, fēng jǐng, littéralement "vent-lumière" ou 山水, shān shuǐ, "montagne-eau". Ou, pour parler d'une chose, d'un être, d'un truc, d'un machin, d'une entité en général, le chinois dira 东西,  dōng xi, littéralement "est ouest" ! L'analogie qui revient irrésistiblement pour évoquer l'articulation des termes dans la langue chinoise est donc bien celle de la juxtaposition cinématographique de plusieurs images, ou bien de la juxtaposition musicale de plusieurs sonorités, ou encore de la juxtaposition poétique de plusieurs métaphores. De fait si, tout particulièrement dans la langue chinoise, la frontière entre la parataxe et la syntaxe semble beaucoup plus floue et mouvante que dans la plupart des autres langues, cela est dû au fait que l'articulation entre les signes qui est la plus pertinente en chinois est sans doute, comme le dit François Jullien, l'articulation métaphorique/poétique : un sinogramme suggère plus qu'il ne décrit, exprime plus qu'il ne représente, bref, en termes proustiens, traduit, interprète le sentiment plus qu'il ne se réfère à lui. Or la compréhension d'une métaphore est exclusivement affaire de contexte, de rencontre entre des éléments naturels et des considérations culturelles, autrement dit, derechef, un problème pragmatique de part en part. On pourrait presque dire qu'une suite de sinogrammes s'apparente beaucoup plus à une didascalie théâtrale ou à une indication musicale de tempo ou d'intensité (vivace, mezzo voce, etc.) qu'à un algorithme.

Dans ces conditions, que reste-t-il du contre-argument searlien dit de "la chambre chinoise" consistant, rappelons-le, à réfuter le test de Turing en prétendant qu'un humain inintelligent pourrait, à l'instar de l'ordinateur, tromper un interlocuteur chinois en se contentant de manipuler mécaniquement des idéogrammes conformément aux instructions d'un manuel éventuellement mémorisé ? Alan Tan, un étudiant américain d'origine chinoise a récemment répondu au Chinese Room Argument dans son blog (https://towardsdatascience.com/a-chinese-speakers-take-on-the-chinese-room-88a0558b2cc8) en disant (je traduis) : "M. Searle ne parle pas un mot de chinois, ce qui était l'un des éléments clés de l'expérience de pensée, car il doit impérativement s'agir d'un langage que l'expérimentateur ne comprend pas. Il est étonnant qu’à ce jour, peu de chercheurs en Intelligence Artificielle parlant chinois se soient joints au débat"(Alan Tan, a Chinese Speaker's Take on the Chinese Room). Puis il cite cette anecdote tout à fait significative : "nous, les bilingues (en particulier les chercheurs en PNL) jouons souvent le jeu de la traduction récursive - traduisez une phrase de l'anglais vers le chinois, puis traduisez la traduction, les résultats sont souvent hilarants"(loc. cit.). Imaginons en effet que le locuteur cible chinois, après avoir été abusé par la mystification searlienne selon la chronologie opérateur source -> entité inintelligente (mécanique ou humaine) -> locuteur cible, fasse passer les messages en sens inverse, le locuteur cible devenant l'opérateur source, et après avoir pris soin de remplacer dans le message un morphème par un autre que l'usage a consacré comme synonyme dans la plupart des cas (salva significatione) : comme l'entité inintelligente, par hypothèse, ne connaît toujours pas le chinois, elle ne se rendra pas compte qu'elle reçoit, sémantiquement, en input ce qu'elle a précédemment fourni en output et qu'il lui suffit de répliquer en output par l'input initial. Et c'est là que le résultat risque d'être assez "hilarant" : "une plaisanterie commune aux locuteurs chinois est que "中国队大胜美国队" et "中国队大败美国队" signifient en fait que l'équipe chinoise a battu l'équipe américaine. Or, "胜" signifie gagner et "败" signifie perdre. L'explication est que, dans le cas de «perdre», cela signifie en fait «faire perdre». Si vous voulez signifier que l'équipe chinoise a été vaincue, il faut dire "中国队大败于美国队" (大败于 signifie «a été défaite par»)"(loc. cit.). De fait, l'entité inintelligente, homme ou machine, ignorant la langue chinoise, va vraisemblablement produire "l'équipe chinoise a battu l'équipe américaine" en réaction à "中国队大胜美国队", puis "l'équipe chinoise est battue par l'équipe américaine" comme réponse à "中国队大败美国队" au motif que les deux inputs sont morphologiquement constitués de morphèmes (胜 et 败) sémantiquement contradictoires. Or, le principe logique de la consistance formelle (ou encore de non-contradiction) interdit en principe à deux propositions d'être simultanément vraies si elles sont chacune constituées des mêmes morphèmes à deux morphèmes contradictoires près, ce qui est, justement, le cas dans l'exemple ci-dessus. Et comme, par hypothèse, notre entité suit aveuglément, par hypothèse, les instructions syntaxiques de son manuel, elle ne se rendra pas compte que 大胜 et 大败 sont, néanmoins pragmatiquement, donc sémantiquement, expressions synonymes. Comme nous l'avons déjà suggéré, la langue chinoise aime bien défier le principe de (non-)contradiction : 东西 , "est-ouest" pour dire "chose", 大小, "grand-petit" pour dire "taille", 多少, "beaucoup-peu" pour dire "combien", etc. Wittgenstein remarque d'ailleurs avec bon sens que "nous verrions la contradiction d’une toute autre manière si nous considérions son apparition et ses conséquences en quelque sorte de façon anthropologique, plutôt que de la regarder avec l’exagération propre aux mathématiques"(Wittgenstein, Remarques sur le Fondement des Mathématiques, 220). Cela dit, le rôle "anthropologique" (donc pragmatique) plutôt que logique (donc syntaxique) de la contradiction n'est pas caractéristique de la seule langue chinoise. Il se manifeste aussi dans l'humour ou l'ironie. Par exemple, dans le propos de celui qui fera une grimace de dégoût devant son assiette en proférant les paroles "mmmhhh ... que c'est bon !" alors qu'il aurait pu tout aussi bien dire "beurk ... que c'est mauvais !", étant entendu que ce même locuteur est censé savoir que l'usage de "bon" et "mauvais" en a fait des termes contradictoires et non synonymes. Preuve qu'en cas de conflit entre la syntaxe et la pragmatique, c'est, dans les langues naturelles, cette dernière qui l'emporte. Par où l'on voit, encore une fois, que ce qui, dans l'exemple de la langue chinoise est, au grand dam de Searle, particulièrement flagrant, vaut en réalité pour toutes les langues naturelles, c'est-à-dire toutes les langues non-artificielles. D'une manière générale, en effet, parler avec "intelligence" consistera à faire usage d'"une multitude mouvante de métaphores, de métonymies, d'anthropomorphismes, bref, d'"une somme de relations humaines qui ont été poétiquement et rhétoriquement haussées, transposées, ornées, et qui, après un long usage, semblent à un peuple fermes, canoniales et contraignantes"(Nietzsche, Vérité et Mensonge au sens Extra-Moral) et certainement pas à être capable de définir formellement les termes et les règles que nous employons. C'est aussi ce qui fait que, "dans le langage des mots, il y a un fort élément musical (un soupir, l'intonation d'une question, celle de l'annonce, celle des élans du cœur, tous les innombrables gestes de l'intonation)"(Wittgenstein, Fiches, §161). Ce qui, d'une part est particulièrement pertinent dans le cas d'une langue à tons comme le chinois (on imagine aisément le tour cocasse que prendrait le test de Searle s'il se déroulait à l'oral plutôt qu'à l'écrit !) et, d'autre part, rappelle qu'interpréter de la musique n'a jamais consisté à déchiffrer formellement une partition à titre de condition préalable ni suffisante ni même nécessaire. Voilà donc bien toutes les ornières contextuelles ou pragmatiques dans lesquelles ne tombera aucun locuteur moyennement compétent mais auquel succombera immanquablement le philosophe qui, à l'instar de Searle, tiendra la rigueur syntaxique pour la condition de possibilité de la compréhension sémantique, c'est-à-dire, à l'instar des logicistes du début du XX° siècle, considérera la logique formelle comme la matrice de tout langage authentique. Du coup, non seulement l'argument searlien dit "de la chambre chinoise" rate sa cible, mais, paradoxalement, il tend plutôt à réhabiliter le test de Turing. Car, pour peu que les questions posées appellent des réponses non-standardisables mais, au contraire, indissociables d'un certain contexte d'énonciation, et, partant, impossibles à mémoriser, à formaliser ou à mettre en algorithme, n'importe quel locuteur moyennement compétent pourra déceler dans les réponses fournies un éventuel manque d'intelligence de leur auteur relativement au jeu de langage pratiqué.

Pour résumer notre discussion, nous pouvons donc dire que Turing comme Searle ont eu le mérite de poser des problèmes importants. Le premier s'est demandé à quelles conditions on pourrait dire d'une machine qu'elle est "intelligente". Le second s'est interrogé sur la possibilité pour une entité inintelligente (homme ou machine) de faire néanmoins usage d'un langage déterminé. Pour répondre la première question, Turing propose un critère : si, dans une série de réponses à des questions posées à des humains, se trouvent celles d'une machine sans qu'il soit possible de les distinguer d'avec celles d'être humains, alors la machine est réputée "intelligente". Or, sans que la notion ait été préalablement définie ni même problématisée, ce "critère" réduit arbitrairement l'intelligence à une étroite compétence langagière de type scolaire. À cet égard, ledit "critère" de Turing apparaît plutôt comme le symptôme d'une projection ethno-centrée de la culture de son auteur. Mais là n'est pas le plus grave car on ne voit pas comment on pourrait dissocier la notion d'intelligence de celle de vie comme l'ont montré d'autres expériences de pensées célèbres comme, par exemple, celle dite "du cerveau dans la cuve" (the brain in a vat) de Putnam (https://fr.wikipedia.org/wiki/Cerveau_dans_une_cuve), celle "de la chambre de Marie" de Jackson (https://fr.wikibooks.org/wiki/Philosophie/Philosophie_de_l%27esprit/Ce_que_Marie_ne_savait_pas), celle  "du zombie" de Chalmers (https://fr.wikipedia.org/wiki/Zombie_(philosophie)), voire celle du très classique "problème de Molyneux" (https://fr.wikipedia.org/wiki/Problème_de_Molyneux), qui, toutes, tendent à établir qu'il n'est pas d'apprentissage intelligent concevable en dehors des conditions normales de la vie, c'est-à-dire biologiquement déterminées par des fonctions sensibles naturelles intentionnellement tournées vers la survie de l'individu et de l'espèce. En ce sens, la notion d'"intelligence artificielle" serait, au mieux un oxymore, au pire une contradiction. Pour autant, l'expérience de pensée de Turing reste pertinente dans son principe dès lors qu'elle ne vise plus à mesurer un degré d'"intelligence" de la machine mais plutôt un certain degré de mimétisme à l'égard de l'humain. Ce qu'a bien compris Searle qui prétend alors inverser le sens du test de Turing en suggérant que, si, dans une série de réponses à des questions posées à des ordinateurs, se trouvent celles d'un être humain sans qu'il soit possible de les distinguer de celles des machines, alors l'homme sera réputé "idiot". Ce qui dénote une conception du langage caractéristique du même logicisme que celui qui est défendu par Turing, à savoir que tout apprentissage linguistique (que le langage appris soit formel ou naturel) passe nécessairement et chronologiquement par le stade morphologique (l'apprentissage des signes), puis par le stade syntaxique (l'apprentissage des relations entre les signes) avant de parvenir au stade sémantique (celui du sens et de son intelligence) et, éventuellement, au stade pragmatique (celui du contexte naturel et/ou social d'usage). Ce qui, nous dit Searle, permet d'imaginer un homme, qui, comme une machine, exécuterait sans intelligence, un simple algorithme d'instructions syntaxiques et, partant, répondrait pertinemment à n'importe quelle question posée sans pour autant en avoir saisi le sens. En particulier, une entité (mécanique ou humaine) qui ne posséderait pas l'intelligence de la langue chinoise, par exemple, pourrait indifféremment faire semblant de "parler" chinois et, ainsi, berner un véritable interlocuteur chinois. Pour Searle, et à la différence de Turing, la seule chose qui, dans de telles conditions, différencierait l'homme de la machine serait l'usage "intrinsèque" (naturel) de la syntaxe chez l'homme, et c'est cela qui l'autoriserait à accéder au stade 3 (celui de l'intelligence sémantique). Du coup, tant qu'on en resterait au stade 2 (celui de la manipulation syntaxique), il n'y aurait pas de différence entre l'homme et la machine et, par conséquent, pas d'intelligence possible. Or, nous avons vu que l'apprentissage de la syntaxe n'est pas plus "intrinsèque" chez l'être humain qu'il ne l'est pour l'ordinateur, sauf, qu'à la différence d'une syntaxe formelle, la syntaxe naturelle ne produit pas la sémantique mais, tout au contraire, est engendrée par elle, elle-même découlant des conditions pragmatiques de l'existence concrète d'un être vivant visant intentionnellement sa survie et celle de son espèce dans un bio-socio-tope déterminé. Du coup, et contrairement à l'expérience de pensée de Turing qui reste pertinente dans son principe, celle de Searle est complètement absurde. D'abord parce qu'aucun "cobaye" humain n'aborderait un test linguistique en étant dépourvu, même à l'égard d'une langue complètement inconnue de lui, de ces compétences pragmatiques et, partant, sémantiques qui font intrinsèquement défaut à une machine. Ensuite parce que l'expérimentateur final supposé "normal" (celui que le test est supposé "berner") se rendrait vite compte de ce que le "cobaye" ne comprend rien aux instructions données. Enfin et surtout, parce que la langue chinoise est sans doute, de toutes les langues naturelles jamais produites par l'humanité, celle qui se prête le moins à une approche exclusivement morpho-syntaxique telle que préconisée par Searle dans son expérience de pensée. Bref, comment donner tort à Wittgenstein lorsqu'il souligne que "la plupart des propositions et des questions qui ont été écrites touchant les matières philosophiques ne sont pas fausses mais dépourvues de sens. Nous ne pouvons en aucune façon répondre à de telles questions, mais seulement établir leur non-sens. La plupart des propositions et questions des philosophes découlent de notre incompréhension de la logique de la langue"(Wittgenstein, Tractatus, 4.003) ? Voilà donc éclairci le "mystère de la chambre chinoise" : beaucoup de bruit pour rien.

Zhongguoren
Digressi(f/ve)
Digressi(f/ve)

Nombre de messages : 393
Date d'inscription : 23/06/2022

Revenir en haut Aller en bas

La notion d'"intelligence artificielle" et le mystère de la chambre chinoise. Empty Re: La notion d'"intelligence artificielle" et le mystère de la chambre chinoise.

Message par Contenu sponsorisé


Contenu sponsorisé


Revenir en haut Aller en bas

Revenir en haut

- Sujets similaires

 
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum