Daniel Dennett Intentional Systems 1979 Par Albert Lejeune

  • Uploaded by: Albert Lejeune
  • 0
  • 0
  • December 2019
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Daniel Dennett Intentional Systems 1979 Par Albert Lejeune as PDF for free.

More details

  • Words: 1,355
  • Pages: 3
UQAM Programme de doctorat en informatique cognitive Cours DIC 8101

Brainstorms: Philosophical Essays on Mind and Psychology (Harvester studies in philosophy) by Daniel

C. Dennett

Résumé par Albert Lejeune

Remis aux professeurs Jean-Guy Meunier et Pierre Poirier

Montréal, le 18 décembre 2008

1. Systèmes intentionnels Ce chapitre examine le concept d’un système dont le comportement peut être expliqué et prédit en attribuant au système des croyances et des désirs. L’intentionnalité doit être comprise ici comme une caractéristique des entités linguistiques. Un idiome est intentionnel si la substitution de termes conjoints (codesignative) ne préserve pas la vérité.

I.

Une chose est un système intentionnel seulement en relation avec les stratégies d’une personne qui essaye de comprendre et de prédire le comportement de cette chose. En analysant l’exemple de l’ordinateur qui joue aux échecs, on peut distinguer trois points de vue ou postures (stance) : la posture du design (comprendre les instructions du programme), la posture physique (comprendre le fonctionnement des circuits électroniques – posture généralement réservée aux cas de bris) et la posture intentionnelle. Les ordinateurs qui jouent aux échecs ne sont accessibles à la prédiction qu’à travers la posture intentionnelle. La rationalité de ce système est présupposée, ce qui veut dire qu’il dispose d’un design optimal par rapport à ses buts. Dans ce cas, on peut prévoir son comportement en attribuant au système la possession de certaines informations tout en le supposant dirigé vers certains buts. En poussant plus loin, on peut appeler l’information détenue par le système, des croyances, et ses buts, des désirs. Évidemment le point ici n’est pas de soutenir que les ordinateurs ont des croyances et des désirs mais qu’en leur attribuant cela, il est possible de prédire leur comportement. L’adoption de cette posture est une stratégie pragmatique, qu’on ne cherche pas à qualifier de vraie ou de fausse. Quand peut-elle être vraiment payante? Chaque fois que nous pouvons supposer la présence d’un design optimal tout en doutant de la possibilité d’adopter une posture de design ou une posture physique (ex : la découverte de martiens…). Alors l’attribution des croyances et des désirs est interdépendante (notion de circularité) et les seuls points d’ancrage sont les besoins de survie, les régularités dans le comportement et dans le postulat du design optimal. Est-ce pour autant de l’anthropomorphisme? Pas vraiment, tout ce que nous transportons à partir de notre monde sont les catégories de rationalité, de perception et d’action.

II.

Quand nous essayons de prédire le comportement d’un système étranger (ordinateur, martien…) nous développons une théorie du comportement. Comment une telle théorie intentionnelle du comportement peut-elle se relier à d’autres théories du comportement? Tout d’abord le bon sens de nos explications et prédictions du comportement des hommes et des animaux est intentionnelle. Nous partons du postulat de la rationalité. Ce postulat est si fort, qu’en cas d’échec de nos prédictions nous pointons d’abord les conditions de traitement de l’information (‘il n’a pas dû entendre…’). Nous agissons de la même façon avec les animaux. Le postulat de l’intentionnalité d’un système est aussi le postulat de sa rationalité. Si le système est parfaitement rationnel, toutes les vérités logiques vont apparaître; mais dans son imperfection vraisemblable, toutes les lois logiques ne pourront pas être attribuées aux croyances de ce système. Plus les imperfections s’avèrent nombreuses, plus le changement de posture (design ou physique) va s’imposer. Mais si nous faisons cela, nous laissons inexpliquée une bonne part d’intelligence et de rationalité. Illustrons ce point à l’aide d’une métaphore économique. Chaque fois qu’un bâtisseur de théorie propose d’appeler quelque événement, état, structure etc.. signal, message ou commande dans un système (ex : le cerveau), cette personne emprunte de l’intelligence. Cette personne suppose l’existence d’un lecteur de signal, d’un analyseur de messages et d’un centre de commande. Cet emprunt doit être remboursé en étudiant ces lecteurs, analyseurs etc. Sinon la théorie reporte à plus tard la question fondamentale : en quoi ce système est-il intelligent? Ici l’intentionnalité et la rationalité sont évidentes. Les abstractions intentionnelles telles que lecteur de signal, égos et super égos, bibliothèque dans les corridors de la mémoire nous indiquent qu’une

théorie est dans le rouge (en dette) au niveau de l’explication de l’intelligence. L’insuffisance de l’explication intentionnelle du point de vue de la psychologie a été largement ressentie et mal conçue. Ce sentiment vient surtout du béhaviorisme de Skinner et Quine. Ils sont totalement opposés à tout idiome intentionnel. C’est la loi du déficit zéro! Ni emprunt, ni remboursement! Pour Skinner ces idiomes sont aussi vides empiriquement que l’expression ‘virtus dormitiva’ dans la pièce de Molière, lorsque le médecin prépare un somnifère. On peut bien décider sur la base d’évidence que quelque chose est une pièce de cuivre ou du lichen (et cela permet de faire des prédictions) mais décider sur la base d’évidence empirique que quelque chose est un système intentionnel permet de prédire à un niveau logique plutôt qu’empirique. Skinner a essayé de cadrer ses prédictions dans un langage non-intentionnel : des réponses corporelles à des stimuli physiques. Cela ne l’a pas mené au mode de prédiction et d’explication qu’il recherchait. Pour développer ses prédictions, il a mis au point la boîte de Skinner dans laquelle le comportement à récompenser est restreint et le mouvement du corps, stéréotypé (ex : presser un levier). Évidemment Skinner prétend qu’il a trouvé une loi qui relie des événements non intentionnels. Mais voyons! On peut ligoter un mathématicien dans une boîte de Skinner de façon à ce qu’il ne bouge que la tête; mettre une carte à la hauteur de ses yeux où il est écrit ‘Combien font 7x5?’; placer deux boutons à la hauteur de la tête, l’un où il est écrit 35 et l’autre 34; placer des électrodes sur le sol et envoyer des petits chocs; le contrôle sonore du stimulus émettant : ‘Répondez maintenant!’. On peut prédire qu’avant entraînement, essais et erreurs, le mathématicien va enfoncer le bouton 35 avec sa tête. Tout cela constitue-t-il une prédiction scientifique parce qu’on a omis le vocabulaire intentionnel? Non, parce que tout tient à un environnement trop restreint. Skinner voulait éliminer l’intentionnalité, il n’a pu que la masquer! Alors où regarder pour trouver une théorie du comportement qui soit satisfaisante? La tactique la plus prometteuse est de partir avec nos emprunts à l’intelligence, de contribuer aux événements internes et externes avec du contenu et ensuite rechercher des mécanismes qui vont fonctionner correctement avec ces ‘messages’ de façon à rembourser nos emprunts. C’est ce que font les chercheurs en intelligence artificielle avec des applications à la théorie des jeux (où l’intentionnalité est incontournable) et les sciences économiques.

III

Le concept de système intentionnel est relativement peu encombré et non métaphysique. Et il est plus aisé de décider qu’une machine est un système intentionnel plutôt que de se poser la question : pense-t-elle vraiment? Est-elle consciente? Moralement responsable? Pour revenir à la métaphore économique : un 25 cents d’intentionnalité ne permettrait-il pas d’acheter des trésors mentaux? Bien sûr, tous les systèmes intentionnels ne peuvent pas voler, nager ou ... parler. Mais sans systèmes intentionnels capables de parler, il n’y aurait pas d’attribution de croyances, pas de théorie, pas de postulat de rationalité ni de prédiction. La capacité de langage est sans aucun doute le couronnement de l’évolution. Cela nous fait penser qu’à travers l’évolution, l’une des caractéristiques continue est l’interdépendance des organes et des capacités distinctes. Pas de vision lointaine sans locomotion etc. On ne peut donc pas attribuer des croyances à un système sans que ces croyances soient appropriées à l’environnement et que le système réponde de façon appropriée à cet environnement. Autrement dit : la capacité de croire ne porte pas de valeur de survie à moins que ce soit une capacité à croire des vérités. Un poisson soluble dans l’eau est une impossibilité dans l’évolution, de la même façon, on ne peut donner une description cohérente d’un système fonctionnant sur des croyances fausses. Aussi, la capacité de communiquer n’aurait pas pris autant de place dans l’évolution si elle n’était d’abord la faculté de transmettre des croyances vraies. Ce qui signifie : la capacité de modifier les autres membres de l’espèce dans la direction d’un design plus optimal.

Related Documents


More Documents from ""

December 2019 14
November 2019 20
Mtq Aims 2003
December 2019 21
Asac Final 01. Word 6.0
December 2019 13