La notion de représentation est omniprésente au sein des sciences cognitives : on ne cesse d'y parler de « représentation des connaissances », d'« images mentales », de « réseaux sémantiques », de « symboles »... La représentation est même une notion fondatrice des sciences cognitives, qui sont nées en réaction au bannissement par la psychologie béhavioriste des notions d'« états mentaux ». D'autre part, elles se sont forgées autour d'une conception de l'esprit comme manipulation de représentations symboliques (sur le modèle du traitement de l'information par les ordinateurs). Mais, ce faisant, il n'est pas étonnant non plus que les sciences cognitives héritent de toutes les difficultés philosophiques traditionnelles de cette notion. Peut-on pour autant s'en passer ?
Les problèmes classiques
Revenons en effet à Platon. Si la pensée peut être vraie, elle doit représenter le réel. Mais les données sensibles et les images le font mal. Quelle est la bonne représentation ? Celle qui atteint les « Idées ». Mais comment les « Idées » peuvent-elles se réaliser dans le sensible ? Dans le Théétète, Socrate examine la théorie selon laquelle la pensée acquiert son contenu par l'intermédiaire d'une empreinte de la réalité elle-même sur l'esprit. Si la connaissance est un tel processus causal, il se demande comment il est possible de penser ce qui n'est pas, comment expliquer l'erreur.
Sautons une vingtaine de siècles, et allons au xviie, au moment où s'impose, sous l'influence de René Descartes (1596-1650) et de John Locke (1632-1704), la conception classique de l'esprit comme représentation du monde par l'intermédiaire d'idées. Locke les classe en toutes sortes de catégories : singulières, abstraites, relatives à l'espace, au temps, aux nombres, aux relations, aux substances, etc. Il rencontre ainsi un premier problème, celui de l'abstraction, et soutient, contre Descartes, que les idées abstraites ne sont pas innées, mais dérivent toutes du sensible. Le second problème de la théorie de Locke, et sur lequel George Berkeley (1685-1753) insista, est celui de savoir comment l'esprit, s'il n'a accès qu'à ses propres idées, peut savoir s'il représente bien une réalité extérieure : si une idée ne peut être confrontée qu'à une autre idée, comment peut-elle l'être à la réalité et avoir réellement un contenu représentatif ?
Appelons ce problème celui de la régression. Il revient aussi dans la théorie du langage de Locke : si un mot ne signifie qu'en exprimant une idée, comment savoir ce qu'il signifie, sinon par l'intermédiaire d'une autre idée, et ainsi de suite ?
Une autre version du même problème, connue sous le nom de « problème de l'homoncule », peut se formuler dans le cadre de la théorie associationniste des idées de David Hume (1711-1776) : si les idées s'associent pour former des représentations, ne faut-il pas poser un petit homoncule à l'intérieur de nous qui les comprend, mais aussi un autre homoncule comprenant le premier?, etc.
La théorie computationnelle- représentationnelle de l'esprit
Sautons encore trois siècles. La théorie dite « classique » de l'esprit en sciences cognitives est aussi une théorie représentationniste de l'esprit, à cette différence près qu'elle soutient que les représentations mentales peuvent être identifiées, au niveau cérébral, à des symboles d'un « langage de la pensée » interne, reposant sur des processus physiques de calcul ou de « computation », à l'instar des symboles du langage d'un ordinateur. C'est la conception notamment défendue par Jerry Fodor (voir l'article, p. 10). Il semble de prime abord que cette conception puisse éviter les problèmes de la régression et de l'homoncule, car à un moment, les symboles mentaux seront définis uniquement par leurs propriétés formelles, et en dernière instance par leurs propriétés physiques. Mais comment les symboles seront-ils, une fois traduits dans le langage mental, eux-mêmes interprétés ? Ne faudra-t-il pas recourir à un autre intermédiaire représentatif pour cela ?
Une autre version du problème de G. Berkeley est plus connue sous la forme que lui a donnée le philosophe John Searle, avec sa célèbre expérience de pensée de la « chambre chinoise ». Un programme d'ordinateur se comporte de la même manière qu'il connaisse ou ignore le sens des symboles qu'il manipule. Les éléments du programme sont identifiés de manière purement syntaxique et ses opérations se passent sans référence à une interprétation qu'on peut en donner qui relie les propriétés internes des représentations à des traits sémantiques représentant la réalité. Comme on le dit quelquefois, l'ordinateur n'est qu'un « moteur syntaxique », et non sémantique.
Certains philosophes, comme J. Fodor, ou certains linguistes, comme Noam Chomsky, acceptent une forme d'« internalisme » selon laquelle l'esprit est en quelque sorte muré dans ses représentations internes. On peut aussi soutenir que les états mentaux s'identifient non pas à des représentations concrètes dans l'esprit, mais aux rôles fonctionnels ou causaux qu'ils jouent dans un système cognitif (c'est la thèse du fonctionnalisme). Le problème est alors que deux êtres dont les rôles fonctionnels sont identiques peuvent avoir des représentations distinctes. Par exemple, vous pouvez, tout comme moi, avoir les mêmes réactions aux feux rouges, bien que vous les voyiez, pour votre part, verts (vous vous arrêtez à ce que vous voyez vert, et passez à ce que vous voyez rouge - là aussi c'est un problème qu'identifia J. Locke, celui du « spectre inversé » des couleurs). Les rôles causaux ne sont pas assez fins pour identifier les représentations.