Science de la cognition

Dans l'article des sciences cognitives, il est exprimé que les cogniticiens appartiennent à la science de la cognition. Nous aborderons par conséquent, dans cet article, le principe même qui a fondé les sciences cognitives : la fusion des savoirs...



Catégories :

Philosophie des sciences - Linguistique - Psychologie cognitive - Philosophie de la connaissance - Sciences cognitives - Philosophie de l'esprit - Philosophie analytique - Courant philosophique

Recherche sur Google Images :


Source image : cognivence.risc.cnrs.fr
Cette image est un résultat de recherche de Google Image. Elle est peut-être réduite par rapport à l'originale et/ou protégée par des droits d'auteur.

Page(s) en rapport avec ce sujet :

  • ... La sémantique cognitive affirme que les concepts lexicaux ne peuvent être étudiés de ... avec les autres sciences qui étudient l'esprit humain (la psychologie, ... lexicales Previous : Grammaires sémantiques Contents... (source : lalic.paris4.sorbonne)
  • Grammaire cognitive et sémantique lexicale. tensionnellement, par conséquent, les concepts peuvent se caractériser par l'existence d'une zone de clair-obscur, ... (source : persee)
  • ... aux terrains d'application les plus visités : la Grammaire cognitive de Langacker, .... Par là, il vise un modèle sémantique qui tout en désormais le référent, ... des principales propositions et des grands concepts de la sémantique de .... De leur côté les sciences cognitives ont depuis les années 1980-1990... (source : corela.edel.univ-poitiers)

Dans l'article des sciences cognitives, il est exprimé que les cogniticiens appartiennent à la science de la cognition. Nous aborderons par conséquent, dans cet article, le principe même qui a fondé les sciences cognitives : la fusion des savoirs des sciences fédérées autour des objectifs cognitifs.

La fédération s'articule autour d'un des objectifs admis par l'ensemble des sciences cognitives : l'utilisation de l'ordinateur pour manipuler les symboliques. L'ordinateur étant une machine ne comprenant que des principes mathématiques, nous nous intéresserons aux différentes approches formelles, par conséquent exprimées sous forme mathématique, des sciences de la cognition.

Nous n'aborderons pas, dans cet article, les Graphes Conceptuels de Sowa puisqu'un article leur est consacré. Il faut cependant savoir que l'approche de Sowa est la plus complète dans le processus d'acquisition / restitution, structuration et interprétation des connaissances. L'objectif de cet article consiste à exposer succinctement les différentes étapes cognitives et des modèles formels (sans leur formalisme) propres à chaque étape.

Introduction

Nous allons tenter de réaliser un tour d'horizon non exhaustif des modélisations existantes pour mettre en application les différentes approches sur un outil informatique ; l'acceptation de l'ordinateur comme outil de simulation et de manipulation symbolique est une caractéristique majeure des sciences cognitives.

Les modèles que nous approchons doivent permettre de simuler le traitement humain de la connaissance :

Les aspects linguistiques

La plupart des travaux réalisés dans ce domaine partent de l'hypothèse qu'un énoncé possède un sens littéral et ils construisent une représentation avec connaissances générales, syntaxiques et sémantiques. Or, l'existence d'un sens littéral n'est pas forcément justifiable d'un point de vue linguistique ou psychologique. La linguistique présente des modèles donnant la possibilité l'acquisition et la restitution de connaissances. Dans les dispositifs à base de connaissances, nous raisonnons sur le sens ; les modèles linguistiques ne sont pas encore parvenus au consensus sur la problématique posée concernant l'articulation entre la syntaxe et la sémantique.

Les grammaires formelles

En 1957, la linguistique s'oriente vers la formalisation suite à une publication[1] de Noam Chomsky dans laquelle il tente de construire une théorie basée sur :

Les grammaires formelles donnent la primauté et une autonomie à la syntaxe ; elles sont centrées sur les règles qui régissent l'ensemble des possibilités d'association des mots entre eux selon leurs catégories lexicales et permettent de décider si une phrase donnée est acceptable ou non dans sa forme syntaxique. Ces modèles sont un mécanisme génératif syntaxique et , les problèmes de sémantique ont montré leurs limites. Pour tenter de pallier ces limites, Chomsky a intégré dans sa théorie standard[2] le principe de transformation. Les grammaires transformationnelles permettent de prendre en compte l'aspect sémantique ce qui rend la problématique d'origine plus cognitive : le modèle devient une théorie complète du langage.

Des critiques ont été émises qui démontrent que le modèle transformationnel équivaut à une grammaire formelle de type 0 (voir [3] et [4]) ce qui ne permet pas de décrire efficacement les langues naturelles. La méthode transformationnelle reste trop attachée à l'analyse syntaxique et ne tient pas suffisamment compte de l'aspect sémantique.

Chomsky a par conséquent étendu sa théorie standard qui a débouché sur la théorie standard étendue[5] dans laquelle il a ajouté une étape d'insertion lexicale avant l'application des transformations.

Cette théorie est claire en apparence, mais il est complexe d'établir et de concevoir les règles d'interprétation sémantique en raisonnant sur un ensemble d'arbres de dérivation ; les propos de Gross[6] expriment cette difficulté : les tentatives d'affiner les descriptions d'une langue en augmentant le nombre de règles d'une grammaire de Chomsky n'aboutissent pas : le nombre de règles croît régulièrement avec la taille du corpus reconnu et aucun signe de convergence n'apparaît. Qui plus est , certains phénomènes linguistiques restent inexplicables par cette théorie.

Les grammaires catégorielles

La grammaire catégorielle est reconnue comme l'aboutissement d'une tendance qui a poussé à abandonner les transformations des grammaires génératives, puis la composante syntagmatique elle-même, pour ne considérer que des structures catégorielles assignées aux éléments lexicaux de telle sorte que la syntaxe se diminue à une algèbre, une combinatoire universelle contrôlée par ces structures catégorielles.

Des règles (., /, \) sont applicables par extension aux structures communes des langages naturels ; nous rencontrons cependant des problèmes de compréhension quand nous traitons des tournures de phrases impersonnelles ou elliptiques. La multi-catégoricité est néfaste à la compréhension. Pour diminuer la complexité d'une phrase, Lambek introduit des règles de changement de type. Il transforme ce dispositif en dispositif déductif par des schémas d'axiomes et d'inférences. Cette grammaire doit cependant être renforcée par une capacité d'analyse sémantique ; c'est sur cette base que Richard Montague développera sa grammaire universelle connue aussi sous le nom de sémantique de Montague.

Les grammaires de cas

Les grammaires de cas s'intéressent aux problèmes des représentations de phrases, dans lesquels nous considérons que les aspects sémantiques sont plus centraux que la syntaxe. Le plus connus des théoriciens est Fillmore grâce à son article célèbre The Case for Case[7]. L'auteur soutient que nous pouvons identifier un ensemble de cas sémantiques servant à mettre en évidence, de la même façon que des cas syntaxiques, les relations du sens qui existent entre les noms (ou groupes nominaux) et le verbe dans une phrase simple. Ce qui est important dans cette théorie, d'un point de vue informaticien, est d'obtenir une représentation de la phrase à partir de laquelle nous pourrons raisonner sur le sens. Sur les bases de cette approche, d'autres modèles ont vu le jour par Grimes[8], Simmons[9] et Shank[10].

Les grammaires systémiques

L'anthropologue Malinowski est à l'origine de cette théorie. Indépendamment de la linguistique générative américaine qui avait choisi une approche mathématique d'un dispositif isolé, Malinowski introduit une notion importante : les aspects fonctionnels du langage ; c'est-à-dire l'obligation d'expliciter le rôle des différents constituants comparé à l'énonciateur. Nous retrouvons là un principe de l'anthropologie qui pense que le langage doit être étudié comme activité sociale principalement liée à son contexte d'utilisation. Firth a repris ces idées pour les adapter pour les insérer dans un cadre linguistique. Il introduit la notion de dispositif : ensemble de choix dans un contexte linguistique spécifique. Enfin, Halliday reprend ces idées ([11] et [12]), les étend et construit une théorie linguistique complète. Les grammaires systémiques sont des grammaires descriptives qui caractérisent les phrases par des ensembles de traits qui peuvent être utilisés par d'autres processus.

Les grammaires fonctionnelles

Dans les grammaires fonctionnelles (voir [13] et [14]), le langage est reconnu comme une activité interactive sociale et non pas un ensemble de phrases en ce sens que la fonction première d'une langue est la communication plus qu'une expression de pensées. Pour ce faire, ces grammaires unifient les informations des dictionnaires et les règles grammaticales qui sont reconnues comme des expressions de contraintes qui sont elles-mêmes des conditions nécessaires pour qu'un élément donné soit une forme correcte.

Tout comme les grammaires systémiques, les grammaires fonctionnelles veulent donner un rôle prédominant aux aspects fonctionnels et relationnels dans la description des expressions linguistiques. Ces théories visent à expliciter les articulations entre les niveaux lexicaux, syntaxiques et sémantiques. Elles donnent le plus souvent naissance à des modèles plus riches et plus souples que les grammaires génératives d'un point de vue informatique.

Notion de concept

Si le mythe des objets physiques est supérieur à la majorité des autres, d'un point de vue épistémologique, c'est qu'il s'est avéré être un instrument plus efficace que les autres mythes, pour insérer une structure maniable dans le flux de l'expérience[15].

L'activité classificatoire est la forme la plus élémentaire de la représentation. Du point de vue de la relation avec l'environnement, classer veut dire reconnaître un certain nombre de discontinuités vitales. L'activité de classification représente la condition minimale de l'adaptation ; on classe comme on peut, mais on classe[16]. La classification conceptuelle a pour objet de préserver les informations que nous avons du monde simulant un support de stockage mémoriel.

Définition

Dans les sciences cognitives, nous pouvons distinguer cinq acceptions différentes, diversement combinées ou confondues, tant en intelligence artificielle qu'en sémantique :

Dans les réseaux à visée lexicographique, l'ensemble des nœuds d'un plan représentent des unités sémantiques et non conceptuelles. Dans les réseaux conceptuels, les concepts représentent des classes de contenus d'une langue construites par le programmeur, par conséquent ces réseaux représentent un modèle partiel de langue, une langue quasi naturelle.

Modèle classique

Selon Lalande[18], tout concept possède une extension qui peut être nulle ; inversement, à toute classe définie d'objets correspond un concept, car nous ne pouvons définir une telle classe sans en indiquer un ensemble de caractères qui appartiennent aux objets de cette classe ainsi qu'à eux seuls et qui permettent de les distinguer de l'ensemble des autres.

La totalité des métaconcepts utilisés dans les travaux terminologiques ont été définis par le comité technique 37 de l'ISO (ISO/TC37) mais ces définitions ne font pas l'unanimité ; les concepts se chevauchent et manquent de précision ; c'est un problème de manque de rigueur.

Pour réaliser une hiérarchie ou un treillis de concepts, il existe deux approches majeures.

La première approche[19] considère qu'un concept est une unité de connaissance qui comprend des propositions vérifiables concernant un élément de référence choisi, exprimé par un terme posant l'hypothèse de l'universalisme de la connaissance ; la définition se fait en trois étapes :

La seconde approche[20] considère qu'un concept se situe à l'articulation entre deux logiques : la logique intentionnelle (niveau de la langue) et la logique extensionnelle (niveau du discours) et se construit de la manière suivante :

Cette seconde approche souligne le rôle essentiel de l'article dans la dénotation d'un ensemble d'entités[21]

La théorie des prototypes

Ce modèle considère que la formation de concepts est une composante principale du processus cognitif. Le terme prototype est utilisé pour mettre l'accent sur la conceptualisation par objet représentatif ou typique d'un groupe d'objets.

Ce modèle[22] a pour base les études sur les concepts naturels menées par les psychologues dans les années 1970. Ces chercheurs ont avancé que le modèle de formation classique mettait en évidence des concepts artificiels ce qui n'est pas applicable aux concepts naturels. Les psychologues qui ont élaboré ce modèle rejettent l'hypothèse de Sapir-Whorf (voir [23] et [24]) et affirment la validité de l'universalisme cognitif.

Remarque

Sowa, dans sa théorie[25] des graphes conceptuels, a rendu son principe de concept mois restrictif ou moins strict en donnant la possibilité les deux approches.

Représentation conceptuelle

La représentation conceptuelle consiste à construire une théorie nommée réseau sémantique. L'unité de base qu'est le concept prend tout son sens par les relations conceptuelles qui le lie aux autres concepts. Cette étape consiste à introduire la notion de raisonnement, condition indispensable pour passer de la nature informative des concepts à la nature de connaissances.

Les relations sont multiples dans les réseaux sémantiques. Cependant, le lien principal est le lien hiérarchique (particularisation dans l'approche des prototypes) servant à construire une hiérarchie sur laquelle s'opère le raisonnement par composition et les inférences. L'une des problématiques de ce liens est qu'il s'applique tant d'une classe vers une sous-classe que d'une classe vers un individu, ce qui peut générer des ambiguïtés artificielles dues à l'amalgame entre inclusion mathématique (classe – sous-classe) et l'appartenance mathématique (classe – individu).

Au-delà de ce lien nous pouvons citer :

Les réseaux à propagation de marqueurs

Cette approche[29] propose de simuler le fonctionnement neurobiologique d'un ensemble d'éléments capables de propager un nombre limité d'informations en utilisant la notion de parallélisme. Elle propose que les nœuds et les arcs soient reconnus comme des microprocesseurs possédant une mémoire locale d'une douzaine de bits dans lesquels nous pouvons stocker des marqueurs. Elle introduit un superviseur qui a en charge la gestion globale du réseau ; transmission de messages ordonnant aux nœuds de propager des marqueurs d'un certain type sous certaines conditions. Quand un nœud reçoit un message de propagation, il va marquer l'ensemble des arcs dont il est à l'origine et qui remplissent les conditions indiquées. Un aspect intéressant de cette théorie est de représenter chaque concept par deux nœuds :

Pour pallier le problème des exceptions, cette approche distingue deux types de liens sorte de : universel et annulable ; ce qui permet, en introduisant un lien exception, d'annuler un lien annulable.

Les réseaux à propagation de marqueurs sont particulièrement intéressants d'un point de vue temps de réponse. En effet, le temps de raisonnement est proportionnel au diamètre du réseau. Cette propriété prend toute son importance quand nous savons, par expérience, que même pour des applications complexes possédant la plupart de nœuds et d'arcs, le diamètre des réseaux reste assez restreint. Cependant, ces réseaux ont un problème majeur ; ils ne peuvent exprimer certaines informations qui peuvent l'être en logique du premier ordre.

Les réseaux sémantiques partitionnés

Cette approche[30] délimite des sous-ensembles de nœuds et d'arcs nommés espace. Ces espaces représentent un ensemble de concepts et les affirmations à leur sujet. Ce modèle introduit la notion de vista : la composition d'espaces individuels, fréquemment représentée par des emboîtements que nous pouvons considérer comme une hiérarchie qui apporte un mécanisme de représentation contextuelle des connaissances. Le principe est que, à l'intérieur d'une vista, les connaissances exprimées dans les espaces parents sont globales pour l'ensemble des espaces fils tandis que dans les espaces voisins (situés au même niveau) sont représentées des connaissances locales non partageables.

Dans ce modèle, les nœuds représentent des classes ou des individus. Les arcs établissent des relations ensemblistes entre les nœuds et permettront l'héritage des propriétés. D'autres types d'arcs vont représenter des relations sémantiques liées à des concepts prédicatifs.

Les réseaux sémantiques partitionnés dépassent les capacités de la logique classique. En effet, le principe d'espace sert à tenir compte des notions de points de vue et de contexte. Cependant, ils restent complexe à mettre en œuvre sur un outil informatique.

Conclusion

Actuellement, aucun modèle ne tient compte de la totalité des problématiques exposées. Un désaccord profond persiste entre les différentes sciences spécifiquement concernant l'articulation de la syntaxe et des autres processus mis en jeu dans la compréhension des langues.

Références

  1. Chomsky N. - Syntactic structures, Mouton, La Haye (Traduction française : structures syntaxiques, 1959, Le Seuil, Paris)., 1957
  2. Chomsky N. - Aspects of the Theory of Syntax, MIT Press, Cambridge, MA, 1965, ISBN 0-26253-007-4
  3. Salomaa A. - The generative power of transformational grammars of Ginsburg and Partee, Information and control, 18, pp. 227-232, 1971
  4. Peters P. S., Richtie R. W. - On the generative power of transformational grammars, Information science, 6, pp. 49-83, 1973
  5. Chomsky N. - Reflexions on language, Pantheon, New Jersey (Traduction française de Milner, Vautherin et Flala (1977), Payot, Paris)., 1975
  6. Sabah G. - L'intelligence artificielle et le langage - représentations des connaissances - 2e édition, Volume 1, Hermés, ISBN 2-86601-134-1, ISSN 0988-0569, 1990
  7. Fillmore C. - The Case for Case, in Universals in linguistic theory, Bach & Harms, Chicago, Holt, Rinehart and Winston, pages 1-90, 1968
  8. Grimes J. - The thread of discourse, Rapport technique NSF, Cornell university, 1972
  9. Simmons R. - On managing sentence meanings, Report NL-20, Department of computer science, University of Texas, Austin, 1974
  10. Schank R. - Conceptual dependency : a theory of natural language understanding, Cognitive psychology, volume 3, pages 552 - 631, 1972
  11. Halliday M. - An Introduction to Functional Grammar. Edward Arnold, Londres 1985
  12. Halliday M. - An Introduction to Functional Grammar - Second Edition. Edward Arnold, Londres 1994
  13. Kay M. - Functional grammars, Actes 5th, Annual meeting of the Berkeley linguistic society, pages 142-158., 1979
  14. Bresnan J., Kaplan R. - Lexical functional grammar ; a formal system for grammatical representation, in the mental representation of grammatical relations, Edité par Joan Bresnan, MIT Press, Cambridge, Mass, 1981
  15. Quine W. - in De Vienne à Cambridge, Gallimard, 1980
  16. Lévi-Strauss C. - La pensée sauvage, Plon, 1962
  17. Rastier F. - Sémantique et recherche cognitives, PUF, Paris, 1991
  18. Lalande A. - Vocabulaire technique et critique de la philosophie, 1985
  19. Dahlberg I. - Conceptual definition for INTERCONCONCEPT, International Classification, Volume 8, Pages 16-22, Francfort, 1981
  20. Le Guern M. - Sur les relations entre terminologie et lexique, in Actes du colloque Les terminologies spécialisées - Approche quantitative et logico-sémantique, Montréal, octobre 1988, Meta, Volume XXXIV/3, 1989
  21. Nef F. - Logique, Langage et réalité, Editions universitaires, Collection Langage, Paris, 1991
  22. Bussmann S. - Prototypical Concept Formation : an Approach to Knowledge Representation, Technical Memo TM-19-15, DFKI Saarbrücken, 1991
  23. Sapir E. - Selected writings of Edward Sapir in Language, Culture and Personality, D. G. Mandelbaum, Ed, Berkeley : University of California Press, 1963
  24. Whorf B. L. - Language, Thought, and Reality : Selected writings of Benjamin Lee Whorf, J. B. Carrol, Ed, MIT Press, 1956
  25. Sowa J. F. - Conceptual Structures : Information Processing in Mind and Machine, Addison-Wesley, ISBN 0-201-14472-7, 1984
  26. Guarino N. - A Concise Presentation of ITL, M. Richter eds, 1991
  27. Simmons P. - Three Essays in Formal Ontology : I - The formalization of Husserl's Theory of Wholes and Parts, B. Smith eds, Muenchen, 1982
  28. Simmons P. - Parts : a Study of Ontology, Clarendon Press, Oxford, 1987
  29. Fahlman S. - NETL : a system for representing and using real-world knowledge, MIT Press, Cambridge Mass, 1979
  30. Hendrix G. - Encoding knowledge in partitioned networks, in associative networks : representation and use of knowledge by computers, pages 51-92, Findler, Academic Press, New York, 1979

Ouvrages généraux

Liens externes

Recherche sur Amazone (livres) :



Ce texte est issu de l'encyclopédie Wikipedia. Vous pouvez consulter sa version originale dans cette encyclopédie à l'adresse http://fr.wikipedia.org/wiki/Science_de_la_cognition.
Voir la liste des contributeurs.
La version présentée ici à été extraite depuis cette source le 09/03/2010.
Ce texte est disponible sous les termes de la licence de documentation libre GNU (GFDL).
La liste des définitions proposées en tête de page est une sélection parmi les résultats obtenus à l'aide de la commande "define:" de Google.
Cette page fait partie du projet Wikibis.
Accueil Recherche Aller au contenuDébut page
ContactContact ImprimerImprimer liens d'évitement et raccourcis clavierAccessibilité
Aller au menu