Intelligence artificielle

L'intelligence artificielle est la «recherche de moyens susceptibles de doter les dispositifs informatiques de capacités intellectuelles identiques à celles des êtres humains».



Catégories :

Intelligence artificielle - Concept de la science-fiction - Transhumanisme - Courant philosophique - Lexique et notions du jeu vidéo - Systémique

Recherche sur Google Images :


Source image : cinemovies.fr
Cette image est un résultat de recherche de Google Image. Elle est peut-être réduite par rapport à l'originale et/ou protégée par des droits d'auteur.

Page(s) en rapport avec ce sujet :

  • Ici, l'intelligence artificielle est mise en scène dans des systèmes interactifs qui font appel aux capacités mnémoniques du spectateur.... (source : parachute)
Le robot humanoïde ASIMO

L'intelligence artificielle est la «recherche de moyens susceptibles de doter les dispositifs informatiques de capacités intellectuelles identiques à celles des êtres humains»[1].

Définition

Le terme intelligence artificielle, créé par John McCarthy, est fréquemment abrégé par le sigle IA. Il est défini par l'un de ses créateurs, Marvin Lee Minsky, comme «la construction de programmes informatiques qui s'adonnent à des tâches qui sont , pour le moment, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l'apprentissage perceptuel, l'organisation de la mémoire et le raisonnement critique». [2] On y trouve par conséquent le côté «artificiel» atteint par l'usage des ordinateurs ou de processus électroniques élaborés et le côté «intelligence» associé à son but d'imiter le comportement. Cette imitation peut se faire dans le raisonnement, par exemple dans les jeux ou la pratique de mathématiques, dans la compréhension des langues naturelles, dans la perception : visuelle (interprétation des images et des scènes), auditive (compréhension du langage parlé) ou par d'autres capteurs, dans la commande d'un robot dans un milieu inconnu ou hostile.

Même si elles respectent globalement la définition de Minsky, il existe un certain nombre de définitions différentes de l'IA qui fluctuent sur deux points fondamentaux[3] :

Deep Blue, le premier ordinateur à battre un champion du monde d'échec en titre.

Histoire

L'origine de l'intelligence artificielle se trouve certainement dans l'article d'Alan Turing «Computing Machinery and Intelligence» (Mind, octobre 1950) [4], où Turing explore le problème et propose une expérience désormais connue sous le nom de test de Turing dans une tentative de définition d'un standard servant à qualifier une machine de «consciente». Il développe cette idée dans plusieurs forums, dans la conférence «L'intelligence de la machine, une idée hérétique»[5], dans la conférence qu'il donne à la BBC 3e programme le 15 mai 1951 «Est-ce que les calculateurs numériques peuvent penser ?»[6] ou la discussion avec M. H. A. Newman, AMT, Sir Geoffrey Jefferson et R. B. Braithwaite le 14 et 23 Jan. 1952 sur le thème «Est-ce que les ordinateurs peuvent penser?»[7].

On considère que l'intelligence artificielle, comme domaine de recherche, a été créée à la conférence qui s'est tenue sur le campus de Dartmouth College pendant l'été 1956[8] à laquelle assistaient ceux qui vont marquer la discipline. Par la suite l'intelligence se développe en particulier aux États-Unis à l'université Stanford sous l'impulsion de John McCarthy, au MIT sous celle de Marvin Minsky, à l'université Carnegie Mellon sous celle de Allen Newell et Herbert Simon ainsi qu'à l'université d'Édimbourg sous celle de Donald Michie. En France, l'un des pionniers est Jacques Pitrat.

Intelligence artificielle forte

Définition

Le concept d'intelligence artificielle forte fait référence à une machine capable non seulement de produire un comportement intelligent, mais d'éprouver une impression d'une réelle conscience de soi, de «vrais sentiments» (quoi qu'on puisse mettre derrière ces mots), et «une compréhension de ses propres raisonnements» .

L'intelligence artificielle forte a servi de moteur à la discipline, mais a aussi suscité de nombreux débats. En se fondant sur le constat que la conscience a un support biologique et par conséquent matériel, la majorité des scientifiques ne voient pas d'obstacle de principe à créer un jour une intelligence consciente sur un support matériel autre que biologique. Selon les tenants de l'IA forte, si à l'heure actuelle il n'y a pas d'ordinateurs ou de robots aussi intelligents que l'être humain, ce n'est pas un problème d'outil mais de conception. Il n'y aurait aucune limite fonctionnelle (un ordinateur est une machine de Turing universelle avec pour seules limites les limites de la calculabilité), il n'y aurait que des limites liées à l'aptitude humaine à concevoir le programme approprié. Elle permet surtout de modéliser des idées abstraites.

Estimation de faisabilité

On peut être tenté de comparer la capacité de traitement de l'information d'un cerveau humain à celle d'un ordinateur pour estimer la faisabilité d'une IA forte. Il s'agit cependant d'un exercice purement spéculatif, et la pertinence de cette comparaison n'est pas établie. Cette estimation particulièrement grossière est en particulier conçue pour préciser les ordres de grandeur en présence.

Un ordinateur typique de 1970 effectuait 107 opérations logiques par seconde, et occupait par conséquent - géométriquement - une sorte de milieu entre une balance de Roberval (1 opération logique par seconde) et le cerveau humain (grossièrement 2 x 1014 opérations logiques par seconde, car constitué de 2 x 1012 neurones ne pouvant chacun commuter plus de 100 fois par seconde) .

En 2005, un microprocesseur typique traite 64 bits en parallèle (128 dans le cas de machines à double cœur) à une vitesse typique de 2 GHz, ce qui place en puissance brute dans les 1011 opérations logiques par seconde. En ce qui concerne ces machines destinées au spécifique, l'écart s'est par conséquent nettement réduit. En ce qui concerne les machines comme Blue Gene, il a même changé de sens.

Le matériel serait par conséquent désormais présent. Du logiciel à la mesure de ce matériel resterait à développer. En effet, l'important n'est pas de raisonner plus vite, en traitant plus de données, ou en mémorisant plus de choses que le cerveau humain, l'important est de traiter les informations de manière appropriée.

L'IA souligne la difficulté à expliciter l'ensemble des connaissances utiles à la résolution d'un problème complexe. Certaines connaissances dites implicites sont acquises par l'expérience et mal formalisables. A titre d'exemple, qu'est-ce qui distingue un visage familier de deux cents autres ? Nous ne savons clairement l'exprimer.

L'apprentissage de ces connaissances implicites par l'expérience semble une voie prometteuse (voir Réseau de neurones). Néanmoins, un autre type de complexité apparaît, la complexité structurelle. Comment mettre en relation des modules spécialisés pour traiter un certain type d'informations, par exemple un dispositif de reconnaissance des formes visuelles, un dispositif de reconnaissance de la parole, un dispositif lié à la motivation, à la coordination motrice, au langage, etc. Par contre, une fois un tel dispositif conçu et un apprentissage par l'expérience réalisé, l'intelligence du robot pourrait certainement être dupliquée en grand nombre d'exemplaires.

Diversité des opinions

Les principales opinions soutenues pour répondre à la question d'une intelligence artificielle consciente sont les suivantes :

Des auteurs comme Hofstadter (mais déjà avant lui Arthur C. Clarke ou Alan Turing) (voir le test de Turing) expriment d'autre part un doute sur la possibilité de faire la différence entre une intelligence artificielle qui éprouverait réellement une conscience, et une autre qui simulerait précisément ce comportement. Après tout, nous ne pouvons même pas être certains que d'autres consciences que la nôtre (chez des humains s'entend) éprouvent réellement quoi que ce soit. On retrouve là le problème connu du solipsisme en philosophie.

Travaux complémentaires

Cette spéculation reste néanmoins marginale comparé aux travaux des neurosciences. L'action de phénomènes quantiques est évidente dans le cas de la rétine (quelques quanta de lumière uniquement suffisent à une vision) ou de l'odorat, mais elle ne forme pas une condition préalable à un traitement efficace de l'information. En effet, le traitement de l'information effectué par le cerveau est assez robuste et ne dépend pas de l'état quantique de chaque molécule, ni même de la présence ou de la connexion de neurones isolés.

Cela dit, l'intelligence artificielle est loin de se limiter aux seuls réseaux de neurones, qui ne sont le plus souvent utilisés que comme classifieurs. Les techniques de résolution générale de problèmes et la logique des prédicats[12], entre autres, ont apporté des résultats spectaculaires et sont exploités par les ingénieurs dans de nombreux domaines.

Intelligence artificielle faible

La notion d'intelligence artificielle faible forme une approche pragmatique d'ingénieur : chercher à construire des dispositifs de plus en plus autonomes (pour diminuer le coût de leur supervision), des algorithmes capables de résoudre des problèmes d'une certaine classe, etc. Mais, cette fois, la machine simule l'intelligence, elle semble agir comme si elle était intelligente. On en voit des exemples concrets avec les programmes qui tentent de passer le test de Turing, comme ELIZA. Ces programmes parviennent à imiter de façon grossière le comportement d'humains face à d'autres humains lors d'un dialogue. Ces programmes «semblent» intelligents, mais ne le sont pas. Les tenants de l'IA forte admettent qu'il y a bien dans ce cas une simulation de comportements intelligents, mais qu'il est aisé de le découvrir et qu'on ne peut par conséquent généraliser. En effet, si on ne peut différencier expérimentalement deux comportements intelligents, celui d'une machine et celui d'un humain, comment peut-on prétendre que les deux choses ont des propriétés différentes ? Le terme même de «simulation de l'intelligence» est contesté et devrait, toujours selon eux, être remplacé par «reproduction de l'intelligence».

Les tenants de l'IA faible arguent que la majorité des techniques actuelles d'intelligence artificielle sont inspirées de leur paradigme. Ce serait par exemple la démarche utilisée par IBM dans son projet appelé Autonomic computing. La controverse persiste néanmoins avec les tenants de l'IA forte qui contestent cette interprétation.

Simple évolution, par conséquent, et non révolution : l'intelligence artificielle s'inscrit à ce compte dans la droite succession de ce qu'ont été la recherche opérationnelle dans les années 1960, le process control dans les années 1970, l'aide à la décision dans les années 1980 et le data mining dans les années 1990. Et, qui plus est , avec une certaine continuité.

Il s'agit en particulier d'intelligence humaine reconstituée, et de programmation d'un apprentissage.

Estimation de faisabilité

Critères envisageables d'un dispositif de dialogue évolué

Le sémanticien François Rastier, après avoir rappelé les positions de Turing et de Grice à ce sujet, propose[13] six «préceptes» conditionnant un dispositif de dialogue évalué, en précisant qu'elles déjà sont mises en œuvre par des dispositifs existants :

Il suggère aussi que le dispositif devrait être en mesure de se faire par lui-même une représentation de l'utilisateur auquel il a affaire, pour s'adapter à lui. De son côté, l'utilisateur a tendance à s'adapter au dispositif à partir du moment où il a bien compris qu'il s'adresse à une machine : il ne conversera pas de la même manière avec un dispositif automatisé qu'avec un interlocuteur humain, ce qui présente pour le concepteur l'avantage pragmatique de simplifier certains aspects du dialogue.

Courants de pensée

La cybernétique naissante des années quarante revendiquait particulièrement clairement son caractère pluridisciplinaire et se nourrissait des contributions les plus diverses : neurophysiologie, psychologie, logique, sciences sociales… Et c'est tout naturellement qu'elle envisagea deux approches des dispositifs, deux approches reprises par les sciences cognitives et par conséquent l'intelligence artificielle :

Ces deux approches se révèlent plutôt complémentaires que contradictoires : on est à l'aise pour décomposer rapidement ce qu'on connaît bien, et une approche pragmatique à partir des seuls élements qu'on connaît pour se familiariser avec les concepts émergents est plus utile pour le domaines inconnus. Elles sont respectivement à la base des hypothèses de travail que forment le cognitivisme et le connexionnisme, qui tentent actuellement (2005) d'opérer progressivement leur fusion.

Cognitivisme

Le cognitivisme considère que le vivant, tel un ordinateur (bien que par des procédés bien entendu particulièrement différents), manipule principalement des symboles élémentaires. Dans son ouvrage La société de l'esprit, Marvin Minsky, s'appuyant sur des observations du psychologue Jean Piaget envisage le processus cognitif comme une compétition d'agents fournissant des réponses partielles et dont les avis sont arbitrés par d'autres agents. Il cite les exemples suivants de Piaget :

Au bout du compte, ces jeux d'enfants se révèlent essentiels à la formation de l'esprit, qui dégagent quelques règles pour arbitrer les différents éléments d'appréciation qu'il fait la connaissance de , par essais et erreurs.

Connexionnisme

Le connexionnisme, se référant aux processus auto-organisationnels, envisage la cognition comme le résultat d'une interaction globale des parties élémentaires d'un dispositif. On ne peut nier que le chien dispose d'une sorte de connaissance des équations différentielles du mouvement, dans la mesure où il arrive à attraper un bâton au vol. Et pas davantage qu'un chat ait aussi une sorte de connaissance de la loi de chute des corps, dans la mesure où il se comporte comme s'il savait à partir de quelle hauteur il ne doit plus essayer de sauter directement pour se diriger vers le sol. Cette faculté qui évoque légèrement l'intuition des philosophes se caractériserait par la prise en compte et la consolidation d'éléments perceptifs dont aucun pris isolément n'atteint le seuil de la conscience, ou en tout cas n'y déclenche d'interprétation spécifique.

Synthèse

Trois concepts reviennent de façon récurrente dans la majorité des travaux :

Les différentes facettes de l'intelligence artificielle

On considère généralement différents systèmes intervenant, ensemble ou scindément, dans un dispositif d'intelligence artificielle tels que :

Les réalisations actuelles de l'intelligence artificielle peut intervenir dans des fonctions :

La conception de dispositifs d'IA

Au fil du temps, certains langages de programmation se sont avérés plus commodes que d'autres pour écrire des applications d'intelligence artificielle. Parmi ceux-ci, Lisp et Prolog furent probablement les plus médiatisés. Lisp formait une solution ingénieuse pour faire de l'intelligence artificielle en FORTRAN. ELIZA (le premier chatterbot, par conséquent pas de la «véritable» intelligence artificielle) tenait en trois pages de SNOBOL.

On utilise aussi, plus pour des raisons de disponibilité et de performance que de commodité, des langages classiques tels que C ou C++. Lisp a eu pour sa part une série de successeurs plus ou moins inspirés de lui, dont le langage Scheme.

Des programmes de démonstration de théorèmes géométriques simples ont existé dès les années 1960; et des logiciels aussi triviaux que Maple et Mathematica effectuent actuellement des travaux d'intégration symbolique qui il y a trente ans toujours étaient du ressort d'un étudiant de mathématiques supérieures. Mais ces programmes ne savent pas plus qu'ils effectuent des démonstrations géométriques ou algébriques que Deep Blue ne savait qu'il jouait aux échecs (ou un programme de facturation qu'il calcule une facture). Ces cas représentent par conséquent plus des opérations intellectuelles assistées par ordinateur faisant appel à la puissance de calcul que de l'intelligence artificielle à proprement parler[14].

Domaines d'application

L'intelligence artificielle a été et est utilisée (ou intervient) dans une variété de domaines tels que :

Jeux vidéo

L'intelligence artificielle a par exemple été utilisée depuis longtemps dans la conception de joueur artificiel pour le jeu d'échecs.

Cependant, c'est dans les jeux vidéo que l'intelligence artificielle s'est révélée le plus et aussi à l'endroit où elle présente un très grand potentiel. Celle-ci bénéficie en effet des progrès de l'informatique, avec par exemple les cartes graphiques dédiées qui déchargent le processeur principal des tâches graphiques. Le processeur principal peut désormais être utilisé pour développer des dispositifs d'IA plus peaufinés.

Par exemple l'intelligence artificielle est parfois utilisée pour'piloter'des bots (c'est-à-dire les personnages artificiels) évoluant dans les MMOGs ou les mondes virtuels, mais on peut aussi citer son utilisation dans des jeux de simulation, ou pour animer des personnages artificiels.

Dans le domaine du jeu vidéo, l'IA caractérise toute prise de décision d'un personnage (ou d'un groupe) géré par le jeu, et contraint par l'intérêt ludique : une «meilleure» IA ne donne pas nécessairement un jeu plus jouable[15], l'objectif est de donner l'illusion d'un comportement intelligent[15]. L'éventail de sujets (recherche de chemin, animation procédurale, planifications stratégiques…) sont réalisables par différentes techniques classiques issues de deux paradigmes différents : IA symbolique (automates, script, systèmes multi-agents…), et IA localisée (réseau de neurones, algorithmes évolutionnistes…)  ; où l'une est fortement dépendante de l'expertise humaine, et l'autre de l'expérience en situation[16]. La première approche est globalement préférée, car mieux contrôlée, mais la seconde est préférée pour certains comportements (déplacement d'une formation, désirs/satisfactions) [17]. Elles partagent l'ensemble des mêmes contraintes de ressources restreintes, que ce soit en mémoire, en temps de développement, ou en temps de calcul, même si globalement ces ressources augmentent plus les projets sont récents[17].

Jusqu'à la fin des années 1990, l'IA dans les jeux vidéo (surtout dans les jeux en temps réel) a été délaissée comparé au rendu visuel et sonore. L'«évolution vers des univers encore plus réalistes, leur peuplement par des personnages […] aux comportements crédibles devient une problématique importante»[16]. Pour éviter ce contraste, et couplé dans le même temps au délestage d'une grosse partie de l'aspect graphique des processeurs vers les cartes graphiques[18], on constate a cette période une augmentation des ressources investies dans l'IA (temps de développement, ressource processeur) [18]. Certains jeux sont précurseurs (Creatures, Black & White) car l'IA y forme l'élément central ludique. Partant d'une approche à base de règles rigides, les jeux utilisent alors des IA plus flexibles, diversifiant les techniques mises en œuvre[15]. Actuellement la majorité des jeux vidéo utilisent des solutions ad hoc, il existe néanmoins des solutions middleware et aussi des solutions matérielles[19] cependant particulièrement minoritaires.

Avec les jeux en réseau, le besoin d'IA a dans un premier temps été négligé[18], mais, en particulier avec la naissance des jeux massivement multijoueur, et la présence d'un nombre particulièrement important de joueurs humain se confrontant à des personnages non joueur, ces derniers ont un besoin particulièrement important de pouvoir s'adapter à des situations qui ne peuvent être prévues. Aujourd'hui ces types de jeux intéressent spécifiquement des chercheurs en IA, y trouvant un environnement correct pour y éprouver différentes architectures adaptatives[16].

L'«IA scriptée» n'est qu'une reconstitution de l'intelligence, du type : «si le joueur a telle position, alors, que 2 PNJ prennent tel chemin», sans que le logiciel sache que cela encercle le joueur.

Précurseurs

Si les progrès de l'intelligence artificielle sont récents, ce thème de réflexion est particulièrement ancien, et il apparaît régulièrement au cours de l'histoire. Les premiers signes d'intérêt pour une intelligence artificielle et les principaux précurseurs de cette discipline sont les suivants.

Automates

voir aussi : Automate
Le canard artificiel de Vaucanson (1738)

Pensée automatique

Les processus cognitifs peuvent-ils se diminuer à un simple calcul ? Et si tel est le cas, quels sont les symboles et les règles à employer ?

Les premiers essais de formalisation de la pensée sont les suivants :

Les questions soulevées par l'Intelligence artificielle

L'intelligence artificielle a connu un essor important pendant les années 1960 et 70, mais suite à résultats décevants comparé aux budgets investis, son succès s'estompa dès le milieu des années 1980.

D'autre part, un certain nombre de questions se posent telles que la possibilité un jour pour les robots d'accéder à la conscience [22], ou d'éprouver des émotions.

D'après certains auteurs, les perspectives de l'intelligence artificielle pourraient avoir des inconvénients, si par exemple les machines devenaient plus intelligentes que les humains, et finissaient par les dominer, ou alors (pour les plus pessimistes) les exterminer, de la même façon que nous cherchons à exterminer certaines séquences d'ARN (les virus) tandis que nous sommes fabriqués à partir d'ADN, un proche dérivé de l'ARN. On reconnaît le thème du film Terminator, mais des directeurs de société techniquement particulièrement compétents, comme Bill Joy de la société Sun, affirment considérer le risque comme réel à long terme.

Toutes ces possibilités futures ont fait l'objet de quantités de romans de science-fiction, tels ceux d'Isaac Asimov ou William Gibson en passant par Arthur C. Clarke.

Espoirs et méfiances

Une description spectaculaire d'un envisageable avenir de l'intelligence artificielle a été faite par le professeur I. J. Good :

«Supposons qu'existe une machine surpassant en intelligence tout ce dont est capable un homme, aussi brillant soit-il. La conception de telles machines faisant partie des activités intellectuelles, cette machine pourrait à son tour créer des machines meilleures qu'elle-même; cela aurait sans nul doute pour effet une réaction en chaîne de développement de l'intelligence, pendant que l'intelligence humaine resterait presque sur place. Il en résulte que la machine ultra intelligente sera la dernière invention que l'homme aura besoin de faire, à condition que ladite machine soit assez docile pour constamment lui obéir.»

La situation en question, correspondant à un changement qualitatif du principe même de progrès, a été appelée par quelques auteurs «La Singularité»[23].

Good estimait à légèrement plus d'une chance sur deux la mise au point d'une telle machine avant la fin du XXe siècle. La prédiction, en 2009, ne s'est pas réalisée, mais avait imprégné le public : le cours de l'action d'IBM quadrupla (bien que les dividendes trimestriels versés restèrent à peu de chose près les mêmes) dans les mois qui suivirent la victoire de Deep Blue sur Garry Kasparov. Une large partie du grand public était en effet persuadée qu'IBM venait de mettre au point le vecteur d'une telle explosion de l'intelligence et que cette compagnie en tirerait profit. L'espoir fut déçu : une fois sa victoire acquise, Deep Blue, simple calculateur évaluant 200 millions de positions à la seconde, sans conscience du jeu lui-même, fut reconverti en machine classique utilisée pour l'exploration de données. Nous sommes certainement toujours particulièrement loin d'une machine possédant ce que nous nommons de l'intelligence générale, et tout autant d'une machine possédant la base de connaissances de n'importe quel chercheur, si humble soit-il.

En revanche, un programme «comprenant» un langage naturel et connecté à l'Internet serait théoriquement susceptible de construire, progressivement, une sorte de base de connaissances. Nous ignorons cependant tout actuellement (2009) tant de la structure optimale à choisir pour une telle base que du temps indispensable à en rassembler ainsi qu'à en agencer le contenu.

L'IA dans la culture populaire

Le thème d'une machine capable d'éprouver une conscience et des sentiments — ou en tout cas de faire comme si — forme un grand classique de la science-fiction, surtout dans la série de romans d'Isaac Asimov sur les robots. Ce sujet a cependant été exploité particulièrement tôt, comme dans le récit des aventures de Pinocchio, publié en 1881, où une marionnette capable d'éprouver de l'amour pour son créateur, cherche à devenir un vrai petit garçon. Cette trame a fortement inspiré le film A. I. Intelligence artificielle, réalisé par Steven Spielberg, sur la base des idées de Stanley Kubrick. L'œuvre de Dan Simmons, surtout le cycle d'Hypérion, contient aussi des exposés et des développements sur le sujet. Autre œuvre majeure de la science fiction sur ce thème, Destination vide, de Frank Herbert, met en scène de manière fascinante l'émergence d'une intelligence artificielle forte.

Dans la fiction


voir aussi

Les actualités

L'intelligence artificielle est un sujet d'actualité du présent, l'histoire de l'IA s'écrit au jour le jour.

Bibliographie

Aspects techniques 
Aspects philosophiques 
Fondements cognitifs, psychologiques et biologiques 
Aspects linguistiques 
Vulgarisation 

Notes et références

  1. La Recherche, janv. 1979, no 96, vol. 10, p. 61, cité par le dictionnaire du CNTRL.
  2. «the building of computer programs which perform tasks which are, for the moment, performed in a more satisfactory way by humans because they require high level mental processes such as : vision learning, memory organization and critical reasoning»
  3. (en) Russell, S. et Norvig, P., Artificial Intelligence : A Modern Approach (2nd ed. ) , Prentice Hall, 2003, 932 p. (ISBN 0-13-790395-2)   Section 1.1
  4. Republié dans Collected Works of A. M. Turing, volume Mechanical Intelligence, ed. Darrel Ince, ISBN 0-444-88058-5
  5. Conférence Intelligent machinery, a heretical theory donnée à la Société 51 à Manchester
  6. «Can digital computers think?»
  7. «Can automatic calculating machines be said to think?»
  8. Crevier, Daniel (1993), AI : The Tumultuous Search for Artificial Intelligence, New York, NY : BasicBooks, ISBN 0-465-02997-3, p. 17
  9. Voir la Thèse CPC de Bruno Marchal, Thèse de Church-Turing
  10. Page de Roger Penrose
  11. Page d'Andrei Kirilyuk
  12. voir (en) Logical Foundations of Artificial Intelligence, chap. 2.2 Predicate Calculus, pp. 13-20
  13. François Rastier, Sémantique et recherches cognitives, PUF, 2001 (2e éd. )
  14. (en) Interview et Commentaires sur «Game Over : Kasparov and the Machine» (PDF)
  15. (en) Game AI : The State of the Industry, Part Two, David C. Pottinger, John E. Laird, Gamasutra, 8 novembre 2000
  16. MHiCS, une architecture de sélection de l'action motivationnelle et hiérarchique à dispositifs de classeurs pour personnages non joueurs adaptatifs, Gabriel Robert, LIP6, 2005
  17. (en) Game AI : The State of the Industry, Steven Woodcock, Gamasutra, 1 novembre 2000
  18. (en) Game AI : The State of the Industry, Steve Woodcock, Gamasutra, 1998
  19. Aiseek
  20. Irving John Good
  21. (en) Robot à logique inductive (en anglais, PDF)
  22. L'intelligence artificielle est-elle limitée ? chat avec Gilbert Chauvet et Christophe Jacquemin qui eu lieu le 22 novembre 2006.
  23. Scruter la Singularité, Eliezer S. Yudkowsky, mai 2004
  24. Singularity Institute for Artificial Intelligence (2004), page de l'institut dans wikipedia en, 3 Laws Unsafe sur http ://www. asimovlaws. com/, récupéré le 2007-08-07, sauvé sur web. archive. org
  25. Un cerveau artificiel annoncé dans dix ans. Le Figaro
  26. Information du NYTIMES : Scientists Worry Machines May Outsmart Man, et le topic sur le site de l'aaai

Voir aussi

Sujets & domaines connexes
Principales techniques liées à l'intelligence artificielle
Grand noms de l'intelligence artificielle
Personnalités notables de l'intelligence artificielle dans l'espace francophone

Liens et documents externes

Français

Anglais

Recherche sur Amazone (livres) :



Ce texte est issu de l'encyclopédie Wikipedia. Vous pouvez consulter sa version originale dans cette encyclopédie à l'adresse http://fr.wikipedia.org/wiki/Intelligence_artificielle.
Voir la liste des contributeurs.
La version présentée ici à été extraite depuis cette source le 09/03/2010.
Ce texte est disponible sous les termes de la licence de documentation libre GNU (GFDL).
La liste des définitions proposées en tête de page est une sélection parmi les résultats obtenus à l'aide de la commande "define:" de Google.
Cette page fait partie du projet Wikibis.
Accueil Recherche Aller au contenuDébut page
ContactContact ImprimerImprimer liens d'évitement et raccourcis clavierAccessibilité
Aller au menu