Author(s): Stuart Russell, Peter Norvig
Edition: 2
Publisher: Pearson
Couverture
Page de titre
Préface
I Intelligence Artificielle
1 Introduction
1.1 Définition de l'IA
1.1.1 Agir comme des humains : le test de Turing
1.1.2 Penser comme des humains: l'approche cognitive
1.1.3 Penser rationnellement : les « lois de la pensée »
1.1.4 Agir rationnellement : l'approche de l'agent rationnel
1.2 Fondements de l'intelligence artificielle
1.2.1 Philosophie (de 428 av. J.-C. à nos jours)
1.2.2 Mathématiques (de 800 à nos jours)
1.2.3 Économie (de 1776 à nos jours)
1.2.4 Neurosciences (de 1861 à nos jours)
1.2.5 Psychologie (de 1879 à nos jours)
1.2.6 Ingénierie informatique (de 1940 à nos jours)
1.2.7 Théorie du contrôle et cybernétique (de 1948 à nos jours)
1.2.8 Linguistique (de i957 à nos jours)
1.3 Histoire de l'intelligence artificielle
1.3.1 Gestation de l'intelligence artificielle (1943-1955)
1.3.2 Naissance de l'intelligence artificielle (1956)
1.3.3 L'enthousiasme des débuts: les grandes espérances (1952-1969)
1.3.4 L'épreuve de la réalité (1966-1973)
1.3.5 Systèmes fondés sur les connaissances : la clé de la puissance ? (1969-1979)
1.3.6 L'IA devient une industrie (de 1980 à nos jours)
1.3.7 Retour des réseaux de neurones (de 1986 à nos jours)
1.3.8 L'IA devient une science (de 1987 à nos jours)
1.3.9 Émergence des agents intelligents (de 1995 à nos jours)
1.4 État de l'art
Résumé
Notes bibliographiques et historiques
Exercices
2 Agents intelligents
2.1 Agents et environnements
2.2 Bons comportements : le concept de rationalité
2.2.1 Mesures de performance
2.2.2 Rationalité
2.2.3 Omniscience, apprentissage et autonomie
2.3 Nature des environnements
2.3.1 Spécification de l'environnement d'une tâche
2.3.2 Propriétés des environnements de tâches
2.4 Structure des agents
2.4.1 Programmes agents
2.4.2 Agents réflexes simples
2.4.3 Agents réflexes fondés sur des modèles
2.4.4 Agents fondés sur des buts
2.4.5 Agents fondés sur l'utilité
2.4.6 Agents capables d'apprentissage
Résumé
Notes bibliographiques et historiques
Exercices
II Résolution de problèmes
3 Résolution de problèmes par l'exploration
3.1 Agents de résolution de problèmes
3.1.1 Des problèmes bien définis et de leurs solutions
3.1.2 De la formulation des problèmes
3.2 Exemples de problèmes
3.2.1 Problèmes jouets
3.2.2 Problèmes du monde réel
3.3 Recherche de solutions
3.3.1 Mesure de la performance de la résolution de problèmes
3.4 Stratégies d'exploration non informée
3.4.1 Exploration en largeur d'abord
3.4.2 Exploration à coût uniforme
3.4.3 Exploration en profondeur d'abord
3.4.4 Exploration en profondeur limitée
3.4.5 Exploration itérative en profondeur
3.4.6 Exploration bidirectionnelle
3.4.7 Comparaison des stratégies d'exploration non informées
3.5 Éviter les répétitions d'états
3.6 Exploration avec informations partielles
3.6.1 Problèmes sans capteurs
3.6.2 Problèmes avec contingences
Résumé
Notes bibliographiques et historiques
Exercices
4 Exploration informée
4.1 Stratégies d'exploration informée (heuristique)
4.1.1 Exploration meilleur d'abord gloutonne
4.1.2 Exploration A* : minimisation du coût total estimé de la solution
4.1.3 Explorations heuristiques à mémoire limitée
4.1.4 Apprendre à mieux chercher
4.2 Fonctions heuristiques
4.2.1 Répercussion de l'exactitude de l'heuristique sur la performance
4.2.2 Création de fonctions heuristiques admissibles
4.2.3 Apprentissage d'heuristiques à partir de l'expérience
4.3 Algorithmes d'exploration locale et problèmes d'optimisation
4.3.1 Exploration par escalade (hill-climbing)
4.3.2 Exploration par recuit simulé (simulated annealing)
4.3.3 Exploration locale en faisceau (local beam search)
4.3.4 Algorithmes génétiques
4.4 Exploration locale d'espaces continus
4.5 Agents d'exploration en ligne et environnements inconnus
4.5.1 Problèmes d'exploration en ligne
4.5.2 Agents d'exploration en ligne
4.5.3 Exploration en ligne locale
4.5.4 Apprentissage et exploration en ligne
Résumé
Notes bibliographiques et historiques
Exercices
5 Problèmes à satisfaction de contraintes
5.1 Problèmes à satisfaction de contraintes
5.2 Exploration avec backtracking pour les CSP
5.2.1 Ordre des variables et des valeurs
5.2.2 Propager les informations par le biais des contraintes
5.2.3 Backtracking intelligent : l'examen en amont
5.3 Exploration locale pour les problèmes à satisfaction de contraintes
5.4 La structure des problèmes
Résumé
Notes bibliographiques et historiques
Exercices
6 Exploration en situation d'adversité
6.1 Les jeux
6.2 Decisions optimales dans les jeux
6.2.1 Stratégies optimales
6.2.2 L'algorithme du minimax
6.2.3 Décisions optimales dans le cadre de jeux multi-joueurs
6.3 Élagage alpha-bêta
6.4 Décisions imparfaites en temps réel
6.4.1 Fonctions d'évaluation
6.4.2 Recherche avec arrêt (cut off)
6.5 Jeux comportant une part de hasard
6.5.1 Évaluation des positions dans les jeux à noeuds de hasard
6.5.2 Complexité d'expectiminimax
6.5.3 Jeux de cartes
6.6 État de l'art des programmes de jeu
6.7 Bilan et perspectives
Résumé
Notes bibliographiques et historiques
Exercices
III Connaissances et raisonnement
7 Agents logiques
7.1 Agents fondés sur les connaissances
7.2 Le monde du Wumpus
7.3 Logique
7.4 Logique propositionnelle : une logique très simple
7.4.1 Syntaxe
7.4.2 Sémantique
7.4.3 Une base de connaissances simple
7.4.4 Inférence
7.4.5 Équivalence, validité et satisfiabilité
7.5 Schémas de raisonnement en logique propositionnelle
7.5.1 Résolution
7.5.2 Forme normale conjonctive
7.5.3 Un algorithme de résolution
7.5.4 Complétude de la résolution
7.5.5 Chaînage avant et chaînage arrière
7.6 Algorithmes d'inférence propositionnelle efficaces
7.6.1 Algorithme par backtracking complet
7.6.2 Algorithmes d'exploration locale
7.6.3 Problèmes de satisfiabilité difficiles
7.7 Agents fondés sur la logique propositionnelle
7.7.1 Recherche des puits et des Wumpus avec l'inférence logique
7.7.2 Suivi des positions et de l'orientation
7.7.3 Agents fondés sur des circuits
7.7.4 Une comparaison
Résumé
Notes bibliographiques et historiques
Exercices
8 Logique du premier ordre
8.1 Retour sur la représentation
8.2 Syntaxe et sémantique de la logique du premier ordre
8.2.1 Modèles de la logique du premier ordre
8.2.2 Symboles et interprétations
8.2.3 Termes
8.2.4 Énoncés atomiques
8.2.5 Énoncés composés
8.2.6 Quantificateurs
8.2.7 Égalité
8.3 Utiliser la logique du premier ordre
8.3.1 Assertions et requêtes en logique du premier ordre
8.3.2 Le domaine des liens de parenté
8.3.3 Nombres, ensembles et listes
8:3.4 Le monde du Wumpus
8.4 Ingénierie des connaissances en logique du premier ordre
8.4.1 Le processus d'ingénierie des connaissances
8.4.2 Le domaine des circuits électroniques
Résumé
Notes bibliographiques et historiques
Exercices
9 L'inférence en logique du premier ordre
9.1 Inférence propositionnelle vs inférence du premier ordre
9.1.1 Règles d'inférence pour les quantificateurs
9.1.2 Réduction à l'inférence propositionnelle
9.2 Unification et élargissement
9.2.1 Une règle d'inférence du premier ordre
9.2.2 Unification
9.2.3 Stockage et récupération
9.3 Chaînage avant
9.3.1 Clauses définies du premier ordre
9.3.2 Un algorithme de chaînage avant simple
9.3.3 Chaînage avant efficace
9.4 Chaînage arrière
9.4.1 Un algorithme de chaînage arrière
9.4.2 Programmation logique
9.4.3 Programmation logique avec contraintes
9.5 Résolution
9.5.1 Forme normale conjonctive pour la logique du premier ordre
9.5.2 Règle de résolution des inférences
9.5.3 Complétude de la résolution
9.5.4 Traitement de l'égalité
9.5.5 Stratégies de résolution
9.5.6 Démonstrateurs de théorèmes
Résumé
Notes bibliographiques et historiques
Exercices
10 Représentation des connaissances
10.1 Ingénierie ontologique
10.2 Catégories et objets
10.2.1 Composition physique
10.2.2 Mesures
10.2.3 Substances et objets
10.3 Actions, situations et événements
10.3.1 Ontologie du calcul des situations
10.3.2 Description des actions en calcul des situations
10.3.3 Résolution du problème représentationnel de la persistance
10.3.4 Résolution du problème inférentiel de la persistance
10.3.5 Temps et calcul des événements
10.3.6 Événements généralisés
10.3.7 Processus
10.3.8 Intervalles
10.3.9 Fluents et objets
10.4 Événements mentaux et objets mentaux
10.4.1 Théorie formelle des croyances
10.4.2 Connaissances et croyances
10.4.3 Connaissances, temps et action
10.5 Le monde du commerce électronique
10.5.1 Comparaibon des offres
10.6 Systèmes de raisonnement pour les catégories
10.6.1 Réseaux sémantiques
10.6.2 Logiques de description
10.7 Raisonnements avec informations par défaut
10.7.1 Monde ouvert et monde clos
10.7.2 Négation par l'échec et sémantique des modèles stables
10.7.3 Circonscription et logique des défauts
10.8 Systèmes à maintenance de vérité
Résumé
Notes bibliographiques et historiques
Exercices
IV Planification
11 Planification
11.1 Le problème de la planification
11.1.1 Le langage des problèmes de planification
11.1.2 Expressivité et extensions
11.1.3 Exemple : transport du fret aérien
11.1.4 Exemple : le problème de la roue de secours
11.1.5 Exemple : le monde des blocs
11.2 Planification par exploration dans un espace d'états
11.2.1 Exploration en avant dans un espace d'états
11.2.2 Exploration arrière dans un espace d'états
1.2.3 Heuristiques pour l'exploration dans un espace d'états
1.3 Planification en ordre partiel
1.3.1 Un exemple de planification en ordre partiel
1.3.2 Planification en ordre partiel avec variables libres
1.3.3 Heuristiques pour la planification en ordre partiel
11.4 Graphes de planification
1.4.1 Graphes de planification pour l'estimation heuristique
1.4.2 L'algorithme GRAPHPLAN
1.4.3 Terminaison de GRAPHPLAN
11.5 Planification avec la logique propositionnelle
1.5.1 Description de problèmes de planification en logique propositionnelle
1.5.2 Comp!exité des encodages propositionnels
11.6 Analyse des approches de la planification
Résumé
Notes bibliographiques et historiques
Exercices
12 Planification et action dans le monde réel
12.1 Temps, ordonnancement et ressources
12.1.1 Ordonnancement avec contraintes de ressources
12.2 Planifier avec un réseau hiérarchisé de tâches
12.2.1 Représentation des décompositions d'action
12.2.2 Modifier le planificateur pour les décompositions
12.2.3 Discussion
12.3 Planification et action dans des domaines non déterministes
12.4 Planification conditionnelle
12.4.1 Planification conditionnelle en environnements totalement observables
12.4.2 Planification conditionnelle en environnements partiellement observables
12.5 Monitoring de l'exécution et replanification
12.6 Planification continue
12.7 Planification multi-agent
12.7.1 Coopération : buts et plans communs
12.7.2 Plan multicorps
12.7.3 Mécanismes de coordination
12.7.4 Concurrence
Résumé
Notes bibliographiques et historiques
Exercices
V Connaissances et raisonnement en environnement incertain
13 Incertitude
13.1 Agir dans l'incertitude
13.1.1 Traiter des connaissances incertaines
13.1.2 Incertitude et décisions rationnelles
13.1.3 Conception d'un agent utilisant la théorie de la décision
13.2 Probabilités: notations de base
13.2.1 Propositions
13.2.2 Événements atomiques
13.2.3 Probabilités a priori
13.2.4 Probabilités conditionnelles
13.3 Les axiomes des probabilités
13.3.1 Utilisation des axiomes des probabilités
13.3.2 Pourquoi les axiomes des probabilités sont raisonnables
13.4 Inférence utilisant des distributions conjointes complètes
13.5 Indépendance
13.6 La règle de Bayes et son utilisation
13.7 Application de la règle de Bayes : le cas simple
13.7.1 Utilisation de la règle de Bayes: la combinaison d'observations
13.8 Le monde du Wumpus revisité
Résumé
Notes bibliographiques et historiques
Exercices
14 Raisonnement probabiliste
14.1 Représentation des connaissances dans un domaine incertain
14.2 Sémantique des réseaux bayésiens
14.2.1 Représentation de la distribution de probabilités conjointe complète
14.2.2 Une méthode pour construire des réseaux bayésiens
14.2.3 Compacité et ordre des noeuds
14.2.4 Relations d'indépendance conditionnelle dans les réseaux bayésiens
14.3 Représentation efficace des distributions conditionnelles
14.3.1 Réseaux bayésiens à variables continues
14.4 Inférence exacte dans les réseaux bayésiens
14.4.1 Inférence par énumération
14.4.2 L'algorithme d'élimination des variables
14.4.3 Complexité de l'inférence exacte
14.4.4 Algorithmes de groupement (clustering)
14.5 Inférence approchée dans les réseaux bayésiens
14.5.1 Méthodes d'échantillonnage direct
14.5.2 Échantillonnage par rejet dans les réseaux bayésiens
14.5.3 Pondération par la vraisemblance
14.5.4 Inférence par simulation de chaînes de Markov Monte-Carlo (MCMC)
14.5.5 L'algorithme MCMC
14.5.6 Pourquoi MCMC fonctionne
14.6 Extensions des probabilités aux représentations du premier ordre
14.7 Autres approches du raisonnement incertain
14.7.1 Méthodes à base de règles pour le raisonnement incertain
14.7.2 Représentation de l'ignorance : la théorie de Dempster-Shafer
14.7.3 Représentation de l'imprécision: ensembles flous et logique floue
Résumé
Notes bibliographiques et historiques
Exercices
15 Raisonnement probabiliste temporel
15.1 Temps et incertitude
15.1.1 États et observations
15.1.2 Processus stationnaires et hypothèse de Markov
15.2 L'inférence dans les modèles temporels
15.2.1 Filtrage et prédiction
15.2.2 Lissage
15.2.3 Découverte de la séquence la plus probable
15.3 Modèles de Markov cachés
15.3.1 Algorithmes matriciels simplifiés
15.4 Filtres de Kalman
15.4.1 Mise à jour des distributions gaussiennes
15.4.2 Un exemple unidimensionnel simple
15.4.3 Le cas général
15.4.4 Applications du filtrage de Kalman
15.5 Réseaux bayésiens dynamiques
15.5.1 Construction de RBD
15.5.2 Inférence exacte dans les RBD
15.5.3 Inférence approximative dans les RBD
15.6 Reconnaissance de la parole
15.6.1 Les sons de la langue
15.6.2 Les mots
15.6.3 Les phrases
15.6.4 Construction d'un système de reconnaissance de la parole
Résumé
Notes bibliographiques et historiques
Exercices
16 Prise de décisions simples
16.1 Désirs, croyances et incertitude
16.2 Concepts de base de la théorie de l'utilité
16.2.1 Contraintes sur les préférences rationnelles
16.2.2 Puis l'utilité vint
16.3 Fonctions d'utilité
16.3.1 L'utilité de l'argent
16.3.2 Échelles d'utilité et évaluation de l'utilité
16.4 Fonctions d'utilité multiattributs
16.4.1 Dominance
16.4.2 Structures de préférences et utilité multiattribut
16.4.3 Préférences sans incertitude
16.4.4 Préférences avec incertitude
16.5 Réseaux de décision
16.5.1 Représentation d'un problème avec un réseau de décision
16.5.2 Évaluation des réseaux de décision
16.6 La valeur de l'information
16.6.1 Un exemple simple
16.6.2 Une formule générale
16.6.3 Propriétés de la valeur de l'information
16.6.4 Implémentation d'un agent de collecte d'informations
16.7 Systèmes experts utilisant la théorie de la décision
Résumé
Notes bibliographiques et historiques
Exercices
17 Prise de décisions complexes
17.1 Problèmes de décision séquentiels
17.1.1 Un exemple
17.1.2 L'optimalité dans les problèmes de décision séquentiels
17.2 Itération de la valeur
17.2.1 Utilités des états
17.2.2 L'algorithme value iteration
17.2.3 Convergence de value iteration
17.3 Itération de la politique
17.4 PDM partiellement observables
17.5 Agents fondés sur la théorie de la décision
17.6 Décisions et agents multiples: la théorie des jeux
17.7 Conception de mécanismes
Résumé
Notes bibliographiques et historiques
Exercices
VI Apprentissage
18 Apprendre à partir d'observations
18.1 Types d'apprentissage
18.2 Apprentissage inductif
18.3 Apprentissage des arbres de décision
18.3.1 Fonctionnement des arbres de décision
18.3.2 Expressivité des arbres de décision
18.3.3 Induction d'arbres de décision à partir d'exemples
18.3.4 Choix des attributs à tester
18.3.5 Évaluation de la performance de l'algorithme d'apprentissage
18.3.6 Bruit et surapprentissage
18.3.7 Élargir l'applicabilité des arbres de décision
18.4 Apprentissage par ensembles
18.5 Pourquoi l'apprentissage fonctionne : la théorie de l'apprentissage
18.5.1 Combien d'exemples faut-il ?
18.5.2 Apprentissage de listes de décision
18.5.3 Discussion
Résumé
Notes bibliographiques et historiques
Exercices
19 Connaissances et apprentissage
19.1 Une formulation logique de l'apprentissage
19.1.1 Exemples et hypothèses
19.1.2 Meilleure hypothèse courante
19.1.3 Moindre engagement
19.2 Connaissances et apprentissage
19.2.1 Quelques exemples simples
19.2.2 Quelques schémas généraux
19.3 Apprentissage par explication
19.3.1 Extraction de règles générales à partir d'exemples
19.3.2 Amélioration de l'efficacité
19.4 Apprentissage fondé sur la pertinence
19.4.1 Détermination de l'espace des hypothèses
19.4.2 Apprentissage et utilisation des informations sur la pertinence
19.5 Programmation logique inductive
19.5.1 Un exemple
19.5.2 Méthodes d'apprentissage inductif descendantes
19.5.3 Apprentissage inductif par résolution inverse
19.5.4 Découvertes par programmation logique inductive
Résumé
Notes bibliographiques et historiques
Exercices
20 Méthodes d'apprentissage statistique
20.1 L'apprentissage statistique
20.2 Apprentissage avec données complètes
20.2.1 Apprentissage de paramètres par maximum de vraisemblance : les modèles discrets
20.2.2 Modèles bayésiens naïfs
20.2.3 Apprentissage de paramètres par maximum de vraisemblance : les modèles continus
20.2.4 Apprentissage bayésien de paramètres
20.2.5 Apprentissage de la structure des réseaux bayésiens
20.3 Apprentissage avec variables cachées : l'algorithme EM
20.3.1 Classification non supervisée : apprentissage de mélanges de gaussiennes
20.3.2 Apprentissage de réseaux bayésiens avec variables cachées
20.3.3 Apprentissage de modèles de Markov cachés
20.3.4 Forme générale de l'algorithme EM
20.3.5 Apprentissage de structures de réseaux bayésiens avec variables cachées
20.4 Apprentissage fondé sur les exemples
20.4.1 Modèles des plus proches voisins
20.4.2 Modèles à noyau
20.5 Réseaux de neurones
20.5.1 Unités dans les réseaux de neurones
20.5.2 Structures des réseaux de neurones
20.5.3 Réseaux de neurones feed-forward monocouches (perceptrons)
20.5.4 Réseaux de neurones feed-forward multicouches
20.5.5 Apprentissage des structures des réseaux de neurones
20.6 Machines à noyau
20.7 Étude de cas : reconnaissance de chiffres manuscrits
Résumé
Notes bibliographiques et historiques
Exercices
21 Apprentissage par renforcement
21.1 Introduction
21.2 Apprentissage par renforcement passif
21.2.1 Estimation directe de l'utilité
21.2.2 Programmation dynamique adaptative
21.2.3 Apprentissage par différence temporelle
21.3 Apprentissage par renforcement actif
21.3.1 Exploration
21.3.2 Apprentissage d'une fonction action-valeur
21.4 Généralisation et apprentissage par renforcement
21.4.1 Applications aux jeux
21.4.2 Applications au contrôle de robots
21.5 Recherche de politique
Résumé
Notes bibliographiques et historiques
Exercices
VII Communication, perception et action
22 Communication
22.1 De la communication comme action
22.1.1 Notions de base sur le langage
22.1.2 Les étapes composantes de la communication
22.2 Une grammaire formelle pour un fragment de langage naturel
22.2.1 Le lexique de E₀
22.2.2 La grammaire de E₀
22.3 Analyse syntaxique (parsing)
22.3.1 Analyse syntaxique efficace
22.4 Grammaires augmentées
22.4.1 Sous-catégorisation du verbe
22.4.2 Capacité générative des grammaires augmentées
22.5 Interprétation sémantique
22.5.1 Sémantique d'un fragment de langue
22.5.2 Expression du temps
22.5.3 Quantification
22.5.4 Interprétation pragmatique
22.5.5 Génération de langage avec les DCG
22.6 Ambiguïté et désambiguïsation
22.6.1 Désambiguïsation
22.7 Compréhension du discours
22.7.1 Résolution des références
22.7.2 Structure d'un discours cohérent
22.8 Inférence grammaticale
Résumé
Notes bibliographiques et historiques
Exercices
23 Traitement probabiliste du langage
23.1 Modèles de langage probabilistes
23.1.1 Grammaires hors contexte probabilistes
23.1.2 Apprentissage de probabilités pour les PCFG
23.1.3 Apprentissage de structures de règles pour les PCFG
23.2 Recherche d'informations
23.2.1 Évaluation des systèmes de recherche d'informations
23.2.2 Raffinements de la recherche d'informations
23.2.3 Présentation des résultats
23.2.4 Implémentation des systèmes de RI
23.3 Extraction d'informations
23.4 Traduction automatique
23.4.1 Systèmes de traduction automatique
23.4.2 Traduction automatique statistique
23.4.3 Traduction automatique et apprentissage de probabilités
Résumé
Notes bibliographiques et historiques
Exercices
24 Perception
24.1 Introduction
24.2 Formation des images
24.2.1 Images sans lentille : l'appareil photo à sténopé
24.2.2 Systèmes de lentilles
24.2.3 Lumière : photométrie de la formation d'une image
24.2.4 Couleur : spectrophotométrie de la formation d'une image
24.3 Premières opérations de traitement de l'image
24.3.1 Détection de contours
24.3.2 Segmentation de l'image
24.4 Extraction d'informations tridimensionnelles
24.4.1 Mouvement
24.4.2 Vision binoculaire
24.4.3 Gradients de texture
24.4.4 Ombrage
24.4.5 Contours
24.5 Reconnaissance d'objets
24.5.1 Reconnaissance à base de luminosité
24.5.2 Reconnaissance à base d'attributs
24.5.3 Estimation de la pose
24.6 Utilisation de la vision pour la manipulation et la navigation
Résumé
Notes bibliographiques et historiques
Exercices
25 Robotique
25.1 Introduction
25.2 Aspects matériels
25.2.1 Capteurs
25.2.2 Effecteurs
25.3 Perception robotique
25.3.1 Localisation
25.3.2 Cartographie
25.3.3 Autre types de perception
25.4 Planification du mouvement
25.4.1 Espace des configurations
25.4.2 Méthode de décomposition cellulaire
25.4.3 Méthode de squelettisation
25.5 Planification de mouvements incertains
25.5.1 Méthodes robustes
25.6 Le mouvement
25.6.1 Dynamique et contrôle
25.6.2 Contrôle de champ de potentiel
25.6.3 Contrôle réactif
25.7 Architectures logicielles en robotique
25.7.1 L'architecture de subsomption
25.7.2 L'architecture à trois couches
25.7.3 Les langages de programmation de la robotique
25.8 Domaines d'application
Résumé
Notes bibliographiques et historiques
Exercices
VIII Conclusions
26 Fondements philosophiques
26.1 IA faible : les machines peuvent-elles agir intelligemment ?
26.1.1 L'argument de l'incapacité
26.1.2 L'objection mathématique
26.1.3 L'argument de l'informalité
26.2 IA forte : les machines peuvent-elles réellement penser ?
26.2.1 Le problème du corps et de l'esprit
26.2.2 L'expérience du « cerveau dans la cuve »
26.2.3 L'expérience de la prothèse cérébrale
26.2.4 La chambre chinoise
26.3 Éthique et risques du développement de l'intelligence artificielle
Résumé
Notes bibliographiques et historiques
Exercices
27 IA : présent et futur
27.1 Les composants des agents
27.2 Architectures de l'agent
27.3 Sommes-nous sur la bonne voie ?
27.4 Et si l'IA atteignait son but ?
A Rappels mathématiques
A.1 Analyse de la complexité et notation O()
A.1.1 Analyse asymptotique
A.1.2 Problèmes NP et intrinsèquement difficiles
A.1.3 Vecteurs, matrices et algèbre linéaire
A.2 Distributions de probabilités
Notes bibliographiques et historiques
B Notes sur les langages et les algorithmes
B.1 Définition de langages sous forme de Backus-Naur (BNF)
B.2 Description d'algorithmes en pseudocode
B.3 Aide en ligne
Bibliographie (manquante)
Index