SHRDLU a été l’un des premiers programmes informatiques de compréhension du langage naturel. Il a été développé par Terry Winograd au MIT à partir de 1968. Il était écrit en et en Lisp et implémenté sur un ordinateur PDP-6 de DEC équipé d’un terminal graphique DEC. Des ajouts , effectués dans les laboratoires d’infographie de l’Université d'Utah, permirent d’ajouter un rendu 3D au « monde » de SHRDLU.
Winograd semble avoir pris ses distances avec SHRDLU et le domaine de l’intelligence artificielle, convaincu que SHRDLU constituait une impasse.
Le nom de SHRDLU dérive de la séquence ETAOIN SHRDLU, qui reflétait l’arrangement anglo-saxon des touches alphabétiques sur les machines Linotypes, en fonction de leur fréquence décroissante en anglais.
SHRDLU est un logiciel qui permettait un dialogue interactif avec l’utilisateur à base de termes en anglais. L’utilisateur demandait à SHRDLU de déplacer divers objets dans un petit « monde de blocs », qui contenait divers objets de base tels que des cubes, des cônes, et des sphères. La particularité de SHRDLU tenait à la combinaison de quatre idées simples qui, s’additionnant, rendaient la simulation de la « compréhension » beaucoup plus convaincante.
L’une de ces idées était qu’un monde au sens de SHRDLU était si simple qu’un ensemble complet d’objets et de positions pouvait être décrit à partir d’une cinquantaine de mots à peine : des noms comme « bloc » ou « cône », des verbes comme « poser sur » ou « déplacer vers », et des adjectifs comme « gros » ou « bleu ». Les combinaisons possibles de ces éléments de base du langage étaient très simples, et le programme pouvait assez facilement déterminer ce que l’utilisateur voulait dire.
SHRDLU incluait aussi une mémoire contextuelle élémentaire. On pouvait demander à SHRDLU de « placer le cône vert sur le cube rouge » et ensuite d’« enlever le cône » : l’expression « le cône » était comprise comme signifiant le cône dont il venait d’être question.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Machine learning and data analysis are becoming increasingly central in many sciences and applications. In this course, fundamental principles and methods of machine learning will be introduced, analy
Natural-language user interface (LUI or NLUI) is a type of computer human interface where linguistic phenomena such as verbs, phrases and clauses act as UI controls for creating, selecting and modifying data in software applications. In interface design, natural-language interfaces are sought after for their speed and ease of use, but most suffer the challenges to understanding wide varieties of ambiguous input. Natural-language interfaces are an active area of study in the field of natural-language processing and computational linguistics.
vignette|L'apprentissage de la lecture par Sigurður málari, siècle. La compréhension du langage naturel (NLU en anglais) ou linterprétation en langage naturel (NLI) est une sous-rubrique du traitement de la langue naturelle en intelligence artificielle qui traite de la compréhension en lecture automatique. La compréhension du langage naturel est considérée comme un problème difficile en IA. Il existe un intérêt commercial considérable dans ce domaine en raison de son application à la collecte de nouvelles, à la catégorisation des textes, à l'activation vocale, à l'archivage et à l'analyse de contenu à grande échelle.
Le traitement automatique du langage naturel (TALN), en anglais natural language processing ou NLP, est un domaine multidisciplinaire impliquant la linguistique, l'informatique et l'intelligence artificielle, qui vise à créer des outils de traitement du langage naturel pour diverses applications. Il ne doit pas être confondu avec la linguistique informatique, qui vise à comprendre les langues au moyen d'outils informatiques.
Couvre la formation de régression linéaire pour trouver la meilleure ligne pour des points de données donnés, essentielle pour prédire les prix des maisons.
Introduit les bases de l'apprentissage automatique, couvrant l'apprentissage supervisé et non supervisé, la régression linéaire et la compréhension des données.