Classification naïve bayésiennevignette|Exemple de classification naïve bayésienne pour un ensemble de données dont le nombre augmente avec le temps. La classification naïve bayésienne est un type de classification bayésienne probabiliste simple basée sur le théorème de Bayes avec une forte indépendance (dite naïve) des hypothèses. Elle met en œuvre un classifieur bayésien naïf, ou classifieur naïf de Bayes, appartenant à la famille des classifieurs linéaires. Un terme plus approprié pour le modèle probabiliste sous-jacent pourrait être « modèle à caractéristiques statistiquement indépendantes ».
Alphabet phonétique internationalL'alphabet phonétique international (API) est un alphabet utilisé pour la transcription phonétique des sons du langage parlé. Contrairement aux nombreuses autres méthodes de transcription qui se limitent à des familles de langues, l'API est conçu pour couvrir l'ensemble des langues du monde. Développé par des phonéticiens français et britanniques sous les auspices de l'Association phonétique internationale, il a été publié pour la première fois en 1888.
PhonétiqueLa phonétique est une branche de la linguistique qui étudie les phones (les sons) en tant que plus petits segments de la parole, du point de vue physique, physiologique, neurophysiologique et neuropsychologique, c’est-à-dire de leur production, transmission, audition et évolution dans le processus de communication humaine par la langue, en utilisant des moyens spécifiques pour leur description, classification et transcription. Certains auteurs incluent dans l’objet de la phonétique les traits suprasegmentaux de la parole (accent, intonation, etc.
Espace de longueurEn mathématiques, un espace de longueur est un espace métrique particulier, qui généralise la notion de variété riemannienne : la distance y est définie par une fonction vérifiant une axiomatique la rendant proche de l'idée concrète de distance. Les espaces de longueur ont été étudiés au début du par et sous le nom d'espaces métriques intrinsèques, et réintroduits plus récemment par Mikhaïl Gromov. Soit X un espace topologique. Une courbe dans X est une application continue , où I est un intervalle de .
Espace préhilbertienEn mathématiques, un espace préhilbertien est défini comme un espace vectoriel réel ou complexe muni d'un produit scalaire. Cette notion généralise celles d'espace euclidien ou hermitien dans le cas d'une dimension quelconque, tout en conservant certaines bonnes propriétés géométriques des espaces de dimension finie grâce aux propriétés du produit scalaire, mais en perdant un atout de taille : un espace préhilbertien de dimension infinie n'est pas nécessairement complet. On peut cependant le compléter, pour obtenir un espace de Hilbert.
Réseau de neurones à propagation avantUn réseau de neurones à propagation avant, en anglais feedforward neural network, est un réseau de neurones artificiels acyclique, se distinguant ainsi des réseaux de neurones récurrents. Le plus connu est le perceptron multicouche qui est une extension du premier réseau de neurones artificiel, le perceptron inventé en 1957 par Frank Rosenblatt. vignette|Réseau de neurones à propagation avant Le réseau de neurones à propagation avant est le premier type de réseau neuronal artificiel conçu. C'est aussi le plus simple.
PerceptronLe perceptron est un algorithme d'apprentissage supervisé de classifieurs binaires (c'est-à-dire séparant deux classes). Il a été inventé en 1957 par Frank Rosenblatt au laboratoire d'aéronautique de l'université Cornell. Il s'agit d'un neurone formel muni d'une règle d'apprentissage qui permet de déterminer automatiquement les poids synaptiques de manière à séparer un problème d'apprentissage supervisé. Si le problème est linéairement séparable, un théorème assure que la règle du perceptron permet de trouver une séparatrice entre les deux classes.
Espace completEn mathématiques, un espace métrique complet est un espace métrique dans lequel toute suite de Cauchy converge. La propriété de complétude dépend de la distance. Il est donc important de toujours préciser la distance que l'on prend quand on parle d'espace complet. Intuitivement, un espace est complet s'il « n'a pas de trou », s'il « n'a aucun point manquant ». Par exemple, les nombres rationnels ne forment pas un espace complet, puisque n'y figure pas alors qu'il existe une suite de Cauchy de nombres rationnels ayant cette limite.
Quantification vectorielleLa quantification vectorielle est une technique de quantification souvent utilisée dans la compression de données avec pertes de données (Lossy Data Compression) pour laquelle l'idée de base est de coder ou de remplacer par une clé des valeurs d'un espace vectoriel multidimensionnel vers des valeurs d'un sous-espace discret de plus petite dimension. Le vecteur de plus petit espace nécessite moins d'espace de stockage et les données sont donc compressées.
Perceptrons (book)Perceptrons: an introduction to computational geometry is a book written by Marvin Minsky and Seymour Papert and published in 1969. An edition with handwritten corrections and additions was released in the early 1970s. An expanded edition was further published in 1987, containing a chapter dedicated to counter the criticisms made of it in the 1980s. The main subject of the book is the perceptron, a type of artificial neural network developed in the late 1950s and early 1960s.