Inférence statistiquevignette|Illustration des 4 principales étapes de l'inférence statistique L'inférence statistique est l'ensemble des techniques permettant d'induire les caractéristiques d'un groupe général (la population) à partir de celles d'un groupe particulier (l'échantillon), en fournissant une mesure de la certitude de la prédiction : la probabilité d'erreur. Strictement, l'inférence s'applique à l'ensemble des membres (pris comme un tout) de la population représentée par l'échantillon, et non pas à tel ou tel membre particulier de cette population.
Reconnaissance automatique de la parolevignette|droite|upright=1.4|La reconnaissance vocale est habituellement traitée dans le middleware ; les résultats sont transmis aux applications utilisatrices. La reconnaissance automatique de la parole (souvent improprement appelée reconnaissance vocale) est une technique informatique qui permet d'analyser la voix humaine captée au moyen d'un microphone pour la transcrire sous la forme d'un texte exploitable par une machine.
General American EnglishGeneral American English, known in linguistics simply as General American (abbreviated GA or GenAm), is the umbrella accent of American English spoken by a majority of Americans, encompassing a continuum rather than a single unified accent. In the United States it is often perceived as lacking any distinctly regional, ethnic, or socioeconomic characteristics, though Americans with high education, or from the North Midland, Western New England, and Western regions of the country are the most likely to be perceived as using General American speech.
Modèle de mélangeIn statistics, a mixture model is a probabilistic model for representing the presence of subpopulations within an overall population, without requiring that an observed data set should identify the sub-population to which an individual observation belongs. Formally a mixture model corresponds to the mixture distribution that represents the probability distribution of observations in the overall population.
Alphabet arménienL’alphabet arménien est l’alphabet utilisé pour écrire l’arménien. L'alphabet arménien compte trente-huit caractères (trente-six à l'origine, trente-huit dès le ). Comme l'alphabet grec duquel il serait en partie inspiré, il fait partie des écritures bicamérales (il possède des minuscules et des capitales). L'arménien fait partie des langues indo-européennes. Il est parlé en Arménie et par les communautés arméniennes du monde entier ; on distingue l'arménien oriental, celui généralement parlé en Arménie, et l'arménien occidental, qui est en déclin.
Anglais standardL’anglais standard peut désigner n’importe quelle variété de la langue anglaise acceptée comme langue standard nationale dans les pays anglophones, du point de vue tant de la prononciation que de la grammaire, du lexique et de l’orthographe. Dans les îles Britanniques, particulièrement en Angleterre et au Pays de Galles, il est souvent associé à l’accent de la « Received Pronunciation » (qui comporte plusieurs variantes), à la grammaire et au lexique dits United Kingdom Standard English (UKSE : « anglais standard du Royaume-Uni »).
Distance de LevenshteinLa 'distance de Levenshtein' est une distance, au sens mathématique du terme, donnant une mesure de la différence entre deux chaînes de caractères. Elle est égale au nombre minimal de caractères qu'il faut supprimer, insérer ou remplacer pour passer d’une chaîne à l’autre. Elle a été proposée par Vladimir Levenshtein en 1965. Elle est également connue sous les noms de distance d'édition ou de déformation dynamique temporelle, notamment en reconnaissance de formes et particulièrement en reconnaissance vocale.
Algorithme de ViterbiL'algorithme de Viterbi, d'Andrew Viterbi, permet de corriger, dans une certaine mesure, les erreurs survenues lors d'une transmission à travers un canal bruité. Son utilisation s'appuie sur la connaissance du canal bruité, c'est-à-dire la probabilité qu'une information ait été modifiée en une autre, et permet de simplifier radicalement la complexité de la recherche du message d'origine le plus probable. D'exponentielle, cette complexité devient linéaire.
Apprentissage profondL'apprentissage profond ou apprentissage en profondeur (en anglais : deep learning, deep structured learning, hierarchical learning) est un sous-domaine de l’intelligence artificielle qui utilise des réseaux neuronaux pour résoudre des tâches complexes grâce à des architectures articulées de différentes transformations non linéaires. Ces techniques ont permis des progrès importants et rapides dans les domaines de l'analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage.
Intervalle de confiancevignette|Chaque ligne montre 20 échantillons tirés selon la loi normale de moyenne μ. On y montre l'intervalle de confiance de niveau 50% pour la moyenne correspondante aux 20 échantillons, marquée par un losange. Si l'intervalle contient μ, il est bleu ; sinon il est rouge. En mathématiques, plus précisément en théorie des probabilités et en statistiques, un intervalle de confiance encadre une valeur réelle que l’on cherche à estimer à l’aide de mesures prises par un procédé aléatoire.