Divergence de Kullback-LeiblerEn théorie des probabilités et en théorie de l'information, la divergence de Kullback-Leibler (ou divergence K-L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités. Elle doit son nom à Solomon Kullback et Richard Leibler, deux cryptanalystes américains. Selon la NSA, c'est durant les années 1950, alors qu'ils travaillaient pour cette agence, que Kullback et Leibler ont inventé cette mesure. Elle aurait d'ailleurs servi à la NSA dans son effort de cryptanalyse pour le projet Venona.
Reading for special needsReading for special needs has become an area of interest as the understanding of reading has improved. Teaching children with special needs how to read was not historically pursued due to perspectives of a Reading Readiness model. This model assumes that a reader must learn to read in a hierarchical manner such that one skill must be mastered before learning the next skill (e.g., a child might be expected to learn the names of the letters in the alphabet in the correct order before being taught how to read his or her name).
Lecturethumb|upright=1.5|La lecture, Henri Fantin-Latour (1870) La lecture peut être définie comme une activité psychosensorielle qui vise à donner un sens à des signes graphiques recueillis par la vision et qui implique à la fois des traitements perceptifs et cognitifs. L'histoire de la lecture remonte à l'invention de l'écriture au cours du millénaire avant notre ère. Bien que la lecture de textes imprimés soit aujourd'hui un moyen important d'accès à l'information pour la population en général, cela n'a pas toujours été le cas.
Information mutuelleDans la théorie des probabilités et la théorie de l'information, l'information mutuelle de deux variables aléatoires est une quantité mesurant la dépendance statistique de ces variables. Elle se mesure souvent en bit. L'information mutuelle d'un couple de variables représente leur degré de dépendance au sens probabiliste. Ce concept de dépendance logique ne doit pas être confondu avec celui de causalité physique, bien qu'en pratique l'un implique souvent l'autre.
Méthode syllabiqueLa méthode syllabique, couramment appelée « b.a. – ba », est une méthode d'apprentissage de la lecture consistant à identifier les lettres présentes dans un mot, afin de pouvoir les combiner en syllabes pour arriver à la formation d’un mot. Il s’agit d’un mécanisme associatif. Une fois que la relation entre le phonème – élément sonore distinctif du langage – et le graphème – s, c, ss, sc, ç sont des graphèmes correspondant au phonème [s] – est maîtrisée, l’enfant apprend à lire les assemblages de graphèmes sous forme de syllabes ou de mots.
Critère d'information d'AkaikeLe critère d'information d'Akaike, (en anglais Akaike information criterion ou AIC) est une mesure de la qualité d'un modèle statistique proposée par Hirotugu Akaike en 1973. Lorsque l'on estime un modèle statistique, il est possible d'augmenter la vraisemblance du modèle en ajoutant un paramètre. Le critère d'information d'Akaike, tout comme le critère d'information bayésien, permet de pénaliser les modèles en fonction du nombre de paramètres afin de satisfaire le critère de parcimonie.
Synthetic phonicsSynthetic phonics, also known as blended phonics or inductive phonics, is a method of teaching English reading which first teaches the letter sounds and then builds up to blending these sounds together to achieve full pronunciation of whole words. Synthetic phonics refers to a family of programmes which aim to teach reading and writing through the following methods: Teaching students the correspondence between written letters (graphemes) and speech sounds (phonemes).
Arbre de décision (apprentissage)L’apprentissage par arbre de décision désigne une méthode basée sur l'utilisation d'un arbre de décision comme modèle prédictif. On l'utilise notamment en fouille de données et en apprentissage automatique. Dans ces structures d'arbre, les feuilles représentent les valeurs de la variable-cible et les embranchements correspondent à des combinaisons de variables d'entrée qui mènent à ces valeurs. En analyse de décision, un arbre de décision peut être utilisé pour représenter de manière explicite les décisions réalisées et les processus qui les amènent.
LexiqueLe lexique d'une langue est l'ensemble de ses mots (somme des vocabulaires utilisés), ou de façon plus précise en linguistique de ses lemmes. Les mots d'un lexique forment un tout, une sorte de système sémantique, qui évolue donc au fil du temps. Les rapports entre les mots, de forme et surtout de sens, ainsi qu'entre les sens d'un même mot, sont très divers. La taille d'un lexique est très variable et dépend notamment de la diversité des domaines de connaissance ou techniques qu'elle permet d'exprimer.
Arbre de décisionvignette| Arbre de décision Un arbre de décision est un outil d'aide à la décision représentant un ensemble de choix sous la forme graphique d'un arbre. Les différentes décisions possibles sont situées aux extrémités des branches (les « feuilles » de l'arbre), et sont atteintes en fonction de décisions prises à chaque étape. L'arbre de décision est un outil utilisé dans des domaines variés tels que la sécurité, la fouille de données, la médecine, etc. Il a l'avantage d'être lisible et rapide à exécuter.