Fléau de la dimensionLe fléau de la dimension ou malédiction de la dimension (curse of dimensionality) est un terme inventé par Richard Bellman en 1961 pour désigner divers phénomènes qui ont lieu lorsque l'on cherche à analyser ou organiser des données dans des espaces de grande dimension alors qu'ils n'ont pas lieu dans des espaces de dimension moindre. Plusieurs domaines sont concernés et notamment l'apprentissage automatique, la fouille de données, les bases de données, l'analyse numérique ou encore l'échantillonnage.
Entretien d'évaluationL'entretien d'évaluation est un entretien qui a pour but de fixer des objectifs à atteindre au personnel pour une période déterminée, et leur évaluation pour le passé, en fonction de l'ensemble des priorités, des connaissances, de l'expérience et des comportements et aptitudes. Il s'agit d'une explicitation fine des missions afin de déterminer les compétences nécessaires à leur exercice et les actions de formations destinées à acquérir et à améliorer ces compétences.
Sac de motsLa représentation par sac de mots (ou bag of words en anglais) est une description de document (texte, image...) très utilisée en recherche d'information. On considère que le monde peut être décrit au moyen d'un dictionnaire (de « mots »). Dans sa version la plus simple, un document particulier est représenté par l'histogramme des occurrences des mots le composant : pour un document donné, chaque mot se voit affecté le nombre de fois qu'il apparaît dans le document (voir la notion de multi-ensemble, bag en anglais).
Apprentissage de représentationsEn apprentissage automatique, l'apprentissage des caractéristiques ou apprentissage des représentations est un ensemble de techniques qui permet à un système de découvrir automatiquement les représentations nécessaires à la détection ou à la classification des caractéristiques à partir de données brutes. Cela remplace l'ingénierie manuelle des fonctionnalités et permet à une machine d'apprendre les fonctionnalités et de les utiliser pour effectuer une tâche spécifique.
Job performanceJob performance assesses whether a person performs a job well. Job performance, studied academically as part of industrial and organizational psychology, also forms a part of human resources management. Performance is an important criterion for organizational outcomes and success. John P. Campbell describes job performance as an individual-level variable, or something a single person does. This differentiates it from more encompassing constructs such as organizational performance or national performance, which are higher-level variables.
Distance statistiquevignette|Représentation de la distance en variation totale (en gris) entre deux fonctions de densité En mathématiques, et plus précisément en théorie des probabilités et en statistique, la notion de distance statistique sert à mesurer l'écart entre deux lois de probabilité. Les distances statistiques sont notamment utilisées en théorie de l'information, en statistique, en apprentissage automatique, et en cryptologie. Lorsqu'aucune précision n'est donnée, la « distance statistique » entre deux lois fait généralement référence à la distance en variation totale.
Cadre (intelligence artificielle)Le terme de cadres (en anglais frames) a été proposé par Marvin Minsky dans son article de 1974 intitulé A Framework for Representing Knowledge. Un cadre en intelligence artificielle est une structure de données utilisée pour subdiviser la connaissance en sous-structures représentant des situations stéréotypées. Les cadres sont reliés entre eux pour former une idée complète. Un cadre contient de l'information sur la manière d'utiliser le cadre, sur ce qu'on peut en attendre, et sur ce qu'on peut faire lorsque cette attente n'est pas satisfaite.
Distance en variation totale (probabilités)En mathématiques et plus particulièrement en théorie des probabilités et en statistique, la distance en variation totale (ou distance de variation totale ou encore distance de la variation totale) désigne une distance statistique définie sur l'ensemble des mesures de probabilité d'un espace probabilisable. Soit deux mesures de probabilité sur un espace probabilisable . La distance en variation totale entre et est la quantité Il arrive que le facteur 2 n'apparaisse pas chez certains auteurs.
Mot (architecture informatique)En architecture informatique, un mot est une unité de base manipulée par un microprocesseur. On parle aussi de mot machine. La taille d’un mot s’exprime en bits, parfois même en octets. Elle est souvent utilisée pour classer les microprocesseurs (, ). Toutes choses étant égales par ailleurs, un microprocesseur est d’autant plus rapide que ses mots sont longs, car les données qu'il traite à chaque cycle sont plus importantes.
F-divergenceIn probability theory, an -divergence is a function that measures the difference between two probability distributions and . Many common divergences, such as KL-divergence, Hellinger distance, and total variation distance, are special cases of -divergence. These divergences were introduced by Alfréd Rényi in the same paper where he introduced the well-known Rényi entropy. He proved that these divergences decrease in Markov processes.