Nombre normalEn mathématiques, un nombre normal en base 10 est un nombre réel tel que dans la suite de ses décimales, toute suite finie de décimales consécutives (ou séquence) apparaît avec la même fréquence limite que n'importe laquelle des séquences de même longueur. Par exemple, la séquence 1789 y apparaît avec une fréquence limite 1/10 000. Émile Borel les a ainsi nommés lors de sa démonstration du fait que presque tout réel possède cette propriété. Notons l'ensemble des chiffres en base , et soit un nombre réel.
Entropie différentielleDifferential entropy (also referred to as continuous entropy) is a concept in information theory that began as an attempt by Claude Shannon to extend the idea of (Shannon) entropy, a measure of average (surprisal) of a random variable, to continuous probability distributions. Unfortunately, Shannon did not derive this formula, and rather just assumed it was the correct continuous analogue of discrete entropy, but it is not. The actual continuous version of discrete entropy is the limiting density of discrete points (LDDP).
Indicateur de tendance centralevignette|Diagramme d'une loi binomiale avec des indicateurs de tendance centrale (comme la moyenne au centre). En statistique, un indicateur de tendance centrale est une valeur résumant une série statistique pour une variable quantitative ou ordinale. Les deux principaux sont la moyenne et la médiane, mais on trouve parfois aussi la valeur centrale (moyenne des valeurs minimale et maximale) ou le mode. Ce dernier n’étant pas nécessairement unique pour une série statistique, sa définition ne s’obtient pas directement comme une fonction des termes de la série.
Groupe finivignette|Un exemple de groupe fini est le groupe des transformations laissant invariant un flocon de neige (par exemple la symétrie par rapport à l'axe horizontal). En mathématiques, un groupe fini est un groupe constitué d'un nombre fini d'éléments. Soit G un groupe. On note en général sa loi multiplicativement et on désigne alors son élément neutre par 1. Toutefois, si G est abélien, la loi est souvent notée additivement et son élément neutre est alors désigné par 0 ; ce n'est cependant pas une règle générale : par exemple, le groupe multiplicatif d'un corps commutatif est noté multiplicativement, bien qu'il soit abélien.
Principe d'entropie maximaleLe principe d'entropie maximale consiste, lorsqu'on veut représenter une connaissance imparfaite d'un phénomène par une loi de probabilité, à : identifier les contraintes auxquelles cette distribution doit répondre (moyenne, etc) ; choisir de toutes les distributions répondant à ces contraintes celle ayant la plus grande entropie au sens de Shannon. De toutes ces distributions, c'est en effet celle d'entropie maximale qui contient le moins d'information, et elle est donc pour cette raison la moins arbitraire de toutes celles que l'on pourrait utiliser.
Optimisation linéairethumb|upright=0.5|Optimisation linéaire dans un espace à deux dimensions (x1, x2). La fonction-coût fc est représentée par les lignes de niveau bleues à gauche et par le plan bleu à droite. L'ensemble admissible E est le pentagone vert. En optimisation mathématique, un problème d'optimisation linéaire demande de minimiser une fonction linéaire sur un polyèdre convexe. La fonction que l'on minimise ainsi que les contraintes sont décrites par des fonctions linéaires, d'où le nom donné à ces problèmes.
Programmation dynamiqueEn informatique, la programmation dynamique est une méthode algorithmique pour résoudre des problèmes d'optimisation. Le concept a été introduit au début des années 1950 par Richard Bellman. À l'époque, le terme « programmation » signifie planification et ordonnancement. La programmation dynamique consiste à résoudre un problème en le décomposant en sous-problèmes, puis à résoudre les sous-problèmes, des plus petits aux plus grands en stockant les résultats intermédiaires.
Probabilité a posterioriDans le théorème de Bayes, la probabilité a posteriori désigne la probabilité recalculée ou remesurée qu'un évènement ait lieu en prenant en considération une nouvelle information. Autrement dit, la probabilité a posteriori est la probabilité qu'un évènement A ait lieu étant donné que l'évènement B a eu lieu. Elle s'oppose à la probabilité a priori dans l'inférence bayésienne. La loi a priori qu'un évènement ait lieu avec vraisemblance est .
Processus de décision markovienEn théorie de la décision et de la théorie des probabilités, un processus de décision markovien (en anglais Markov decision process, MDP) est un modèle stochastique où un agent prend des décisions et où les résultats de ses actions sont aléatoires. Les MDPs sont utilisés pour étudier des problèmes d'optimisation à l'aide d'algorithmes de programmation dynamique ou d'apprentissage par renforcement. Les MDPs sont connus depuis les années 1950. Une grande contribution provient du travail de Ronald A.
Anneau finiEn mathématiques, un anneau fini est un anneau qui a un nombre fini d'éléments. Chaque corps fini est un exemple d’anneau fini, et la partie additive de chaque anneau fini est un exemple de groupe fini et abélien, mais la notion même d’anneaux finis a une histoire plus récente. Comme les anneaux sont plus rigides que les groupes, la classification des anneaux finis est plus simple que celle des groupes finis.