Divergence (statistiques)En statistiques, une divergence est une fonction ou une fonctionnelle qui mesure la dissimilarité d'une loi de probabilité par rapport à une autre. Selon le contexte, elles peuvent être définies pour des lois, des mesures positives (non-normalisées), des vecteurs (par exemple sur l'espace des paramètres si l'on considère un modèle paramétrique), ou encore des matrices. Les divergences sont analogues à des distances au carré et permettent de généraliser la notion de distance aux variétés statistiques, mais il s'agit d'une notion plus faible dans la mesure où elles ne sont en général pas symétriques et ne vérifient pas l'inégalité triangulaire.
F-divergenceIn probability theory, an -divergence is a function that measures the difference between two probability distributions and . Many common divergences, such as KL-divergence, Hellinger distance, and total variation distance, are special cases of -divergence. These divergences were introduced by Alfréd Rényi in the same paper where he introduced the well-known Rényi entropy. He proved that these divergences decrease in Markov processes.
Démonstration constructiveUne première vision d'une démonstration constructive est celle d'une démonstration mathématique qui respecte les contraintes des mathématiques intuitionnistes, c'est-à-dire qui ne fait pas appel à l'infini, ni au principe du tiers exclu. Ainsi, démontrer l'impossibilité de l'inexistence d'un objet ne constitue pas une démonstration constructive de son existence : il faut pour cela en exhiber un et expliquer comment le construire. Si une démonstration est constructive, on doit pouvoir lui associer un algorithme.
Proof calculusIn mathematical logic, a proof calculus or a proof system is built to prove statements. A proof system includes the components: Language: The set L of formulas admitted by the system, for example, propositional logic or first-order logic. Rules of inference: List of rules that can be employed to prove theorems from axioms and theorems. Axioms: Formulas in L assumed to be valid. All theorems are derived from axioms. Usually a given proof calculus encompasses more than a single particular formal system, since many proof calculi are under-determined and can be used for radically different logics.
Théorème de la divergenceEn analyse vectorielle, le théorème de la divergence (également appelé théorème de Green-Ostrogradski ou théorème de flux-divergence), affirme l'égalité entre l'intégrale de la divergence d'un champ vectoriel sur un volume dans et le flux de ce champ à travers la frontière du volume (qui est une intégrale de surface). L'égalité est la suivante : où : est le volume ; est la frontière de est le vecteur normal à la surface, dirigé vers l'extérieur et de norme égale à l'élément de surface qu'il représente est continûment dérivable en tout point de ; est l'opérateur nabla ; (valable uniquement en coordonnées cartésiennes).
Divergence de Kullback-LeiblerEn théorie des probabilités et en théorie de l'information, la divergence de Kullback-Leibler (ou divergence K-L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités. Elle doit son nom à Solomon Kullback et Richard Leibler, deux cryptanalystes américains. Selon la NSA, c'est durant les années 1950, alors qu'ils travaillaient pour cette agence, que Kullback et Leibler ont inventé cette mesure. Elle aurait d'ailleurs servi à la NSA dans son effort de cryptanalyse pour le projet Venona.
Espace vectorielvignette|Dans un espace vectoriel, on peut additionner deux vecteurs. Par exemple, la somme du vecteur v (en bleu) et w (en rouge) est v + w. On peut aussi multiplier un vecteur, comme le vecteur w que l'on peut multiplier par 2, on obtient alors 2w et la somme devient v + 2w. En mathématiques, plus précisément en algèbre linéaire, un espace vectoriel est un ensemble d'objets, appelés vecteurs, que l'on peut additionner entre eux, et que l'on peut multiplier par un scalaire (pour les étirer ou les rétrécir, les tourner, etc.
Identités logarithmiquesCet article dresse une liste d'identités utiles lorsqu'on travaille avec les logarithmes. Ces identités sont toutes valables à condition que les réels utilisés (, , et ) soient strictement positifs. En outre, les bases des logarithmes doivent être différentes de 1. Pour toute base , on a : Par définition des logarithmes, on a : Ces trois identités permettent d'utiliser des tables de logarithme et des règles à calcul ; connaissant le logarithme de deux nombres, il est possible de les multiplier et diviser rapidement, ou aussi bien calculer des puissances ou des racines de ceux-ci.
Assistant de preuveEn informatique (ou en mathématiques assistées par informatique), un assistant de preuve est un logiciel permettant la vérification de preuves mathématiques, soit sur des théorèmes au sens usuel des mathématiques, soit sur des assertions relatives à l'exécution de programmes informatiques. Beaucoup de projets ont été lancés pour formaliser les mathématiques, en 1966, Nicolaas de Bruijn lance le projet Automath, suivi par d'autres projets.
Exponentielle intégraleEn mathématiques, la fonction exponentielle intégrale, habituellement notée Ei, est définie par : Comme l'intégrale de la fonction inverse () diverge en 0, cette définition doit être comprise, si x > 0, comme une valeur principale de Cauchy. vignette|Représentation graphique de la fonction exponentielle intégrale. La fonction Ei est liée à la fonction li (logarithme intégral) par : vignette|upright=1.5|Représentation graphique des fonctions E (en haut) et Ei (en bas), pour x > 0.