Inégalité de BooleEn théorie des probabilités, l'inégalité de Boole affirme que, pour toute famille finie ou dénombrable d'événements, la probabilité que au moins l'un des événements se réalise est inférieure ou égale à la somme des probabilités des événements pris isolément. Plus formellement, En termes de la théorie de la mesure, l'inégalité de Boole exprime le fait qu'une mesure de probabilité est σ-sous-additive (comme toute mesure). Les inégalités de Bonferroni, dues à Carlo Emilio Bonferroni, généralisent l'inégalité de Boole.
Conditional dependenceIn probability theory, conditional dependence is a relationship between two or more events that are dependent when a third event occurs. For example, if and are two events that individually increase the probability of a third event and do not directly affect each other, then initially (when it has not been observed whether or not the event occurs) ( are independent). But suppose that now is observed to occur.
Log probabilityIn probability theory and computer science, a log probability is simply a logarithm of a probability. The use of log probabilities means representing probabilities on a logarithmic scale , instead of the standard unit interval. Since the probabilities of independent events multiply, and logarithms convert multiplication to addition, log probabilities of independent events add. Log probabilities are thus practical for computations, and have an intuitive interpretation in terms of information theory: the negative of the average log probability is the information entropy of an event.
Taylor expansions for the moments of functions of random variablesIn probability theory, it is possible to approximate the moments of a function f of a random variable X using Taylor expansions, provided that f is sufficiently differentiable and that the moments of X are finite. Given and , the mean and the variance of , respectively, a Taylor expansion of the expected value of can be found via Since the second term vanishes. Also, is . Therefore, It is possible to generalize this to functions of more than one variable using multivariate Taylor expansions.
Random numberIn mathematics and statistics, a random number is either Pseudo-random or a number generated for, or part of, a set exhibiting statistical randomness. A 1964-developed algorithm is popularly known as the Knuth shuffle or the Fisher–Yates shuffle (based on work they did in 1938). A real-world use for this is sampling water quality in a reservoir. In 1999, a new feature was added to the Pentium III: a hardware-based random number generator. It has been described as "several oscillators combine their outputs and that odd waveform is sampled asynchronously.
Paradoxe du singe savantLe paradoxe du singe savant est un théorème selon lequel un singe qui tape indéfiniment et au hasard sur le clavier d’une machine à écrire pourra « presque sûrement » écrire un texte donné. Dans ce contexte, « presque sûrement » est une expression mathématique ayant un sens précis, et le singe n'est pas vraiment un singe mais une métaphore pour un mécanisme abstrait qui produit une séquence aléatoire de lettres à l'infini. Le théorème illustre les dangers de raisonner sur l'infini en imaginant un très grand nombre, mais fini, et vice versa.
Paradoxe de BorelLe paradoxe de Borel (parfois appelé le paradoxe de Borel-Kolmogorov) est un paradoxe de la théorie des probabilités en rapport avec les probabilités conditionnelles et les densités de probabilité. Supposons que nous ayons deux variables aléatoires, X et Y, de densité de probabilité conjointe pX,Y(x,y). Nous pouvons former la densité conditionnelle de Y sachant X, où pX(x) est la loi marginale appropriée. En utilisant le théorème du changement de variable, nous pouvons paramétrer la loi conjointe avec les fonctions U= f(X,Y), V = g(X,Y), et pouvons alors former la densité conditionnelle de V sachant U.
Théorème de Borel-CantelliLe théorème de Borel-Cantelli ou lemme de Borel-Cantelli, nommé d'après les mathématiciens Émile Borel et Francesco Paolo Cantelli, est un résultat de théorie de la mesure très utilisé en théorie des probabilités, par exemple il peut être utilisé pour démontrer la loi forte des grands nombres. En théorie des probabilités, ce théorème concerne une suite d'événements et énonce que : L'indépendance des événements n'est pas nécessaire.
Mesure de probabilitévignette|300x300px| Dans de nombreux cas, la physique statistique utilise des mesures de probabilité, mais toutes les mesures qu'elle utilise ne sont pas des mesures de probabilité. En mathématiques, une mesure de probabilité est une fonction à valeurs réelles définie sur un ensemble d'événements dans un espace de probabilité qui satisfait les propriétés de mesure telles que la -additivité. La différence entre une mesure de probabilité et la notion plus générale de mesure (qui inclut des concepts tels que l'aire ou le volume) est qu'une mesure de probabilité doit attribuer la valeur 1 à tout l'espace de probabilité.
Repère semi-logarithmiqueUn repère semi-logarithmique est un repère (au sens de ) dans lequel l'un des axes, par exemple celui des abscisses (x), est gradué selon une échelle linéaire, comme les graduations d'un mètre courant, alors que l'autre axe, ici celui des ordonnées (y), est gradué selon une échelle logarithmique. Le repère semi-logarithmique permet de représenter des phénomènes exponentiels ou, plus généralement, des mesures s'étalant sur plusieurs ordres de grandeurs comme prenant des valeurs proches de 1 ou proches de Représentation graphique des termes de la suite dans un repère semi-logarithmique.