Concept

An Essay towards solving a Problem in the Doctrine of Chances

An Essay towards solving a Problem in the Doctrine of Chances is a work on the mathematical theory of probability by Thomas Bayes, published in 1763, two years after its author's death, and containing multiple amendments and additions due to his friend Richard Price. The title comes from the contemporary use of the phrase "doctrine of chances" to mean the theory of probability, which had been introduced via the title of a book by Abraham de Moivre. Contemporary reprints of the Essay carry a more specific and significant title: A Method of Calculating the Exact Probability of All Conclusions founded on Induction. The essay includes theorems of conditional probability which form the basis of what is now called Bayes's Theorem, together with a detailed treatment of the problem of setting a prior probability. Bayes supposed a sequence of independent experiments, each having as its outcome either success or failure, the probability of success being some number p between 0 and 1. But then he supposed p to be an uncertain quantity, whose probability of being in any interval between 0 and 1 is the length of the interval. In modern terms, p would be considered a random variable uniformly distributed between 0 and 1. Conditionally on the value of p, the trials resulting in success or failure are independent, but unconditionally (or "marginally") they are not. That is because if a large number of successes are observed, then p is more likely to be large, so that success on the next trial is more probable. The question Bayes addressed was: what is the conditional probability distribution of p, given the numbers of successes and failures so far observed. The answer is that its probability density function is (and ƒ(p) = 0 for p < 0 or p > 1) where k is the number of successes so far observed, and n is the number of trials so far observed. This is what today is called the Beta distribution with parameters k + 1 and n − k + 1. Bayes's preliminary results in conditional probability (especially Propositions 3, 4 and 5) imply the truth of the theorem that is named for him.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Cours associés (3)
MATH-233: Probability and statistics
Le cours fournit une initiation à la théorie des probabilités et aux méthodes statistiques pour physiciens.
MATH-562: Statistical inference
Inference from the particular to the general based on probability models is central to the statistical method. This course gives a graduate-level account of the main ideas of statistical inference.
PHYS-642: Statistical physics for optimization & learning
This course covers the statistical physics approach to computer science problems, with an emphasis on heuristic & rigorous mathematical technics, ranging from graph theory and constraint satisfaction
Séances de cours associées (3)
Problèmes d'inférence et jeu de spin verre
Couvre les problèmes d'inférence liés au Spin Glass Game et les défis de faire des erreurs avec preb P.
Probabilité et statistiques
Couvre les concepts fondamentaux des probabilités et des statistiques, y compris les distributions, les propriétés et les attentes des variables aléatoires.
Afficher plus
Publications associées (8)

Distributionally Robust Optimization with Markovian Data

Daniel Kuhn, Mengmeng Li, Tobias Sutter

We study a stochastic program where the probability distribution of the uncertain problem parameters is unknown and only indirectly observed via finitely many correlated samples generated by an unknown Markov chain with d states. We propose a data-driven d ...
2021

Distributionally Robust Optimization with Polynomial Densities: Theory, Models and Algorithms

Daniel Kuhn

In distributionally robust optimization the probability distribution of the uncertain problem parameters is itself uncertain, and a fictitious adversary, e.g., nature, chooses the worst distribution from within a known ambiguity set. A common shortcoming o ...
2020

Normalized Gaussian path integrals

Giulio Corazza

Path integrals play a crucial role in describing the dynamics of physical systems subject to classical or quantum noise. In fact, when correctly normalized, they express the probability of transition between two states of the system. In this work, we show ...
AMER PHYSICAL SOC2020
Afficher plus
Concepts associés (7)
Thomas Bayes
Thomas Bayes ( , né env. en 1702 à Londres - mort le à Tunbridge Wells, dans le Kent) est un mathématicien britannique et pasteur de l'Église presbytérienne, connu pour avoir formulé le théorème de Bayes. Thomas Bayes est issu d'une famille de protestants, qui étaient couteliers. Il reçoit une éducation privée et en 1719, il part pour l'université d’Édimbourg, afin d'étudier la théologie. À la fin des années 1720, il est nommé pasteur à Tunbridge Wells, près de Londres.
Probabilité a priori
Dans le théorème de Bayes, la probabilité a priori (ou prior) désigne une probabilité se fondant sur des données ou connaissances antérieures à une observation. Elle s'oppose à la probabilité a posteriori (ou posterior) correspondante qui s'appuie sur les connaissances postérieures à cette observation. Le théorème de Bayes s'énonce de la manière suivante : si . désigne ici la probabilité a priori de , tandis que désigne la probabilité a posteriori, c'est-à-dire la probabilité conditionnelle de sachant .
Statistique bayésienne
La statistique bayésienne est une approche statistique fondée sur l'inférence bayésienne, où la probabilité exprime un degré de croyance en un événement. Le degré initial de croyance peut être basé sur des connaissances a priori, telles que les résultats d'expériences antérieures, ou sur des croyances personnelles concernant l'événement. La perspective bayésienne diffère d'un certain nombre d'autres interprétations de la probabilité, comme l'interprétation fréquentiste qui considère la probabilité comme la limite de la fréquence relative d'un événement après de nombreux essais.
Afficher plus

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.