Categorical distributionIn probability theory and statistics, a categorical distribution (also called a generalized Bernoulli distribution, multinoulli distribution) is a discrete probability distribution that describes the possible results of a random variable that can take on one of K possible categories, with the probability of each category separately specified. There is no innate underlying ordering of these outcomes, but numerical labels are often attached for convenience in describing the distribution, (e.g. 1 to K).
Dirichlet-multinomial distributionIn probability theory and statistics, the Dirichlet-multinomial distribution is a family of discrete multivariate probability distributions on a finite support of non-negative integers. It is also called the Dirichlet compound multinomial distribution (DCM) or multivariate Pólya distribution (after George Pólya). It is a compound probability distribution, where a probability vector p is drawn from a Dirichlet distribution with parameter vector , and an observation drawn from a multinomial distribution with probability vector p and number of trials n.
Cumulant (statistiques)En mathématiques et plus particulièrement en théorie des probabilités et en statistique, les cumulants d'une loi de probabilité sont des coefficients qui ont un rôle similaire à celui des moments. Les cumulants déterminent entièrement les moments et vice versa, c'est-à-dire que deux lois ont les mêmes cumulants si et seulement si elles ont les mêmes moments. L'espérance constitue le premier cumulant, la variance le deuxième et le troisième moment centré constitue le troisième cumulant.
Loi multinomialeEn théorie des probabilités, la loi multinomiale (aussi appelée distribution polynomiale) généralise la loi binomiale. Tandis que la loi binomiale concerne le nombre de succès lors d'une série de n épreuves de Bernoulli indépendantes, comme dans le jeu de pile ou face, la loi multinomiale ne se restreint pas aux épreuves comportant deux issues. La loi multinomiale s'applique par exemple au cas de n jets d'un dé à six faces : l'apparition du seul peut être modélisé par une loi binomiale alors que l'ensemble des apparitions des à 6 est modélisé par une loi multinomiale.
Algorithmic mechanism designAlgorithmic mechanism design (AMD) lies at the intersection of economic game theory, optimization, and computer science. The prototypical problem in mechanism design is to design a system for multiple self-interested participants, such that the participants' self-interested actions at equilibrium lead to good system performance. Typical objectives studied include revenue maximization and social welfare maximization. Algorithmic mechanism design differs from classical economic mechanism design in several respects.
Gouvernance des donnéesLa gouvernance des données peut-être : un concept politique lié aux flux de données au sein et entre pays. Ce champ se compose de «normes, principes et règles régissant divers types de données», au delà de la gestion purement technique des données. une stratégie d'entreprise pour gérer les données, leur flux, leurs accès, leur stockage, leur mise à jour, et leur consommation en son sein, afin d'en optimiser la valeur et l'efficience de traitement.
Multivariate t-distributionIn statistics, the multivariate t-distribution (or multivariate Student distribution) is a multivariate probability distribution. It is a generalization to random vectors of the Student's t-distribution, which is a distribution applicable to univariate random variables. While the case of a random matrix could be treated within this structure, the matrix t-distribution is distinct and makes particular use of the matrix structure.
Mesure de probabilitévignette|300x300px| Dans de nombreux cas, la physique statistique utilise des mesures de probabilité, mais toutes les mesures qu'elle utilise ne sont pas des mesures de probabilité. En mathématiques, une mesure de probabilité est une fonction à valeurs réelles définie sur un ensemble d'événements dans un espace de probabilité qui satisfait les propriétés de mesure telles que la -additivité. La différence entre une mesure de probabilité et la notion plus générale de mesure (qui inclut des concepts tels que l'aire ou le volume) est qu'une mesure de probabilité doit attribuer la valeur 1 à tout l'espace de probabilité.
Loi inverse-gaussienne généraliséeEn théorie des probabilités et en statistique, la loi inverse-gaussienne généralisée (GIG, pour generalized inverse Gaussian distribution en anglais) est une loi de probabilité continue qui généralise la loi inverse-gaussienne en introduisant un troisième paramètre. Cette loi est utilisée, par exemple, en géostatistique, en hydrologie ou en finance. Elle a été initialement proposée par le statisticien et hydrologue Étienne Halphen, puis la loi a été popularisée par qui lui a donné son nom, ainsi que par , la loi est également connue sous le nom de loi de Sichel.
Exponentielle intégraleEn mathématiques, la fonction exponentielle intégrale, habituellement notée Ei, est définie par : Comme l'intégrale de la fonction inverse () diverge en 0, cette définition doit être comprise, si x > 0, comme une valeur principale de Cauchy. vignette|Représentation graphique de la fonction exponentielle intégrale. La fonction Ei est liée à la fonction li (logarithme intégral) par : vignette|upright=1.5|Représentation graphique des fonctions E (en haut) et Ei (en bas), pour x > 0.