Statistical assumptionStatistics, like all mathematical disciplines, does not infer valid conclusions from nothing. Inferring interesting conclusions about real statistical populations almost always requires some background assumptions. Those assumptions must be made carefully, because incorrect assumptions can generate wildly inaccurate conclusions. Here are some examples of statistical assumptions: Independence of observations from each other (this assumption is an especially common error). Independence of observational error from potential confounding effects.
Modèle statistiqueUn modèle statistique est une description mathématique approximative du mécanisme qui a généré les observations, que l'on suppose être un processus stochastique et non un processus déterministe. Il s’exprime généralement à l’aide d’une famille de distributions (ensemble de distributions) et d’hypothèses sur les variables aléatoires X1, . . ., Xn. Chaque membre de la famille est une approximation possible de F : l’inférence consiste donc à déterminer le membre qui s’accorde le mieux avec les données.
Statistical theoryThe theory of statistics provides a basis for the whole range of techniques, in both study design and data analysis, that are used within applications of statistics. The theory covers approaches to statistical-decision problems and to statistical inference, and the actions and deductions that satisfy the basic principles stated for these different approaches. Within a given approach, statistical theory gives ways of comparing statistical procedures; it can find a best possible procedure within a given context for given statistical problems, or can provide guidance on the choice between alternative procedures.
Factor graphA factor graph is a bipartite graph representing the factorization of a function. In probability theory and its applications, factor graphs are used to represent factorization of a probability distribution function, enabling efficient computations, such as the computation of marginal distributions through the sum-product algorithm. One of the important success stories of factor graphs and the sum-product algorithm is the decoding of capacity-approaching error-correcting codes, such as LDPC and turbo codes.
Inférence bayésiennevignette|Illustration comparant les approches fréquentiste et bayésienne (Christophe Michel, 2018). L’inférence bayésienne est une méthode d'inférence statistique par laquelle on calcule les probabilités de diverses causes hypothétiques à partir de l'observation d'événements connus. Elle s'appuie principalement sur le théorème de Bayes. Le raisonnement bayésien construit, à partir d'observations, une probabilité de la cause d'un type d'événements.
Convergence évolutiveLa (ou évolution convergente) est le résultat de mécanismes évolutifs ayant conduit des espèces, soumises aux mêmes contraintes environnementales (niches écologiques similaires), à adopter indépendamment plusieurs traits physiologiques, morphologiques, parfois comportementaux semblables. Plus généralement, ce terme, en seconde position, s’applique aussi à l’évolution d’autres systèmes adaptatifs comme les groupes humains ou les civilisations.
Diagrammethumb|240px|Diagramme circulaire ou « camembert » Un diagramme est une représentation visuelle simplifiée et structurée des concepts, des idées, des constructions, des relations, des données statistiques, de l'anatomie employé dans tous les aspects des activités humaines pour visualiser et éclaircir la matière. Un diagramme permet aussi de décrire des phénomènes, de mettre en évidence des corrélations en certains facteurs ou de représenter des parties d’un ensemble, au moyen de tracés qui prennent le plus souvent la forme de figures géométriques.
Inférence (logique)L’inférence est un mouvement de la pensée qui permet de passer d'une ou plusieurs assertions, des énoncés ou propositions affirmés comme vrais, appelés prémisses, à une nouvelle assertion qui en est la conclusion. Étymologiquement, le mot inférence signifie « reporter ». En théorie, l'inférence est traditionnellement divisée en déduction et induction, une distinction qui, en Europe, remonte au moins à Aristote ( avant Jésus-Christ). On distingue les inférences immédiates des inférences médiates telles que déductives, inductives et abductives.
Groupe de renormalisationEn physique statistique, le groupe de renormalisation est un ensemble de transformations qui permettent de transformer un hamiltonien en un autre hamiltonien par élimination de degrés de liberté tout en laissant la fonction de partition invariante. Il s'agit plus exactement d'un semi-groupe, les transformations n'étant pas inversibles. Le groupe de renormalisation permet de calculer les exposants critiques d'une transition de phase. Il permet aussi de prédire la transition Berezinsky-Kosterlitz-Thouless.
Règle des phasesEn physique, et particulièrement en thermodynamique chimique, la règle des phases (ou règle des phases de Gibbs, ou règle de Gibbs) donne le nombre maximum de paramètres intensifs qu'un opérateur peut fixer librement sans rompre l'équilibre d'un système thermodynamique. Ce nombre de paramètres indépendants est appelé variance. Les paramètres sont choisis le plus souvent parmi la pression, la température et les concentrations des diverses espèces chimiques dans les diverses phases présentes.