Confidence distributionIn statistical inference, the concept of a confidence distribution (CD) has often been loosely referred to as a distribution function on the parameter space that can represent confidence intervals of all levels for a parameter of interest. Historically, it has typically been constructed by inverting the upper limits of lower sided confidence intervals of all levels, and it was also commonly associated with a fiducial interpretation (fiducial distribution), although it is a purely frequentist concept.
Tolerance intervalA tolerance interval (TI) is a statistical interval within which, with some confidence level, a specified sampled proportion of a population falls. "More specifically, a 100×p%/100×(1−α) tolerance interval provides limits within which at least a certain proportion (p) of the population falls with a given level of confidence (1−α)." "A (p, 1−α) tolerance interval (TI) based on a sample is constructed so that it would include at least a proportion p of the sampled population with confidence 1−α; such a TI is usually referred to as p-content − (1−α) coverage TI.
Courbe ROCLa fonction d’efficacité du récepteur, plus fréquemment désignée sous le terme « courbe ROC » (de l’anglais receiver operating characteristic, pour « caractéristique de fonctionnement du récepteur ») dite aussi caractéristique de performance (d'un test) ou courbe sensibilité/spécificité, est une mesure de la performance d'un classificateur binaire, c'est-à-dire d'un système qui a pour objectif de catégoriser des éléments en deux groupes distincts sur la base d'une ou plusieurs des caractéristiques de chacun
Méthode de CopelandLa méthode de Copeland ou la méthode d'agrégation par paires de Copeland est une méthode Condorcet, dans laquelle les candidats sont classés par le nombre de victoires par paires, moins le nombre de défaites par paires. Elle satisfait le critère de Smith. Elle a été inventée par Ramon Llull dans son traité Ars Electionis de 1299, mais sa forme ne comptait que les victoires par paires et non les défaites (ce qui pourrait conduire à un résultat différent en cas d'égalité par paires).
Pierre tailléeUn outil de pierre taillée, dans le sens le plus général, désigne tout outil fait partiellement ou entièrement en pierre mise en forme par percussion ou pression. Une très grande variété d'outils ont été réalisés en pierre tout au long de l'histoire de l'humanité, parmi lesquels des pointes de flèche, des pointes de lances ou des haches de pierre. Les outils de pierre sont souvent taillés à partir de pierres sans cristaux apparents telles que la chaille, la radiolarite, le silex, l'obsidienne ou la calcédoine.
Méthode Condorcet avec rangement des paires par ordre décroissantLa méthode Condorcet avec rangement des paires par ordre décroissant est un système de vote qui permet de résoudre certains conflits de la méthode Condorcet. La méthode initialement proposée par Condorcet est développée par Nicolaus Tideman. Chaque électeur range les candidats par ordre de préférence. Comme dans toute méthode Condorcet, toutes les confrontations par paires sont organisées.
Utilisation d'outils chez les animauxvignette|Une femelle gorille s'aidant d'un bâton pour se stabiliser dans une zone marécageuse afin de ramasser de sa main libre des herbes aquatiques. L'utilisation d'outils chez les animaux est un comportement identifié chez certains animaux susceptibles d'employer des objets à des fins de recherche de nourriture et d'eau, de toilettage, de défense ou d'agression, de jeu ou de construction.
Analyse des donnéesL’analyse des données (aussi appelée analyse exploratoire des données ou AED) est une famille de méthodes statistiques dont les principales caractéristiques sont d'être multidimensionnelles et descriptives. Dans l'acception française, la terminologie « analyse des données » désigne donc un sous-ensemble de ce qui est appelé plus généralement la statistique multivariée. Certaines méthodes, pour la plupart géométriques, aident à faire ressortir les relations pouvant exister entre les différentes données et à en tirer une information statistique qui permet de décrire de façon plus succincte les principales informations contenues dans ces données.
Binary classificationBinary classification is the task of classifying the elements of a set into two groups (each called class) on the basis of a classification rule. Typical binary classification problems include: Medical testing to determine if a patient has certain disease or not; Quality control in industry, deciding whether a specification has been met; In information retrieval, deciding whether a page should be in the result set of a search or not. Binary classification is dichotomization applied to a practical situation.
Coverage probabilityIn statistics, the coverage probability, or coverage for short, is the probability that a confidence interval or confidence region will include the true value (parameter) of interest. It can be defined as the proportion of instances where the interval surrounds the true value as assessed by long-run frequency. The fixed degree of certainty pre-specified by the analyst, referred to as the confidence level or confidence coefficient of the constructed interval, is effectively the nominal coverage probability of the procedure for constructing confidence intervals.