Data dredgingvignette|Exemple de Data dredging. Le data dredging (littéralement le dragage de données mais mieux traduit comme étant du triturage de données) est une technique statistique qui . Une des formes du data dredging est de partir de données ayant un grand nombre de variables et un grand nombre de résultats, et de choisir les associations qui sont « statistiquement significatives », au sens de la valeur p (on parle aussi de p-hacking).
Modèle binomialEn finance, le modèle binomial (ou modèle CRR du nom de ses auteurs) fournit une méthode numérique pour l'évaluation des options. Il a été proposé pour la première fois par Cox, Ross et Rubinstein (1979). Le modèle est un modèle discret pour la dynamique du sous-jacent. L'évaluation de l'option est calculée par application de la probabilité risque-neutre pour laquelle les prix actualisés sont des martingales.
Frequentist inferenceFrequentist inference is a type of statistical inference based in frequentist probability, which treats “probability” in equivalent terms to “frequency” and draws conclusions from sample-data by means of emphasizing the frequency or proportion of findings in the data. Frequentist-inference underlies frequentist statistics, in which the well-established methodologies of statistical hypothesis testing and confidence intervals are founded. The primary formulation of frequentism stems from the presumption that statistics could be perceived to have been a probabilistic frequency.
Valeur pvignette|redresse=1.5|Illustration de la valeur-p. X désigne la loi de probabilité de la statistique de test et z la valeur calculée de la statistique de test. Dans un test statistique, la valeur-p (en anglais p-value pour probability value), parfois aussi appelée p-valeur, est la probabilité pour un modèle statistique donné sous l'hypothèse nulle d'obtenir une valeur au moins aussi extrême que celle observée. L'usage de la valeur-p est courant dans de nombreux domaines de recherche comme la physique, la psychologie, l'économie et les sciences de la vie.
Test du rapport de vraisemblanceEn statistiques, le test du rapport de vraisemblance est un test statistique qui permet de tester un modèle paramétrique contraint contre un non contraint. Si on appelle le vecteur des paramètres estimés par la méthode du maximum de vraisemblance, on considère un test du type : contre On définit alors l'estimateur du maximum de vraisemblance et l'estimateur du maximum de vraisemblance sous .
PrixLe prix, exprimé en un montant de référence (en général monétaire), est la traduction de la compensation qu'un opérateur est disposé à remettre à un autre en contrepartie de la cession d'un bien ou un service. Le prix mesure la valeur vénale d'une transaction et en constitue l'un des éléments essentiels. Le mécanisme de formation des prix est un des concepts centraux de la microéconomie, spécialement dans le cadre de l'analyse de l'économie de marché, où les prix jouent un rôle primordial dans la recherche et la définition d'un prix dit « d'équilibre » (alors qu'ils jouent un rôle plus mineur dans une économie administrée).
Test exact de FisherEn statistique, le test exact de Fisher est un test statistique exact utilisé pour l'analyse des tables de contingence. Ce test est utilisé en général avec de faibles effectifs mais il est valide pour toutes les tailles d'échantillons. Il doit son nom à son inventeur, Ronald Fisher. C'est un test qualifié d'exact car les probabilités peuvent être calculées exactement plutôt qu'en s'appuyant sur une approximation qui ne devient correcte qu'asymptotiquement comme pour le test du utilisé dans les tables de contingence.
Discrimination par les prixvignette|Illustration de la discrimination par les prix des articles La discrimination par les prix désigne la modulation par agent des prix de son offre en fonction des caractéristiques connues ou supposées de la demande. Classiquement, on distingue trois types de discriminations par les prix en fonction de l'information dont dispose l'agent discriminateur : Discrimination de premier type, ou discrimination parfaite : le prix est fixé en fonction de la qualité de l'acheteur.
Market clearingIn economics, market clearing is the process by which, in an economic market, the supply of whatever is traded is equated to the demand so that there is no excess supply or demand, ensuring that there is neither a surplus nor a shortage. The new classical economics assumes that in any given market, assuming that all buyers and sellers have access to information and that there is no "friction" impeding price changes, prices constantly adjust up or down to ensure market clearing.
Données en coupeIn statistics and econometrics, cross-sectional data is a type of data collected by observing many subjects (such as individuals, firms, countries, or regions) at a single point or period of time. Analysis of cross-sectional data usually consists of comparing the differences among selected subjects, typically with no regard to differences in time. For example, if we want to measure current obesity levels in a population, we could draw a sample of 1,000 people randomly from that population (also known as a cross section of that population), measure their weight and height, and calculate what percentage of that sample is categorized as obese.