Loi de StudentEn théorie des probabilités et en statistique, la loi de Student est une loi de probabilité, faisant intervenir le quotient entre une variable suivant une loi normale centrée réduite et la racine carrée d'une variable distribuée suivant la loi du χ. Elle est notamment utilisée pour les tests de Student, la construction d'intervalle de confiance et en inférence bayésienne. Soit Z une variable aléatoire de loi normale centrée et réduite et soit U une variable indépendante de Z et distribuée suivant la loi du χ à k degrés de liberté.
Fonction de répartition empiriqueEn statistiques, une fonction de répartition empirique est une fonction de répartition qui attribue la probabilité 1/n à chacun des n nombres dans un échantillon. Soit X,...,X un échantillon de variables iid définies sur un espace de probabilité , à valeurs dans , avec pour fonction de répartition F. La fonction de répartition empirique de l'échantillon est définie par : où est la fonction indicatrice de l'événement A. Pour chaque ω, l'application est une fonction en escalier, fonction de répartition de la loi de probabilité uniforme sur l'ensemble .
Loi de NakagamiEn théorie des probabilités et en statistique, la loi de Nakagami ou loi de m-Nakagami est une loi de probabilité continue à deux paramètres et de support . Le paramètre est un paramètre de forme, le second paramètre permet de contrôler la propagation. Cette loi est liée à la loi gamma, son nom est issu du statisticien Minoru Nakagami. La densité de probabilité de la loi de Nakagami est donnée par : où est la fonction Gamma. Sa fonction de répartition est : où P est la fonction gamma incomplète (régularisée).
Homo œconomicusL'homo œconomicus (ou homo economicus, signifiant homme économique en latin) est une représentation théorique du comportement de l'être humain, qui est à la base du modèle néoclassique en économie. L'homme économique est considéré comme rationnel et maximisateur. L'origine de cette expression est incertaine. On la trouve chez Charles Devas dans Groundwork of Economics. Elle est probablement créée par imitation des dénominations employées en paléoanthropologie.
Maximum de vraisemblanceEn statistique, l'estimateur du maximum de vraisemblance est un estimateur statistique utilisé pour inférer les paramètres de la loi de probabilité d'un échantillon donné en recherchant les valeurs des paramètres maximisant la fonction de vraisemblance. Cette méthode a été développée par le statisticien Ronald Aylmer Fisher en 1922. Soient neuf tirages aléatoires x1, ..., x9 suivant une même loi ; les valeurs tirées sont représentées sur les diagrammes ci-dessous par des traits verticaux pointillés.
Loi binomiale négativeEn probabilité et en statistiques, une loi binomiale négative est la distribution de probabilité discrète du nombre d'échecs dans une série d'épreuves de Bernoulli indépendantes et identiquement distribuées jusqu'à avoir un nombre fixe n de succès. Par exemple, c'est la distribution de probabilité du nombre de piles obtenus dans une série de pile ou face jusqu'à avoir vu n faces. Plus précisément, elle décrit la situation suivante : une expérience consiste en une série de tirages indépendants, donnant un succès avec probabilité p (constante durant toute l'expérience) et un échec avec une probabilité complémentaire 1-p.
Rationalité limitéeLa rationalité limitée (bounded rationality en version originale) est l'idée selon laquelle la capacité de décision d'un individu est altérée par un ensemble de contraintes comme le manque d'information, des biais cognitifs ou encore le manque de temps. Dans cette optique, les décideurs ont tendance à choisir des solutions satisfaisantes plutôt qu'optimales. Le concept a été initialement théorisé par Herbert Simon et utilisé en sociologie, en psychologie, en microéconomie ou encore en philosophie politique (par exemple chez Jon Elster).
Estimation spectraleL'estimation spectrale regroupe toutes les techniques d'estimation de la densité spectrale de puissance (DSP). Les méthodes d'estimation spectrale paramétriques utilisent un modèle pour obtenir une estimation du spectre. Ces modèles reposent sur une connaissance a priori du processus et peuvent être classées en trois grandes catégories : Modèles autorégressif (AR) Modèles à moyenne ajustée (MA) Modèles autorégressif à moyenne ajustée (ARMA). L'approche paramétrique se décompose en trois étapes : Choisir un modèle décrivant le processus de manière appropriée.
ÉvaluationSelon Michel Vial, l'évaluation est le rapport que l'on entretient avec la valeur. L'homme est porteur de valeurs qu'il a reçu plus ou moins consciemment, qu'il convoque pour mesurer la valeur d'objets ou de produits, pour contrôler les procédures (vérifier leur conformité) ou encore interroger (rendre intelligible) le sens de ses pratiques : s'interroger sur la valeur, rendre intelligible les pratiques au moyen de l'évaluation située. Plus généralement, l'évaluation est un processus mental de l'agir humain.
Modèle macro-économiquedroite|vignette|495x495px|Exemple de modèle macro-économique Un modèle macro-économique (ou macroéconomique) est un outil d'analyse destiné à décrire le fonctionnement de l'économie d'un pays ou d'une région. Ces modèles sont généralement conçus pour étudier la dynamique de quantités globales telles que la quantité totale de biens et services produits, le total des revenus, le niveau d'emploi des ressources productives, et le niveau des prix.