Classe de complexitéEn informatique théorique, et plus précisément en théorie de la complexité, une classe de complexité est un ensemble de problèmes algorithmiques dont la résolution nécessite la même quantité d'une certaine ressource. Une classe est souvent définie comme l'ensemble de tous les problèmes qui peuvent être résolus sur un modèle de calcul M, utilisant une quantité de ressources du type R, où n, est la taille de l'entrée. Les classes les plus usuelles sont celles définies sur des machines de Turing, avec des contraintes de temps de calcul ou d'espace.
RéfutabilitéLa réfutabilité (également désignée par le recours à l'anglicisme falsifiabilité) a été introduite par Karl Popper et est considérée comme un concept important de l'épistémologie, permettant d'établir une démarcation entre les théories scientifiques et celles qui ne le sont pas. Une affirmation, une hypothèse, est dite réfutable si et seulement si elle peut être logiquement contredite par un test empirique ou, plus précisément, si et seulement si un énoncé d'observation (vrai ou faux) ayant une interprétation empirique (respectant ou non les lois actuelles et à venir) contredit logiquement la théorie.
Bruit additif blanc gaussienLe bruit additif blanc gaussien est un modèle élémentaire de bruit utilisé en théorie de l'information pour imiter de nombreux processus aléatoires qui se produisent dans la nature. Les adjectifs indiquent qu'il est : additif il s'ajoute au bruit intrinsèque du système d'information ; blanc sa puissance est uniforme sur toute la largeur de bande de fréquences du système, par opposition avec un bruit coloré qui privilégie une bande de fréquences par analogie avec une lumière colorée dans le spectre visible ; gaussien il a une distribution normale dans le domaine temporel avec une moyenne nulle (voir bruit gaussien).
Identification (statistiques)En statistiques et en économétrie, l'identification (ou identifiabilité) est une propriété d'un modèle statistique. En statistiques, on dit qu'un modèle est identifiable s'il est possible d'apprendre la vraie valeur des paramètres à partir d'un nombre infini d'observations. On considère le modèle statistique : avec : l'espace de réalisation des variables aléatoires l'espace des valeurs possibles pour le paramètre une loi de probabilité de densité On définit alors la fonction de vraisemblance comme : On dit
Fonction exponentielle doubleUne fonction exponentielle double est une fonction exponentielle dont l’exposant est lui-même une fonction exponentielle. La forme générale est : Cette fonction croît plus vite qu’une exponentielle simple. Par exemple, pour a = b = 10 : f(−1) ≈ ; f(0) = 10 ; f(1) = 1010 ; f(2) = 10100 = googol ; f(3) = 101000 ; f(100) = 1010100 = googolplex. Les factorielles croissent plus vite que les exponentielles, mais beaucoup plus lentement que les exponentielles doubles. La fonction hyper-exponentielle et la fonction d'Ackermann croissent encore plus vite.
Systemic biasSystemic bias is the inherent tendency of a process to support particular outcomes. The term generally refers to human systems such as institutions. Systemic bias is related to and overlaps conceptually with institutional bias and structural bias, and the terms are often used interchangeably. According to Oxford Reference, institutional bias is "a tendency for the procedures and practices of particular institutions to operate in ways which result in certain social groups being advantaged or favoured and others being disadvantaged or devalued.
Biais cognitifalt=180+ cognitive biases, designed by John Manoogian III (jm3)|vignette|302x302px|Les biais cognitifs peuvent être organisés en quatre catégories : les biais qui découlent de trop d'informations, pas assez de sens, la nécessité d'agir rapidement et les limites de la mémoire. Modèle Algorithmique: John Manoogian III (jm3) Modèle Organisationnel: Buster Benson. Un biais cognitif est une déviation dans le traitement cognitif d'une information. Le terme biais fait référence à une déviation de la pensée logique et rationnelle par rapport à la réalité.
Traitement du signalLe traitement du signal est la discipline qui développe et étudie les techniques de traitement, d'analyse et d' des . Parmi les types d'opérations possibles sur ces signaux, on peut dénoter le contrôle, le filtrage, la compression et la transmission de données, la réduction du bruit, la déconvolution, la prédiction, l'identification, la classification Bien que cette discipline trouve son origine dans les sciences de l'ingénieur (particulièrement l'électronique et l'automatique), elle fait aujourd'hui largement appel à de nombreux domaines des mathématiques, comme la , les processus stochastiques, les espaces vectoriels et l'algèbre linéaire et des mathématiques appliquées, notamment la théorie de l'information, l'optimisation ou encore l'analyse numérique.
Systematic codeIn coding theory, a systematic code is any error-correcting code in which the input data is embedded in the encoded output. Conversely, in a non-systematic code the output does not contain the input symbols. Systematic codes have the advantage that the parity data can simply be appended to the source block, and receivers do not need to recover the original source symbols if received correctly – this is useful for example if error-correction coding is combined with a hash function for quickly determining the correctness of the received source symbols, or in cases where errors occur in erasures and a received symbol is thus always correct.
Heteroskedasticity-consistent standard errorsThe topic of heteroskedasticity-consistent (HC) standard errors arises in statistics and econometrics in the context of linear regression and time series analysis. These are also known as heteroskedasticity-robust standard errors (or simply robust standard errors), Eicker–Huber–White standard errors (also Huber–White standard errors or White standard errors), to recognize the contributions of Friedhelm Eicker, Peter J. Huber, and Halbert White.