Corrélation (statistiques)En probabilités et en statistique, la corrélation entre plusieurs variables aléatoires ou statistiques est une notion de liaison qui contredit leur indépendance. Cette corrélation est très souvent réduite à la corrélation linéaire entre variables quantitatives, c’est-à-dire l’ajustement d’une variable par rapport à l’autre par une relation affine obtenue par régression linéaire. Pour cela, on calcule un coefficient de corrélation linéaire, quotient de leur covariance par le produit de leurs écarts types.
Réglementation sur les nuisances sonoresLa réglémentation sur les nuisances sonores comprend des lois ou directives liées à l'émission de bruit, établies par des niveaux de gouvernements nationaux, d'états ou provinciaux et municipaux. Après le grand tournant de l'acte américain de contrôle des nuisances sonores, d'autres gouvernements locaux et d'état établissent d'autres règles. Une réglementation des nuisances sonores restreint la quantité de bruit, la durée du bruit et la source du bruit. Les restrictions sont généralement valables à certaines heures de la journée.
Algorithme mémétiqueLes algorithmes mémétiques appartiennent à la famille des algorithmes évolutionnistes. Leur but est d'obtenir une solution approchée à un problème d'optimisation, lorsqu'il n'existe pas de méthode de résolution pour résoudre le problème de manière exacte en un temps raisonnable. Les algorithmes mémétiques sont nés d'une hybridation entre les algorithmes génétiques et les algorithmes de recherche locale. Ils utilisent le même processus de résolution que les algorithmes génétiques mais utilisent un opérateur de recherche locale après celui de mutation.
Coefficient de déterminationvignette|Illustration du coefficient de détermination pour une régression linéaire. Le coefficient de détermination est égal à 1 moins le rapport entre la surface des carrés bleus et la surface des carrés rouges. En statistique, le coefficient de détermination linéaire de Pearson, noté R ou r, est une mesure de la qualité de la prédiction d'une régression linéaire. où n est le nombre de mesures, la valeur de la mesure , la valeur prédite correspondante et la moyenne des mesures.
Graine aléatoireUne graine aléatoire (aussi appelée germe aléatoire) est un nombre utilisé pour l'initialisation d'un générateur de nombres pseudo-aléatoires. Toute la suite de nombres aléatoires produits par le générateur découle de façon déterministe de la valeur de la graine. Par contre, deux graines différentes produiront des suites de nombres aléatoires complètement différentes. Le choix d'une graine aléatoire est une étape cruciale en cryptologie et en sécurité informatique.
Processus de CoxUn processus de Cox (nommé d'après le statisticien britannique David Cox), connu aussi sous le nom de double processus stochastique de Poisson, est un processus stochastique généralisant le processus de Poisson dans lequel la moyenne n'est pas constante mais varie dans l'espace ou le temps. Dans le cadre du processus de Cox, l'intensité dépendant du temps est un processus stochastique séparé du processus de Poisson. Un exemple serait un potentiel d'action (appelé aussi influx nerveux) d'un neurone sensoriel avec une stimulation externe.
Computational complexityIn computer science, the computational complexity or simply complexity of an algorithm is the amount of resources required to run it. Particular focus is given to computation time (generally measured by the number of needed elementary operations) and memory storage requirements. The complexity of a problem is the complexity of the best algorithms that allow solving the problem. The study of the complexity of explicitly given algorithms is called analysis of algorithms, while the study of the complexity of problems is called computational complexity theory.
Régression multivariée par spline adaptativeLa Régression multivariée par spline adaptative (en anglais MARS pour ) est une méthode statistique ; plus précisément, c'est une forme de modèle de régression présentée pour la première fois par Jerome H. Friedman et Bernard Silverman en 1991. C'est une technique de régression non paramétrique pouvant être vue comme une extension des régressions linéaires qui modélisent automatiquement des interactions et des non-linéarités. Le terme MARS est une marque de Salford Systems.
Quality (business)In business, engineering, and manufacturing, quality – or high quality – has a pragmatic interpretation as the non-inferiority or superiority of something (goods or services); it is also defined as being suitable for the intended purpose (fitness for purpose) while satisfying customer expectations. Quality is a perceptual, conditional, and somewhat subjective attribute and may be understood differently by different people. Consumers may focus on the specification quality of a product/service, or how it compares to competitors in the marketplace.
Théorie de la complexité (informatique théorique)vignette|Quelques classes de complexité étudiées dans le domaine de la théorie de la complexité. Par exemple, P est la classe des problèmes décidés en temps polynomial par une machine de Turing déterministe. La théorie de la complexité est le domaine des mathématiques, et plus précisément de l'informatique théorique, qui étudie formellement le temps de calcul, l'espace mémoire (et plus marginalement la taille d'un circuit, le nombre de processeurs, l'énergie consommée ...) requis par un algorithme pour résoudre un problème algorithmique.