Sélection de caractéristiqueLa sélection de caractéristique (ou sélection d'attribut ou de variable) est un processus utilisé en apprentissage automatique et en traitement de données. Il consiste, étant donné des données dans un espace de grande dimension, à trouver un sous-sensemble de variables pertinentes. C'est-à-dire que l'on cherche à minimiser la perte d'information venant de la suppression de toutes les autres variables. C'est une méthode de réduction de la dimensionnalité. Extraction de caractéristique Catégorie:Apprentissage
Centrale à inertiethumb|Gyrolaser de forme triangulaire, technologie de gyromètre couramment utilisée dans les centrales à inertie. Une centrale à inertie ou centrale inertielle est un instrument utilisé en navigation, capable d'intégrer les mouvements d'un mobile (accélération et vitesse angulaire) pour estimer son orientation (angles de roulis, de tangage et de cap), sa vitesse linéaire et sa position. L'estimation de position est relative au point de départ ou au dernier point de recalage.
Model selectionModel selection is the task of selecting a model from among various candidates on the basis of performance criterion to choose the best one. In the context of learning, this may be the selection of a statistical model from a set of candidate models, given data. In the simplest cases, a pre-existing set of data is considered. However, the task can also involve the design of experiments such that the data collected is well-suited to the problem of model selection.
Navigation inertiellevignette|295x295px|Centrale à inertie du missile S3, Musée de l'Air et de l'Espace, Paris Le Bourget (France) La navigation inertielle (en anglais, inertial navigation system ou INS) est une technique utilisant des capteurs d’accélération et de rotation afin de déterminer le mouvement absolu d’un véhicule (avion, missile, sous-marin...). Elle a l’avantage d’être totalement autonome. La navigation inertielle a été utilisée sur les V1 et V2 allemands. Charles Stark Draper est connu comme le « père de la navigation inertielle ».
Stepwise regressionIn statistics, stepwise regression is a method of fitting regression models in which the choice of predictive variables is carried out by an automatic procedure. In each step, a variable is considered for addition to or subtraction from the set of explanatory variables based on some prespecified criterion. Usually, this takes the form of a forward, backward, or combined sequence of F-tests or t-tests.
Sélection naturellevignette|Selon les principes de la sélection naturelle de Darwin, les pinsons des Galápagos sont issus d'une espèce souche venue du continent. La sélection s'est traduite par une spécialisation de la taille de leur bec en liaison avec leur régime alimentaire (seconde édition de son la publiée en 1845). En biologie, la est l'un des mécanismes moteurs de l'évolution des espèces qui explique le succès reproductif différentiel entre des individus d'une même espèce et le succès différentiel des gènes présents dans une population.
Critère d'information bayésienLe critère d'information bayésien (en anglais bayesian information criterion, en abrégé BIC), aussi appelé critère d'information de Schwarz, est un critère d'information dérivé du critère d'information d'Akaike proposé par en 1978. À la différence du critère d'information d'Akaike, la pénalité dépend de la taille de l'échantillon et pas seulement du nombre de paramètres. Il s'écrit : avec la vraisemblance du modèle estimée, le nombre d'observations dans l'échantillon et le nombre de paramètres libres du modèle.
Directional selectionIn population genetics, directional selection, is a mode of negative natural selection in which an extreme phenotype is favored over other phenotypes, causing the allele frequency to shift over time in the direction of that phenotype. Under directional selection, the advantageous allele increases as a consequence of differences in survival and reproduction among different phenotypes. The increases are independent of the dominance of the allele, and even if the allele is recessive, it will eventually become fixed.
Deviance information criterionThe deviance information criterion (DIC) is a hierarchical modeling generalization of the Akaike information criterion (AIC). It is particularly useful in Bayesian model selection problems where the posterior distributions of the models have been obtained by Markov chain Monte Carlo (MCMC) simulation. DIC is an asymptotic approximation as the sample size becomes large, like AIC. It is only valid when the posterior distribution is approximately multivariate normal.
Critère d'information d'AkaikeLe critère d'information d'Akaike, (en anglais Akaike information criterion ou AIC) est une mesure de la qualité d'un modèle statistique proposée par Hirotugu Akaike en 1973. Lorsque l'on estime un modèle statistique, il est possible d'augmenter la vraisemblance du modèle en ajoutant un paramètre. Le critère d'information d'Akaike, tout comme le critère d'information bayésien, permet de pénaliser les modèles en fonction du nombre de paramètres afin de satisfaire le critère de parcimonie.