Concept (philosophie)En logique, un concept est un contenu de pensée, qui, lorsqu'il est appliqué à un objet, peut former une proposition. En linguistique, le concept représente le signifié, c'est-à-dire le sens du mot, tandis que le mot lui-même constitue son signifiant. Le concept est un terme abstrait qui se distingue donc de la chose désignée par ce concept. Le terme lui-même est introduit au Moyen Âge (conceptus) par Thomas d'Aquin puis Guillaume d'Ockham et les autres philosophes scolastiques .
Négation logiqueEn logique et en mathématiques, la négation est un opérateur logique unaire. Il sert à nier une proposition. On note la négation d'une proposition P de diverses manières dont : ¬P (utilisée dans cet article); Non P ; Ces formulations se lisent « négation de P » ou plus simplement « non P ». Dans l'interprétation par des tables de vérité, la proposition ¬P est vraie quand P est fausse et elle est fausse quand P est vraie. La table de vérité s'écrit simplement : ou On remarque alors que où dénote une contradiction.
Stepwise regressionIn statistics, stepwise regression is a method of fitting regression models in which the choice of predictive variables is carried out by an automatic procedure. In each step, a variable is considered for addition to or subtraction from the set of explanatory variables based on some prespecified criterion. Usually, this takes the form of a forward, backward, or combined sequence of F-tests or t-tests.
AdaBoostAdaBoost (ou adaptive boosting) est, en intelligence artificielle et en apprentissage automatique, un méta-algorithme de boosting introduit par Yoav Freund et Robert Schapire. Il peut être utilisé en association avec de nombreux autres types d'algorithmes d'apprentissage afin d'en améliorer les performances. Les sorties des autres algorithmes (appelés classifieurs faibles) sont combinées en une somme pondérée qui représente la sortie finale du classeur boosté.
Fondements des mathématiquesLes fondements des mathématiques sont les principes de la philosophie des mathématiques sur lesquels est établie cette science. Le logicisme a été prôné notamment par Gottlob Frege et Bertrand Russell. La mathématique pure présente deux caractéristiques : la généralité de son discours et la déductibilité du discours mathématique . En ce que le discours mathématique ne prétend qu’à une vérité formelle, il est possible de réduire les mathématiques à la logique, les lois logiques étant les lois du « vrai ».
A priori et a posterioriA priori (ou à priori selon l'orthographe rectifiée de 1990) et a posteriori (ou à postériori) sont un couple de concepts utilisés en philosophie et notamment en philosophie de la connaissance. Une connaissance est a priori lorsqu'elle est indépendante de l'expérience sensible et logiquement antérieure. Emmanuel Kant soutient qu'il s'agit d'une connaissance « indépendante de l'expérience ». A contrario, une connaissance a posteriori est empirique, c'est-à-dire qu'elle est « issu[e] de l'expérience » (Kant).
Taxe foncièreLa taxe foncière est un impôt local dû tous les ans par le propriétaire ou l'usufruitier d'un bien immobilier. Selon une étude commandée par la Fédération des promoteurs immobiliers (FPI) en 2014, la France a, en Europe, « la fiscalité la plus élevée en matière d'impôts locaux liés au logement : taxe foncière et taxe d'habitation ». Selon une étude de Coe-Rexecode, comparant la fiscalité de 5 pays européens, en 2012, le taux français d'impôts fonciers et immobiliers est le plus élevé avec 2,6 % du PIB devant le Royaume uni 1,6 %, l'Italie 1,4 %, l'Espagne 1,1 % et l'Allemagne 0,4 %.
Loss functions for classificationIn machine learning and mathematical optimization, loss functions for classification are computationally feasible loss functions representing the price paid for inaccuracy of predictions in classification problems (problems of identifying which category a particular observation belongs to). Given as the space of all possible inputs (usually ), and as the set of labels (possible outputs), a typical goal of classification algorithms is to find a function which best predicts a label for a given input .
Gradient boostingGradient boosting is a machine learning technique used in regression and classification tasks, among others. It gives a prediction model in the form of an ensemble of weak prediction models, i.e., models that make very few assumptions about the data, which are typically simple decision trees. When a decision tree is the weak learner, the resulting algorithm is called gradient-boosted trees; it usually outperforms random forest.
Bruits colorésBien que le bruit soit un signal aléatoire, il possède des propriétés statiques caractéristiques. La densité spectrale de puissance en est une, et peut être utilisée pour distinguer les différents types de bruit. Cette classification par la densité spectrale donne une terminologie de « couleurs ». Chaque type est défini par une couleur. Ces définitions sont, en principe, communes aux différentes disciplines pour lesquelles le bruit est un facteur important (comme l'acoustique, la musique, l'électrotechnique et la physique).