Fonction propreEn théorie spectrale, une fonction propre f d'un opérateur linéaire sur un espace fonctionnel est un vecteur propre de l'opérateur linéaire. En d’autres termes, une fonction propre d'un opérateur linéaire, , défini sur un certain espace de fonction, est toute fonction f non identiquement nulle sur cet espace qui, lorsqu’elle se voit appliquer cet opérateur en ressort exactement pareille à elle-même, à un facteur d'échelle multiplicatif près. Cette fonction satisfait donc : pour un scalaire λ, la valeur propre associée à f.
Nonprobability samplingSampling is the use of a subset of the population to represent the whole population or to inform about (social) processes that are meaningful beyond the particular cases, individuals or sites studied. Probability sampling, or random sampling, is a sampling technique in which the probability of getting any particular sample may be calculated. In cases where external validity is not of critical importance to the study's goals or purpose, researchers might prefer to use nonprobability sampling.
Raisonnement fallacieuxUn raisonnement fallacieux est un raisonnement incorrect qui a pourtant une apparence de validité logique. On distingue généralement deux types de raisonnements fallacieux : le sophisme, qui est une argumentation destinée à tromper autrui, et le paralogisme qui est une de raisonnement involontaire. Kant effectuait cette distinction dans son ouvrage Logique (1800) indiquant qu'un syllogisme erroné quant à sa forme est un paralogisme quand il trompe son auteur, et un sophisme quand il vise à tromper autrui.
Mouvement dans un champ central symétriqueL'étude du mouvement dans un champ central symétrique correspond à la généralisation en mécanique quantique du problème à deux corps de la mécanique classique. Ce dernier est un modèle théorique important, notamment en astronomie où il permet de comprendre le mouvement des planètes autour du Soleil (ou d'une autre étoile), ou encore celui des satellites artificiels, au moins en première approximation.
Inductive programmingInductive programming (IP) is a special area of automatic programming, covering research from artificial intelligence and programming, which addresses learning of typically declarative (logic or functional) and often recursive programs from incomplete specifications, such as input/output examples or constraints. Depending on the programming language used, there are several kinds of inductive programming.
Solomonoff's theory of inductive inferenceSolomonoff's theory of inductive inference is a mathematical theory of induction introduced by Ray Solomonoff, based on probability theory and theoretical computer science. In essence, Solomonoff's induction derives the posterior probability of any computable theory, given a sequence of observed data. This posterior probability is derived from Bayes' rule and some universal prior, that is, a prior that assigns a positive probability to any computable theory.
Suite de PadovanLa suite de Padovan est la suite d'entiers (P) définie par récurrence par : C'est une suite récurrente linéaire qui ressemble dans sa forme à la suite de Fibonacci, à une nuance près : la somme des termes de rang n et n + 1 ne donne pas le terme de rang n + 2 mais celui de rang n + 3. La suite porte le nom de l'architecte et est associée au nombre plastique étudié par l'architecte puis moine Hans van der Laan. Le mathématicien Ian Stewart, dans ses Mathematical Recreations, évoque et étudie cette suite et lui attribue le nom de suite de Padovan.
Baconian methodThe Baconian method is the investigative method developed by Sir Francis Bacon, one of the founders of modern science, and thus a first formulation of a modern scientific method. The method was put forward in Bacon's book Novum Organum (1620), or 'New Method', and was supposed to replace the methods put forward in Aristotle's Organon. This method was influential upon the development of the scientific method in modern science; but also more generally in the early modern rejection of medieval Aristotelianism.
Probabilité algorithmiqueEn théorie algorithmique de l'information, la probabilité algorithmique, aussi connue comme probabilité de Solomonoff, est une méthode permettant d’assigner une probabilité à une observation donnée. Il a été inventé par Ray Solomonoff dans les années 1960. Elle est utilisée dans la théorie de l'inférence inductive et dans l'analyse des algorithmes. En particulier, dans sa thèorie de l'induction, Solomonoff utilise une telle formulation pour exprimer la probabilité a priori dans la formule de Bayes.