Probabilité algorithmiqueEn théorie algorithmique de l'information, la probabilité algorithmique, aussi connue comme probabilité de Solomonoff, est une méthode permettant d’assigner une probabilité à une observation donnée. Il a été inventé par Ray Solomonoff dans les années 1960. Elle est utilisée dans la théorie de l'inférence inductive et dans l'analyse des algorithmes. En particulier, dans sa thèorie de l'induction, Solomonoff utilise une telle formulation pour exprimer la probabilité a priori dans la formule de Bayes.
Théorie algorithmique de l'informationLa théorie algorithmique de l'information, initiée par Kolmogorov, Solomonov et Chaitin dans les années 1960, vise à quantifier et qualifier le contenu en information d'un ensemble de données, en utilisant la théorie de la calculabilité et la notion de machine universelle de Turing. Cette théorie permet également de formaliser la notion de complexité d'un objet, dans la mesure où l'on considère qu'un objet (au sens large) est d'autant plus complexe qu'il faut beaucoup d'informations pour le décrire, ou — à l'inverse — qu'un objet contient d'autant plus d'informations que sa description est longue.
InquiryAn inquiry (also spelled as enquiry in British English) is any process that has the aim of augmenting knowledge, resolving doubt, or solving a problem. A theory of inquiry is an account of the various types of inquiry and a treatment of the ways that each type of inquiry achieves its aim. When three terms are so related to one another that the last is wholly contained in the middle and the middle is wholly contained in or excluded from the first, the extremes must admit of perfect syllogism.
Liste de concepts logiquesCet article liste les principaux concepts logiques, au sens philosophique du terme, c'est-à-dire en logique générale (issue de la dialectique). Nota : La logique comporte aussi des branches en mathématiques et en informatique. Ces branches de la logique utilisent des concepts souvent différents comme les prédicats : axiome, théorème hypothèse, conjonction, disjonction, Déduction naturelle... Pour plus d'informations sur ces concepts consulter les articles : Logique mathématique, logique classique.
Early modern philosophyEarly modern philosophy (also classical modern philosophy) is a period in the history of philosophy that overlaps with the beginning of the period known as modern philosophy. The early modern era of philosophy was a progressive movement of Western thought, exploring through theories and discourse such topics as mind and matter, the supernatural, and civil life. It succeeded in the medieval era of philosophy. Early modern philosophy is usually thought to have occurred between the 16th and 18th centuries, though some philosophers and historians may put this period slightly earlier.
InductivismeL'inductivisme est une conception épistémologique normative selon laquelle les connaissances doivent se construire uniquement sur la base d'un grand nombre d'observations et sans idées préconçues du réel. On en trouve d'abord une version « naïve » classique, qui a eu une grande influence, puis plusieurs versions plus sophistiquées. La première, que l'on peut faire remonter aux fondateurs de l'empirisme (notamment David Hume (1711-1776), qui défend la thèse selon laquelle les théories générales doivent être basées sur des observations empiriques ; celles-ci donnent lieu à des généralisations, que l'on peut considérer comme vraies ou probablement vraies.
Categorical propositionIn logic, a categorical proposition, or categorical statement, is a proposition that asserts or denies that all or some of the members of one category (the subject term) are included in another (the predicate term). The study of arguments using categorical statements (i.e., syllogisms) forms an important branch of deductive reasoning that began with the Ancient Greeks. The Ancient Greeks such as Aristotle identified four primary distinct types of categorical proposition and gave them standard forms (now often called A, E, I, and O).
Critical rationalismCritical rationalism is an epistemological philosophy advanced by Karl Popper on the basis that, if a statement cannot be logically deduced (from what is known), it might nevertheless be possible to logically falsify it. Following Hume, Popper rejected any inductive logic that is ampliative, i.e., any logic that can provide more knowledge than deductive logic. In other words if we cannot assert it logically, we should at the least try to logically falsify it, which led Popper to his falsifiability criterion.
Oubli de la fréquence de baseL'oubli de la fréquence de base (aussi connue sous le nom de négligence de la taille de l'échantillon) est un biais cognitif lié aux lois statistiques, qui se manifeste par le fait que les gens oublient souvent de considérer la fréquence de base de l'occurrence d'un événement lorsqu'ils cherchent à en évaluer une probabilité. Le plus souvent, cela conduit à surestimer cette probabilité.
Grammar inductionGrammar induction (or grammatical inference) is the process in machine learning of learning a formal grammar (usually as a collection of re-write rules or productions or alternatively as a finite state machine or automaton of some kind) from a set of observations, thus constructing a model which accounts for the characteristics of the observed objects. More generally, grammatical inference is that branch of machine learning where the instance space consists of discrete combinatorial objects such as strings, trees and graphs.