PreuveUne preuve, (en science ou en droit) est un fait ou un raisonnement propre à établir la vérité. Une preuve est associée à son niveau d'incertitude quand elle est utilisée. Les éléments inductifs et déductifs qui y sont attachés lui confèrent donc un certain niveau d'incertitude. L'évaluation intuitive de ce niveau détermine le degré de confiance qu'on peut apporter à la preuve. La plupart des preuves utilisées dans la vie courante sont communément admises comme étant dignes de confiance.
Classical unified field theoriesSince the 19th century, some physicists, notably Albert Einstein, have attempted to develop a single theoretical framework that can account for all the fundamental forces of nature – a unified field theory. Classical unified field theories are attempts to create a unified field theory based on classical physics. In particular, unification of gravitation and electromagnetism was actively pursued by several physicists and mathematicians in the years between the two World Wars.
Entropie (thermodynamique)L'entropie est une grandeur physique qui caractérise le degré de désorganisation d'un système. Introduite en 1865 par Rudolf Clausius, elle est nommée à partir du grec , littéralement « action de se retourner » pris au sens de « action de se transformer ». En thermodynamique, l'entropie est une fonction d'état extensive (c'est-à-dire, proportionnelle à la quantité de matière dans le système considéré). Elle est généralement notée , et dans le Système international d'unités elle s'exprime en joules par kelvin ().
Médecine fondée sur les faitsLa médecine fondée sur les faits (ou médecine fondée sur les données probantes ; voir les autres synonymes) se définit comme . On utilise plus couramment le terme anglais , et parfois les termes médecine fondée sur les preuves ou médecine factuelle. Ces preuves proviennent d'études cliniques systématiques, telles que des essais contrôlés randomisés en double aveugle, des méta-analyses, éventuellement des études transversales ou de suivi bien construites.
Preuve (droit)vignette|Police scientifique cherchant des empreintes digitales qui serviront de preuves En droit, une preuve est un élément qui permet à un tiers de s'assurer de la véracité d'un fait. Dans la plupart des législations pénales ou civiles, l'altération de preuves visant, soit à altérer, falsifier ou effacer des traces ou indices, soit d’ouvrir une fausse piste, constitue une infraction grave punie par la loi. Preuve en droit civil français Preuve en droit pénal français Preuve en droit civil québécois Charge
Circumstantial evidenceCircumstantial evidence is evidence that relies on an inference to connect it to a conclusion of fact—such as a fingerprint at the scene of a crime. By contrast, direct evidence supports the truth of an assertion directly—i.e., without need for any additional evidence or inference. On its own, circumstantial evidence allows for more than one explanation. Different pieces of circumstantial evidence may be required, so that each corroborates the conclusions drawn from the others.
Entropie de RényiL'entropie de Rényi, due à Alfréd Rényi, est une fonction mathématique qui correspond à la quantité d'information contenue dans la probabilité de collision d'une variable aléatoire. Étant donnés une variable aléatoire discrète à valeurs possibles , ainsi qu'un paramètre réel strictement positif et différent de 1, l' entropie de Rényi d'ordre de est définie par la formule : L'entropie de Rényi généralise d'autres acceptions de la notion d'entropie, qui correspondent chacune à des valeurs particulières de .
Entropie croiséeEn théorie de l'information, l'entropie croisée entre deux lois de probabilité mesure le nombre de bits moyen nécessaires pour identifier un événement issu de l'« ensemble des événements » - encore appelé tribu en mathématiques - sur l'univers , si la distribution des événements est basée sur une loi de probabilité , relativement à une distribution de référence . L'entropie croisée pour deux distributions et sur le même espace probabilisé est définie de la façon suivante : où est l'entropie de , et est la divergence de Kullback-Leibler entre et .
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Fermionic fieldIn quantum field theory, a fermionic field is a quantum field whose quanta are fermions; that is, they obey Fermi–Dirac statistics. Fermionic fields obey canonical anticommutation relations rather than the canonical commutation relations of bosonic fields. The most prominent example of a fermionic field is the Dirac field, which describes fermions with spin-1/2: electrons, protons, quarks, etc. The Dirac field can be described as either a 4-component spinor or as a pair of 2-component Weyl spinors.