Rayon Xvignette|upright|Une des premières radiographies, prise par Wilhelm Röntgen. alt=Rayon X des poumons humains|vignette|189x189px|Rayon X des poumons humains. Les rayons X sont une forme de rayonnement électromagnétique à haute fréquence constitué de photons dont l'énergie varie d'une centaine d'eV (électron-volt), à plusieurs MeV. Ce rayonnement a été découvert en 1895 par le physicien allemand Wilhelm Röntgen, qui a reçu pour cela le premier prix Nobel de physique ; il lui donna le nom habituel de l'inconnue en mathématiques, X.
Entropie (thermodynamique)L'entropie est une grandeur physique qui caractérise le degré de désorganisation d'un système. Introduite en 1865 par Rudolf Clausius, elle est nommée à partir du grec , littéralement « action de se retourner » pris au sens de « action de se transformer ». En thermodynamique, l'entropie est une fonction d'état extensive (c'est-à-dire, proportionnelle à la quantité de matière dans le système considéré). Elle est généralement notée , et dans le Système international d'unités elle s'exprime en joules par kelvin ().
Astronomie en rayons Xvignette|redresse=2|Les rayons X couvrent le domaine allant d'environ , auquel l'atmosphère est opaque. L’astronomie en (souvent abrégée en ) est la branche de l'astronomie qui consiste à étudier l'émission des objets célestes en . Puisque le est absorbé par l'atmosphère de la Terre, les instruments doivent être envoyés à haute altitude à l'aide de ballons et désormais de fusées. L' fait donc aujourd'hui partie de la recherche spatiale, les détecteurs étant placés à bord de satellites.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Bayesian probabilityBayesian probability (ˈbeɪziən or ˈbeɪʒən ) is an interpretation of the concept of probability, in which, instead of frequency or propensity of some phenomenon, probability is interpreted as reasonable expectation representing a state of knowledge or as quantification of a personal belief. The Bayesian interpretation of probability can be seen as an extension of propositional logic that enables reasoning with hypotheses; that is, with propositions whose truth or falsity is unknown.