Bruit numériqueDans une , on appelle bruit numérique toute fluctuation parasite ou dégradation que subit l'image de l'instant de son acquisition jusqu'à son enregistrement. Le bruit numérique est une notion générale à tout type d'image numérique, et ce quel que soit le type du capteur à l'origine de son acquisition (appareil photo numérique, scanner, caméra thermique...etc). Les sources de bruit numérique sont multiples, certaines sont physiques liées à la qualité de l’éclairage, de la scène, la température du capteur, la stabilité du capteur de l'image durant l'acquisition, d'autres apparaissent durant la numérisation de l'information.
Bruit blancthumb|Échantillon de bruit blanc. thumb|Spectre plat d'un bruit blanc (sur l'abscisse, la fréquence ; en ordonnée, l'intensité). Un bruit blanc est une réalisation d'un processus aléatoire dans lequel la densité spectrale de puissance est la même pour toutes les fréquences de la bande passante. Le bruit additif blanc gaussien est un bruit blanc qui suit une loi normale de moyenne et variance données. Des générateurs de signaux aléatoires () sont utilisés pour des essais de dispositifs de transmission et, à faible niveau, pour l'amélioration des systèmes numériques par dither.
Entropy estimationIn various science/engineering applications, such as independent component analysis, , genetic analysis, speech recognition, manifold learning, and time delay estimation it is useful to estimate the differential entropy of a system or process, given some observations. The simplest and most common approach uses histogram-based estimation, but other approaches have been developed and used, each with its own benefits and drawbacks.
Constante de BoltzmannLa constante de Boltzmann k (ou k) a été introduite par Ludwig Boltzmann dans sa définition de l'entropie de 1877. Le système étant à l'équilibre macroscopique, mais libre d'évoluer à l'échelle microscopique entre micro-états différents, son entropie S est donnée par : où la constante k retenue par le CODATA vaut (valeur exacte). La constante des gaz parfaits est liée à la constante de Boltzmann par la relation : (avec (valeur exacte) le nombre d'Avogadro, nombre de particules dans une mole). D'où :.
Bruit de phasedroite|vignette|250x250px| Bruit de phase mesuré par un analyseur de source de signal. L'analyseur montre la partie positive du bruit de phase. Sur cette image, on voit le bruit de phase de la porteuse principale, trois autres signaux et une "colline de bruit". droite|vignette|250x250px| Un signal faible disparaît dans le bruit de phase d'un signal plus fort Dans le traitement du signal, le bruit de phase est la représentation dans le domaine fréquentiel des fluctuations aléatoires de la phase d'une forme d'onde.
Reconnaissance optique de caractèresvignette|Vidéo montrant un processus de reconnaissance optique de caractères effectué en direct grâce à un scanner portable. La reconnaissance optique de caractères (ROC, ou OCR pour l'anglais optical character recognition), ou océrisation, désigne les procédés informatiques pour la traduction d'images de textes imprimés ou dactylographiés en fichiers de texte. Un ordinateur réclame pour l'exécution de cette tâche un logiciel d'OCR.
Entropy and lifeResearch concerning the relationship between the thermodynamic quantity entropy and both the origin and evolution of life began around the turn of the 20th century. In 1910, American historian Henry Adams printed and distributed to university libraries and history professors the small volume A Letter to American Teachers of History proposing a theory of history based on the second law of thermodynamics and on the principle of entropy. The 1944 book What is Life? by Nobel-laureate physicist Erwin Schrödinger stimulated further research in the field.
Deuxième principe de la thermodynamiqueLe deuxième principe de la thermodynamique (également connu sous le nom de deuxième loi de la thermodynamique ou principe de Carnot) établit l'irréversibilité des phénomènes physiques, en particulier lors des échanges thermiques. C'est un principe d'évolution qui fut énoncé pour la première fois par Sadi Carnot en 1824. Il a depuis fait l'objet de nombreuses généralisations et formulations successives par Clapeyron (1834), Clausius (1850), Lord Kelvin, Ludwig Boltzmann en 1873 et Max Planck (voir Histoire de la thermodynamique et de la mécanique statistique), tout au long du et au-delà jusqu'à nos jours.
AutocorrélationL'autocorrélation est un outil mathématique souvent utilisé en traitement du signal. C'est la corrélation croisée d'un signal par lui-même. L'autocorrélation permet de détecter des régularités, des profils répétés dans un signal comme un signal périodique perturbé par beaucoup de bruit, ou bien une fréquence fondamentale d'un signal qui ne contient pas effectivement cette fondamentale, mais l'implique avec plusieurs de ses harmoniques. Note : La confusion est souvent faite entre l'auto-covariance et l'auto-corrélation.
Entropie différentielleDifferential entropy (also referred to as continuous entropy) is a concept in information theory that began as an attempt by Claude Shannon to extend the idea of (Shannon) entropy, a measure of average (surprisal) of a random variable, to continuous probability distributions. Unfortunately, Shannon did not derive this formula, and rather just assumed it was the correct continuous analogue of discrete entropy, but it is not. The actual continuous version of discrete entropy is the limiting density of discrete points (LDDP).