Bruit de phasedroite|vignette|250x250px| Bruit de phase mesuré par un analyseur de source de signal. L'analyseur montre la partie positive du bruit de phase. Sur cette image, on voit le bruit de phase de la porteuse principale, trois autres signaux et une "colline de bruit". droite|vignette|250x250px| Un signal faible disparaît dans le bruit de phase d'un signal plus fort Dans le traitement du signal, le bruit de phase est la représentation dans le domaine fréquentiel des fluctuations aléatoires de la phase d'une forme d'onde.
Équation de la chaleurEn mathématiques et en physique théorique, l'équation de la chaleur est une équation aux dérivées partielles parabolique, pour décrire le phénomène physique de conduction thermique, introduite initialement en 1807 par Joseph Fourier, après des expériences sur la propagation de la chaleur, suivies par la modélisation de l'évolution de la température avec des séries trigonométriques, appelés depuis séries de Fourier et transformées de Fourier, permettant une grande amélioration à la modélisation mathématique
Bruit blancthumb|Échantillon de bruit blanc. thumb|Spectre plat d'un bruit blanc (sur l'abscisse, la fréquence ; en ordonnée, l'intensité). Un bruit blanc est une réalisation d'un processus aléatoire dans lequel la densité spectrale de puissance est la même pour toutes les fréquences de la bande passante. Le bruit additif blanc gaussien est un bruit blanc qui suit une loi normale de moyenne et variance données. Des générateurs de signaux aléatoires () sont utilisés pour des essais de dispositifs de transmission et, à faible niveau, pour l'amélioration des systèmes numériques par dither.
Équation différentielleEn mathématiques, une équation différentielle est une équation dont la ou les « inconnue(s) » sont des fonctions ; elle se présente sous la forme d'une relation entre ces fonctions inconnues et leurs dérivées successives. C'est un cas particulier d'équation fonctionnelle. On distingue généralement deux types d'équations différentielles : les équations différentielles ordinaires (EDO) où la ou les fonctions inconnues recherchées ne dépendent que d'une seule variable ; les équations différentielles partielles, plutôt appelées équations aux dérivées partielles (EDP), où la ou les fonctions inconnues recherchées peuvent dépendre de plusieurs variables indépendantes.
Capacité d'un canalLa capacité d'un canal, en génie électrique, en informatique et en théorie de l'information, est la limite supérieure étroite du débit auquel l'information peut être transmise de manière fiable sur un canal de communication. Suivant les termes du théorème de codage du canal bruyant, la capacité d'un canal donné est le débit d'information le plus élevé (en unités d'information par unité de temps) qui peut être atteint avec une probabilité d'erreur arbitrairement faible. La théorie de l'information, développée par Claude E.
Théorème de Shannon-HartleyEn théorie de l'information, le théorème de Shannon-Hartley indique le débit maximal auquel l'information peut être transmise sur un canal de communication d'une bande passante spécifiée en présence de bruit. Il s'agit d'une application du théorème du codage de canal au cas archétypal du canal de communication analogique à temps continu soumis à un bruit gaussien.