Bruit de phasedroite|vignette|250x250px| Bruit de phase mesuré par un analyseur de source de signal. L'analyseur montre la partie positive du bruit de phase. Sur cette image, on voit le bruit de phase de la porteuse principale, trois autres signaux et une "colline de bruit". droite|vignette|250x250px| Un signal faible disparaît dans le bruit de phase d'un signal plus fort Dans le traitement du signal, le bruit de phase est la représentation dans le domaine fréquentiel des fluctuations aléatoires de la phase d'une forme d'onde.
Courant triphaséUn système de courant (ou tension) triphasé est constitué de trois courants (ou tensions) sinusoïdaux de même fréquence et de même amplitude qui sont déphasés entre eux d'un tiers de tour soit radians (ou 120 degrés) dans le cas idéal. Si la fréquence est de , alors les trois phases sont retardées l'une par rapport à l'autre de (soit ). Lorsque les trois conducteurs sont parcourus par des courants de même valeur efficace et sont déphasés de , le système est dit équilibré.
PhaseurEn physique et en ingénierie, un phaseur est une représentation d'une fonction sinusoïdale dans laquelle l'amplitude (A), la phase (θ) et la pulsation (ω) (sachant que ω = 2πf) ne dépendent pas du temps. Il s'agit d'une application d'un concept plus général appelé représentation analytique. Les phaseurs permettent de réduire la dépendance de ces trois paramètres à trois facteurs indépendants, ce qui simplifie certains calculs.
Marge d'erreurEn statistiques, la marge d'erreur est une estimation de l'étendue que les résultats d'un sondage peuvent avoir si l'on recommence l'enquête. Plus la marge d'erreur est importante, moins les résultats sont fiables et plus la probabilité qu'ils soient écartés de la réalité est importante. La marge d'erreur peut être calculée directement à partir de la taille de l'échantillon (par exemple, le nombre de personnes sondées) et est habituellement reportée par l'un des trois différents niveaux de l'intervalle de confiance.
Unité de mesureEn physique et en métrologie, une est une . Une unité de mesure peut être définie à partir de constantes fondamentales ou par un étalon, utilisé pour la mesure. Les systèmes d'unités, définis en cherchant le plus large accord dans le domaine considéré, sont rendus nécessaires par la méthode scientifique, dont l'un des fondements est la reproductibilité des expériences (donc des mesures), ainsi que par le développement des échanges d'informations commerciales ou industrielles.
Acousto-optiqueL’acousto-optique est une branche de la physique étudiant les interactions entre les ondes sonores et les ondes lumineuses, en particulier la diffraction d'un laser par les ultrasons et les ondes sonores en général. vignette|L'effet acousto-optique. Tandis que l’optique et l’acoustique ont été étudiés dès l’époque de la Grèce Antique, la naissance de l’acousto-optique est plus récente, puisque cette science n’émerge qu’au début du : en 1914, en effet, le physicien français Léon Brillouin présente une première théorie du couplage entre une onde lumineuse et une onde hypersonique.
Peigne de fréquences optiquesvignette|Schéma représentant les caractéristiques du spectre associé à un train d'impulsions à modes bloqués, c'est-à-dire un peigne de fréquences. En pointillés rouge est représenté l'enveloppe du spectre. En bleu est représenté les composantes du spectre (les dents du peigne).|300x300px Un peigne de fréquences est la structure spectrale d'une source optique spécifique. Celle-ci est composée d'une succession de fréquences discrètes régulièrement espacées, aussi appelées les raies ou « dents » du peigne.
Erreur quadratique moyenneEn statistiques, l’erreur quadratique moyenne d’un estimateur d’un paramètre de dimension 1 (mean squared error (), en anglais) est une mesure caractérisant la « précision » de cet estimateur. Elle est plus souvent appelée « erreur quadratique » (« moyenne » étant sous-entendu) ; elle est parfois appelée aussi « risque quadratique ».
Qualité de l'ajustementThe goodness of fit of a statistical model describes how well it fits a set of observations. Measures of goodness of fit typically summarize the discrepancy between observed values and the values expected under the model in question. Such measures can be used in statistical hypothesis testing, e.g. to test for normality of residuals, to test whether two samples are drawn from identical distributions (see Kolmogorov–Smirnov test), or whether outcome frequencies follow a specified distribution (see Pearson's chi-square test).
Sampling errorIn statistics, sampling errors are incurred when the statistical characteristics of a population are estimated from a subset, or sample, of that population. It can produced biased results. Since the sample does not include all members of the population, statistics of the sample (often known as estimators), such as means and quartiles, generally differ from the statistics of the entire population (known as parameters). The difference between the sample statistic and population parameter is considered the sampling error.