Courant continuLe courant continu ou CC (DC pour direct current en anglais) est un courant électrique dont l'intensité est indépendante du temps (constante). C'est, par exemple, le type de courant délivré par les piles ou les accumulateurs. Par extension, on nomme courant continu un courant périodique dont l'intensité est toujours assez proche de sa valeur moyenne ou dont la composante continue (sa valeur moyenne) est d'importance primordiale, ou encore un courant électrique qui circule continuellement (ou très majoritairement) dans le même sens (dit aussi unidirectionnel).
Inférence statistiquevignette|Illustration des 4 principales étapes de l'inférence statistique L'inférence statistique est l'ensemble des techniques permettant d'induire les caractéristiques d'un groupe général (la population) à partir de celles d'un groupe particulier (l'échantillon), en fournissant une mesure de la certitude de la prédiction : la probabilité d'erreur. Strictement, l'inférence s'applique à l'ensemble des membres (pris comme un tout) de la population représentée par l'échantillon, et non pas à tel ou tel membre particulier de cette population.
Statistical populationIn statistics, a population is a set of similar items or events which is of interest for some question or experiment. A statistical population can be a group of existing objects (e.g. the set of all stars within the Milky Way galaxy) or a hypothetical and potentially infinite group of objects conceived as a generalization from experience (e.g. the set of all possible hands in a game of poker). A common aim of statistical analysis is to produce information about some chosen population.
Courant alternatifLe courant alternatif (qui peut être abrégé par CA) est un courant électrique périodique qui change de sens deux fois par période et qui transporte des quantités d'électricité alternativement égales dans un sens et dans l'autre. Un courant alternatif a donc une composante continue (valeur moyenne) nulle. Un courant alternatif est caractérisé par sa fréquence, mesurée en hertz (Hz). La fréquence correspond au nombre de périodes du signal en une seconde (une oscillation = une période).
Modèle statistiqueUn modèle statistique est une description mathématique approximative du mécanisme qui a généré les observations, que l'on suppose être un processus stochastique et non un processus déterministe. Il s’exprime généralement à l’aide d’une famille de distributions (ensemble de distributions) et d’hypothèses sur les variables aléatoires X1, . . ., Xn. Chaque membre de la famille est une approximation possible de F : l’inférence consiste donc à déterminer le membre qui s’accorde le mieux avec les données.
Statistical mechanicsIn physics, statistical mechanics is a mathematical framework that applies statistical methods and probability theory to large assemblies of microscopic entities. It does not assume or postulate any natural laws, but explains the macroscopic behavior of nature from the behavior of such ensembles. Sometimes called statistical physics or statistical thermodynamics, its applications include many problems in the fields of physics, biology, chemistry, and neuroscience.
Entropy estimationIn various science/engineering applications, such as independent component analysis, , genetic analysis, speech recognition, manifold learning, and time delay estimation it is useful to estimate the differential entropy of a system or process, given some observations. The simplest and most common approach uses histogram-based estimation, but other approaches have been developed and used, each with its own benefits and drawbacks.
Fil magnétiquethumb|right|Un télégraphone modèle 1898, premier appareil à employer la technique du fil magnétique. L'enregistrement sur fil magnétique est une technologie obsolète, employée pour l'enregistrement sonore et sa restitution principalement dans la première moitié du . Le premier à l'employer est Valdemar Poulsen qui invente en 1898 le télégraphone, présenté à l'Exposition universelle de 1900 à Paris : son fonctionnement est basé sur un fil en acier, magnétisé à l'enregistrement.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Phase (électricité)En électricité et en électronique, le mot phase est utilisé dans différents contextes, tous relatifs aux courants électriques alternatifs. En électricité, le mot phase désigne les « canaux » d'une même source de puissance alternative, entre lesquelles il existe un déphasage (deux à 180° en monophasé et trois à 120° en triphasé). Par assimilation, les électriciens basse tension utilisent également le mot "phase" pour désigner le(s) conducteur(s) actif(s) d'une alimentation alternative.