Courant électriqueUn courant électrique est un mouvement d'ensemble de porteurs de charges électriques, généralement des électrons, au sein d'un matériau conducteur. Ces déplacements sont imposés par l'action de la force électromagnétique, dont l'interaction avec la matière est le fondement de l'électricité. On doit au physicien français André-Marie Ampère la distinction entre courant et tension électriques.
Densité de courantLa densité de courant, ou densité volumique de courant, est un vecteur qui décrit le courant électrique à l'échelle locale, en tout point d'un système physique. Dans le Système international d'unités, son module s'exprime en ampères par mètre carré ( ou ). À l'échelle du système tout entier il s'agit d'un champ de vecteurs, puisque le vecteur densité de courant est défini en tout point.
Courants de FoucaultOn appelle courants de Foucault (Eddy currents) les courants électriques créés dans une masse conductrice, soit par la variation au cours du temps d'un champ magnétique extérieur traversant ce milieu (le flux du champ à travers le milieu), soit par un déplacement de cette masse dans un champ magnétique. Ils sont une conséquence de l'induction électromagnétique. Les courants de Foucault sont responsables d'une partie des pertes (dites pertes par courants de Foucault) dans les circuits magnétiques des machines électriques alternatives et des transformateurs.
Program analysisIn computer science, program analysis is the process of automatically analyzing the behavior of computer programs regarding a property such as correctness, robustness, safety and liveness. Program analysis focuses on two major areas: program optimization and program correctness. The first focuses on improving the program’s performance while reducing the resource usage while the latter focuses on ensuring that the program does what it is supposed to do.
Alliage de titaneLes alliages de titane sont des métaux faits de titane et d'autres éléments chimiques. Ils sont légers et ont une forte résistance à la corrosion et aux températures extrêmes. Cependant, le coût élevé des deux matières premières et de leur traitement limite leur production à des applications militaires, la construction d'avions, d'engins spatiaux, la fabrication de dispositifs médicaux, ou des composants tels que les bielles sur des voitures de sport et de certains composants électroniques.
Analyse statique de programmesEn informatique, la notion d’analyse statique de programmes couvre une variété de méthodes utilisées pour obtenir des informations sur le comportement d'un programme lors de son exécution sans réellement l'exécuter. C'est cette dernière restriction qui distingue l'analyse statique des analyses dynamiques (comme le débugage ou le profiling) qui s'attachent, elles, au suivi de l’exécution du programme. L’analyse statique est utilisée pour repérer des erreurs formelles de programmation ou de conception et pour déterminer la facilité ou la difficulté à maintenir le code.
Rayonnement du corps noirvignette|303px|Au fur et à mesure que la température diminue, le sommet de la courbe de rayonnement du corps noir se déplace à des intensités plus faibles et des longueurs d'onde plus grandes. Le diagramme de rayonnement du corps noir est comparé avec le modèle classique de Rayleigh et Jeans. vignette|303px|La couleur (chromaticité) du rayonnement du corps noir dépend de la température du corps noir. Le lieu géométrique de telles couleurs, représenté ici en espace x,y CIE XYZ, est connu sous le nom de lieu géométrique de Planck.
Fond diffus cosmologiqueLe fond diffus cosmologique (FDC, ou CMB pour l'anglais cosmic microwave background, « fond cosmique de micro-ondes ») est un rayonnement électromagnétique très homogène observé dans toutes les directions du ciel et dont le pic d'émission est situé dans le domaine des micro-ondes. On le qualifie de diffus parce qu'il ne provient pas d'une ou plusieurs sources localisées, et de cosmologique parce que, selon l'interprétation qu'on en fait, il est présent dans tout l'Univers (le cosmos).
Analyse amortieEn informatique, l'analyse amortie est une méthode d'évaluation de la complexité temporelle des opérations sur une structure de données. Cette analyse résulte en une classification des algorithmes et conduit à une théorie spécifique de la complexité des algorithmes que l'on appelle complexité amortie. L'analyse amortie consiste essentiellement à majorer le coût cumulé d'une suite d'opérations pour attribuer à chaque opération la moyenne de cette majoration, en prenant en compte le fait que les cas chers surviennent rarement et isolément et compensent les cas bon marché.
Analyse de la complexité des algorithmesvignette|Représentation d'une recherche linéaire (en violet) face à une recherche binaire (en vert). La complexité algorithmique de la seconde est logarithmique alors que celle de la première est linéaire. L'analyse de la complexité d'un algorithme consiste en l'étude formelle de la quantité de ressources (par exemple de temps ou d'espace) nécessaire à l'exécution de cet algorithme. Celle-ci ne doit pas être confondue avec la théorie de la complexité, qui elle étudie la difficulté intrinsèque des problèmes, et ne se focalise pas sur un algorithme en particulier.