Essai de chocUn essai de choc (terme traduit de l'anglais crash test) est une opération réalisée en laboratoire consistant à tester le comportement des véhicules en cas de choc ou de collision. Le véhicule testé (automobile, voiture de chemin de fer...) est soit projeté à une vitesse donnée sur un obstacle massif, soit immobilisé et soumis à un choc d'un mobile de masse déterminée de façon à reconstituer les conditions d'un choc et de mesurer les déformations de sa structure et les dommages résultants pour les passagers.
Dispositif anthropomorphe d'essaiLes dispositifs anthropomorphes d'essai (DAE) ou mannequins d’essai de choc (« crash test dummies » en anglais), familièrement fantômes, sont des répliques taille réelle d'êtres humains, lestées et articulées de manière à simuler le comportement d'un corps humain. Ils sont équipés d'instruments enregistrant autant de données que possible sur les accidents, comme la vitesse et la force d'impact de différentes parties du corps lors d'un choc.
Propriété universelleEn mathématiques, et plus précisément en théorie des catégories, une propriété universelle est la propriété des objets qui sont la solution d'un problème universel posé par un foncteur. De très nombreux objets classiques des mathématiques, comme la notion de produit cartésien, de groupe quotient, ou de compactifié, peuvent être définis comme des solutions de problèmes universels.
Impulsion électromagnétiquevignette|redresse=1.2|Simulateur d'EMP HAGII-C testé sur un avion Boeing E-4 (1979). Une impulsion électromagnétique (IEM), également connue sous le nom EMP (de l'anglais electromagnetic pulse) est une émission d'ondes électromagnétiques brève et de très forte amplitude qui peut détruire de nombreux appareils électriques et électroniques (reliés au courant et non protégés) et brouiller les télécommunications.
Algorithmically random sequenceIntuitively, an algorithmically random sequence (or random sequence) is a sequence of binary digits that appears random to any algorithm running on a (prefix-free or not) universal Turing machine. The notion can be applied analogously to sequences on any finite alphabet (e.g. decimal digits). Random sequences are key objects of study in algorithmic information theory. As different types of algorithms are sometimes considered, ranging from algorithms with specific bounds on their running time to algorithms which may ask questions of an oracle machine, there are different notions of randomness.
Algorithme de rechercheEn informatique, un algorithme de recherche est un type d'algorithme qui, pour un domaine, un problème de ce domaine et des critères donnés, retourne en résultat un ensemble de solutions répondant au problème. Supposons que l'ensemble de ses entrées soit divisible en sous-ensemble, par rapport à un critère donné, qui peut être, par exemple, une relation d'ordre. De façon générale, un tel algorithme vérifie un certain nombre de ces entrées et retourne en sortie une ou plusieurs des entrées visées.
Interaction faiblethumb|right|330px|L'interaction faible déclenche la nucléosynthèse dans les étoiles. L'interaction faible (aussi appelée force faible et parfois force nucléaire faible) est l'une des quatre interactions fondamentales de la nature, les trois autres étant les interactions électromagnétique, forte et gravitationnelle. Elle est responsable de la désintégration radioactive de particules subatomiques et est à l'origine de la fusion nucléaire dans les étoiles.
Isospin faibleEn physique des particules, l'isospin faible sous l'interaction faible correspond à l'isospin sous l'interaction forte. L'isospin faible est habituellement représenté par le symbole Tz ou IW. Les leptons ne sont pas soumis à l'interaction forte et donc l'isospin n'est pas défini pour eux. Mais tous les fermions élémentaires peuvent se grouper en multiplets sous l'interaction faible, de la même manière que, sous l'interaction forte, l'isospin crée des multiplets de hadrons de particules qui sont imperceptibles.
Théorie algorithmique de l'informationLa théorie algorithmique de l'information, initiée par Kolmogorov, Solomonov et Chaitin dans les années 1960, vise à quantifier et qualifier le contenu en information d'un ensemble de données, en utilisant la théorie de la calculabilité et la notion de machine universelle de Turing. Cette théorie permet également de formaliser la notion de complexité d'un objet, dans la mesure où l'on considère qu'un objet (au sens large) est d'autant plus complexe qu'il faut beaucoup d'informations pour le décrire, ou — à l'inverse — qu'un objet contient d'autant plus d'informations que sa description est longue.
Algorithme d'EuclideEn mathématiques, l'algorithme d'Euclide est un algorithme qui calcule le plus grand commun diviseur (PGCD) de deux entiers, c'est-à-dire le plus grand entier qui divise les deux entiers, en laissant un reste nul. L'algorithme ne requiert pas de connaître la factorisation de ces deux nombres. vignette|Peinture censée représenter le mathématicien Euclide d'Alexandrie, par Justus of Ghent. Selon Donald Knuth, l'algorithme d'Euclide est l'un des plus anciens algorithmes.