Computational complexityIn computer science, the computational complexity or simply complexity of an algorithm is the amount of resources required to run it. Particular focus is given to computation time (generally measured by the number of needed elementary operations) and memory storage requirements. The complexity of a problem is the complexity of the best algorithms that allow solving the problem. The study of the complexity of explicitly given algorithms is called analysis of algorithms, while the study of the complexity of problems is called computational complexity theory.
Fission products (by element)This page discusses each of the main elements in the mixture of fission products produced by nuclear fission of the common nuclear fuels uranium and plutonium. The isotopes are listed by element, in order by atomic number. Neutron capture by the nuclear fuel in nuclear reactors and atomic bombs also produces actinides and transuranium elements (not listed here). These are found mixed with fission products in spent nuclear fuel and nuclear fallout. Neutron capture by materials of the nuclear reactor (shielding, cladding, etc.
Théorie de la complexité (informatique théorique)vignette|Quelques classes de complexité étudiées dans le domaine de la théorie de la complexité. Par exemple, P est la classe des problèmes décidés en temps polynomial par une machine de Turing déterministe. La théorie de la complexité est le domaine des mathématiques, et plus précisément de l'informatique théorique, qui étudie formellement le temps de calcul, l'espace mémoire (et plus marginalement la taille d'un circuit, le nombre de processeurs, l'énergie consommée ...) requis par un algorithme pour résoudre un problème algorithmique.
NanomatériauUn nanomatériau est un matériau (sous forme de poudre, aérosol ou quasi-gaz, suspension liquide, gel) possédant des propriétés particulières à cause de sa taille et structure nanométrique. Les nanomatériaux sont habituellement issus de la nanotechnologie, à la différence des nanoparticules qui peuvent être d'origine naturelle ou résulter de processus tels que le soudage, le fumage, le polissage. Le , la Commission européenne publie ses recommandations relatives à la définition des nanomatériaux (recommandation 2011/696/UE) : .
Problème algorithmiqueUn problème algorithmique est, en informatique théorique, un objet mathématique qui représente une question ou un ensemble de questions auxquelles un ordinateur devrait être en mesure de répondre. Le plus souvent, ces problèmes sont de la forme : étant donné un objet (l'instance), effectuer une certaine action ou répondre à telle question. Par exemple, le problème de la factorisation est le problème suivant : étant donné un nombre entier, trouver un facteur premier de cet entier.
Difluorure de xénonLe difluorure de xénon est le composé chimique de formule synthétisé pour la première fois à Munster par le chimiste Rudolf Hoppe. Il se présente sous forme d'un solide cristallin incolore qui se sublime à . On l'obtient à partir de xénon et de fluor sous l'effet de la chaleur, d'un arc électrique ou d'un rayonnement ultraviolet : + hν → . Cette réaction est très facile et peut même être réalisée à la lumière du jour par temps couvert en laissant réagir du xénon avec du fluor.
Air separationAn air separation plant separates atmospheric air into its primary components, typically nitrogen and oxygen, and sometimes also argon and other rare inert gases. The most common method for air separation is fractional distillation. Cryogenic air separation units (ASUs) are built to provide nitrogen or oxygen and often co-produce argon. Other methods such as membrane, pressure swing adsorption (PSA) and vacuum pressure swing adsorption (VPSA) are commercially used to separate a single component from ordinary air.
Produit de fission à vie longueLes produits de fission à vie longue sont les matériaux radioactifs dont la demi-vie est longue (plus de ), produits par fission nucléaire. La fission nucléaire produit des produits de fission, des actinides à partir du combustible nucléaire dont les noyaux capturent des neutrons mais ne subissent pas de fission, et des produits d'activation dus à l'activation neutronique du réacteur ou des matériaux de l'environnement.
Modélisation moléculairethumb|Animation d'un modèle compact d'ADN en forme B|327x327px|alt=Modèle de l'ADN en forme B La modélisation moléculaire est un ensemble de techniques pour modéliser ou simuler le comportement de molécules. Elle est utilisée pour reconstruire la structure tridimensionnelle de molécules, en particulier en biologie structurale, à partir de données expérimentales comme la cristallographie aux rayons X. Elle permet aussi de simuler le comportement dynamique des molécules et leur mouvements internes.
Forêt d'arbres décisionnelsvignette|Illustration du principe de construction d'une forêt aléatoire comme agrégation d'arbre aléatoires. En apprentissage automatique, les forêts d'arbres décisionnels (ou forêts aléatoires de l'anglais random forest classifier) forment une méthode d'apprentissage ensembliste. Ils ont été premièrement proposées par Ho en 1995 et ont été formellement proposées en 2001 par Leo Breiman et Adele Cutler. Cet algorithme combine les concepts de sous-espaces aléatoires et de bagging.