Loi de Moorevignette|upright=1.8|Croissance du nombre de transistors dans les microprocesseurs Intel par rapport à la loi de Moore. En vert, un doublement tous les . Les lois de Moore sont des lois empiriques qui ont trait à l'évolution de la puissance de calcul des ordinateurs et de la complexité du matériel informatique. La première de ces lois est émise par le docteur Gordon E. Moore en 1965, lorsque celui-ci postule sur une poursuite du doublement de la complexité des semi-conducteurs tous les ans à coût constant.
Immunité grégaireL', aussi appelée immunité de communauté, immunité collective ou encore immunité de groupe, est le phénomène par lequel la propagation d'une maladie contagieuse peut être enrayée dans une population si une certaine proportion des individus est immunisée, soit par vaccination, soit par immunité croisée, soit parce qu'après avoir été contaminés ils n'ont pas développé la maladie ou en ont guéri. En effet, plus la proportion de personnes immunisées augmente, plus le risque pour une personne non immunisée de rencontrer un malade et d'attraper sa maladie diminue.
Conception de circuits intégrésLa conception (ou le design) de circuits intégrés (ou puces électroniques) consiste à réaliser les nombreuses étapes de développement (flot de conception ou design flow) nécessaires pour concevoir correctement et sans erreurs une puce électronique. Le point d'entrée est une spécification fonctionnelle qui décrit le fonctionnement voulu de la puce, ainsi que des contraintes non fonctionnelles (surface, coût, consommation...).
Architecture logicielleL’architecture logicielle décrit d’une manière symbolique et schématique les différents éléments d’un ou de plusieurs systèmes informatiques, leurs interrelations et leurs interactions. Contrairement aux spécifications produites par l’analyse fonctionnelle, le modèle d'architecture, produit lors de la phase de conception, ne décrit pas ce que doit réaliser un système informatique mais plutôt comment il doit être conçu de manière à répondre aux spécifications. L’analyse décrit le « quoi faire » alors que l’architecture décrit le « comment le faire ».
MicrofluidiqueLa microfluidique est la science et la technique des systèmes manipulant des fluides et dont au moins l'une des dimensions caractéristiques est de l'ordre du micromètre. George Whitesides définit la microfluidique comme « la science et la technologie des systèmes qui manipulent de petits volumes de fluides ( à ), en utilisant des canaux de la dimension de quelques dizaines de micromètres ». Selon Patrick Tabeling, Tabeling précise qu'il entend essentiellement par « nouvelles techniques » la microfabrication héritée de la micro-électronique.
Artificial induction of immunityArtificial induction of immunity is immunization achieved by human efforts in preventive healthcare, as opposed to (and augmenting) natural immunity as produced by organisms' immune systems. It makes people immune to specific diseases by means other than waiting for them to catch the disease. The purpose is to reduce the risk of death and suffering, that is, the disease burden, even when eradication of the disease is not possible. Vaccination is the chief type of such immunization, greatly reducing the burden of vaccine-preventable diseases.
Hasardvignette|Les jeux de dés sont des symboles du hasard (jeux de hasard). vignette|Tyché ou Fortuna et sa corne d'abondance (fortune, hasard, en grec ancien, sort en latin) déesse allégorique gréco-romaine de la chance, des coïncidences, de la fortune, de la prospérité, de la destinée...|alt= Le hasard est le principe déclencheur d'événements non liés à une cause connue. Il peut être synonyme de l'« imprévisibilité », de l'« imprédictibilité », de fortune ou de destin.
Méthode de Monte-CarloUne méthode de Monte-Carlo, ou méthode Monte-Carlo, est une méthode algorithmique visant à calculer une valeur numérique approchée en utilisant des procédés aléatoires, c'est-à-dire des techniques probabilistes. Les méthodes de Monte-Carlo sont particulièrement utilisées pour calculer des intégrales en dimensions plus grandes que 1 (en particulier, pour calculer des surfaces et des volumes). Elles sont également couramment utilisées en physique des particules, où des simulations probabilistes permettent d'estimer la forme d'un signal ou la sensibilité d'un détecteur.
Transistor countThe transistor count is the number of transistors in an electronic device (typically on a single substrate or "chip"). It is the most common measure of integrated circuit complexity (although the majority of transistors in modern microprocessors are contained in the cache memories, which consist mostly of the same memory cell circuits replicated many times). The rate at which MOS transistor counts have increased generally follows Moore's law, which observed that the transistor count doubles approximately every two years.
OrdinateurUn ordinateur est un système de traitement de l'information programmable tel que défini par Alan Turing et qui fonctionne par la lecture séquentielle d'un ensemble d'instructions, organisées en programmes, qui lui font exécuter des opérations logiques et arithmétiques. Sa structure physique actuelle fait que toutes les opérations reposent sur la logique binaire et sur des nombres formés à partir de chiffres binaires.