Témoin (science)vignette|Deux échantillons de vin avec, à gauche, un échantillon ayant subit une oxydation contrôlée sur moût et, à droite, le témoin. On observe une plus forte oxydation (couleur orange) dans le témoin. Dans une expérience scientifique, un témoin est un dispositif permettant d'isoler un facteur et de conclure sur l'action de ce facteur sur un phénomène physique ou biologique. Le témoin est nécessaire pour vérifier la probité de toute expérience scientifique. Dans une expérience, deux dispositifs sont mis en route.
Étude randomisée en double aveugleL'étude randomisée en double aveugle, avec répartition aléatoire, randomisée ou à double insu (ou en double aveugle) est une démarche expérimentale utilisée dans de nombreuses disciplines de recherche telles que la médecine, les sciences sociales et la psychologie, les sciences naturelles telles que la physique et la biologie. En pharmacie, elle est utilisée dans le développement de nouveaux médicaments et pour évaluer l'efficacité d'une démarche ou d'un traitement.
Équations d'EulerEn mécanique des fluides, les équations d'Euler sont des équations aux dérivées partielles non linéaires qui décrivent l'écoulement des fluides (liquide ou gaz) dans l’approximation des milieux continus. Ces écoulements sont adiabatiques, sans échange de quantité de mouvement par viscosité ni d'énergie par conduction thermique. L'histoire de ces équations remonte à Leonhard Euler qui les a établies pour des écoulements incompressibles (1757).
Fluide de Binghamthumb|302px|La mayonnaise est un fluide de Bingham. Les plis et crêtes à la surface montrent que sous de faibles contraintes de cisaillement, les fluides de Bingham sont des quasi-solides. Le fluide de Bingham est un modèle théorique de milieu viscoplastique qui correspond à un comportement de solide parfait sous faibles contraintes, et à un comportement de fluide visqueux au-delà d'une contrainte-seuil. Ce modèle porte le nom d’Eugène Bingham qui en a donné l'expression mathématique.
Species distribution modellingSpecies distribution modelling (SDM), also known as environmental (or ecological) niche modelling (ENM), habitat modelling, predictive habitat distribution modelling, and range mapping uses computer algorithms to predict the distribution of a species across geographic space and time using environmental data. The environmental data are most often climate data (e.g. temperature, precipitation), but can include other variables such as soil type, water depth, and land cover.
Phénomène de transfertUn phénomène de transfert (ou phénomène de transport) est un phénomène irréversible durant lequel une grandeur physique est transportée par le biais de molécules. C'est un phénomène transversal présent dans tous les domaines de la science et en ingénierie. Tous les phénomènes de transport ont pour origine l'inhomogénéité d'une grandeur intensive. C'est la tendance spontanée des systèmes physiques et chimiques à rendre uniformes ces grandeurs qui provoquent le transport.
Quasi-experimentA quasi-experiment is an empirical interventional study used to estimate the causal impact of an intervention on target population without random assignment. Quasi-experimental research shares similarities with the traditional experimental design or randomized controlled trial, but it specifically lacks the element of random assignment to treatment or control. Instead, quasi-experimental designs typically allow the researcher to control the assignment to the treatment condition, but using some criterion other than random assignment (e.
Quantum complexity theoryQuantum complexity theory is the subfield of computational complexity theory that deals with complexity classes defined using quantum computers, a computational model based on quantum mechanics. It studies the hardness of computational problems in relation to these complexity classes, as well as the relationship between quantum complexity classes and classical (i.e., non-quantum) complexity classes. Two important quantum complexity classes are BQP and QMA.
Algorithme probabilisteEn algorithmique, un algorithme probabiliste, ou algorithme randomisé, est un algorithme qui utilise une source de hasard. Plus précisément le déroulement de l’algorithme fait appel à des données tirées au hasard. Par exemple à un certain point de l’exécution, on tire un bit 0 ou 1, selon la loi uniforme et si le résultat est 0, on fait une certaine action A et si c'est 1, on fait une autre action. On peut aussi tirer un nombre réel dans l'intervalle [0,1] ou un entier dans un intervalle [i..j].
HemorheologyHemorheology, also spelled haemorheology (from Greek ‘αἷμα, haima 'blood' and rheology, from Greek ῥέω rhéō, 'flow' and -λoγία, -logia 'study of'), or blood rheology, is the study of flow properties of blood and its elements of plasma and cells. Proper tissue perfusion can occur only when blood's rheological properties are within certain levels. Alterations of these properties play significant roles in disease processes. Blood viscosity is determined by plasma viscosity, hematocrit (volume fraction of red blood cell, which constitute 99.