Osvignette|250px|Illustration d'un fémur humain extraite de Henry Gray's Anatomy of the Human Body. vignette|250px|La forme des os traduit l'adaptation évolutive aux fonctions qu'ils remplissent pour l'organisme. vignette|250px|Os de pieds déformés par la lèpre. Un os est un organe des Vertébrés, essentiellement constitué d'un tissu conjonctif solidifié qu'on appelle aussi os. Grâce à leur structure, les os sont à la fois légers, souples et solides ; ceux des oiseaux contiennent de l'air et sont particulièrement légers.
Consolidation osseuseLa consolidation osseuse est un processus de reconstruction de l'os à la suite d'une fracture osseuse. Le processus de consolidation comporte 3 phases : Elle débute immédiatement après la fracture avec formation d’un hématome périfracturaire (J0 à J20). Formation du cal mou (fibreux) (J20 à J30) Formation du cal dur (ossification) (J30 à J60) Elle a pour but d’adapter le segment osseux aux contraintes mécaniques (1 à 4 ans).
Remodelage de la chromatineLe remodelage de la chromatine est l'un des trois mécanismes de modification de la structure de la chromatine. Intervenant d'abord au cours de l'étape de maturation de la chromatine, il permet l'obtention d'un certain état final de sa structure. Plusieurs protéines sont impliquées dans ce processus de remodelage (familles SW1/SNF, ISW1, INO, CHD). Ces protéines, appelées facteurs de remodelage de la chromatine, forment des complexes multi-protéiques et utilisent l'énergie libérée par l'hydrolyse de l'ATP pour induire des changements conformationnels au niveau du nucléosome et des domaines de la chromatine.
Data dredgingvignette|Exemple de Data dredging. Le data dredging (littéralement le dragage de données mais mieux traduit comme étant du triturage de données) est une technique statistique qui . Une des formes du data dredging est de partir de données ayant un grand nombre de variables et un grand nombre de résultats, et de choisir les associations qui sont « statistiquement significatives », au sens de la valeur p (on parle aussi de p-hacking).
Coefficient of multiple correlationIn statistics, the coefficient of multiple correlation is a measure of how well a given variable can be predicted using a linear function of a set of other variables. It is the correlation between the variable's values and the best predictions that can be computed linearly from the predictive variables. The coefficient of multiple correlation takes values between 0 and 1.
Repliement des protéinesthumb|right|300px|Repliement des protéines Le repliement des protéines est le processus physique par lequel un polypeptide se replie dans sa structure tridimensionnelle caractéristique dans laquelle il est fonctionnel. Chaque protéine commence sous forme de polypeptide, transcodée depuis une séquence d'ARNm en une chaîne linéaire d'acides aminés. Ce polypeptide ne possède pas à ce moment de structure tridimensionnelle développée (voir côté gauche de la figure).
Bone mineralBone mineral (also called inorganic bone phase, bone salt, or bone apatite) is the inorganic component of bone tissue. It gives bones their compressive strength. Bone mineral is formed predominantly from carbonated hydroxyapatite with lower crystallinity. Bone mineral is formed from globular and plate structures distributed among the collagen fibrils of bone and forming yet a larger structure. The bone salt and collagen fibers together constitute the extracellular matrix of bone tissue.
Entrepôt de donnéesvignette|redresse=1.5|Vue d'ensemble d'une architecture entrepôt de données. Le terme entrepôt de données ou EDD (ou base de données décisionnelle ; en anglais, data warehouse ou DWH) désigne une base de données utilisée pour collecter, ordonner, journaliser et stocker des informations provenant de base de données opérationnelles et fournir ainsi un socle à l'aide à la décision en entreprise. Un entrepôt de données est une base de données regroupant une partie ou l'ensemble des données fonctionnelles d'une entreprise.
Exploratory data analysisIn statistics, exploratory data analysis (EDA) is an approach of analyzing data sets to summarize their main characteristics, often using statistical graphics and other data visualization methods. A statistical model can be used or not, but primarily EDA is for seeing what the data can tell us beyond the formal modeling and thereby contrasts traditional hypothesis testing. Exploratory data analysis has been promoted by John Tukey since 1970 to encourage statisticians to explore the data, and possibly formulate hypotheses that could lead to new data collection and experiments.
Testing hypotheses suggested by the dataIn statistics, hypotheses suggested by a given dataset, when tested with the same dataset that suggested them, are likely to be accepted even when they are not true. This is because circular reasoning (double dipping) would be involved: something seems true in the limited data set; therefore we hypothesize that it is true in general; therefore we wrongly test it on the same, limited data set, which seems to confirm that it is true.