Calcul des structures et modélisationLe calcul des structures et la modélisation concernent deux domaines distincts : d'une part les applications spécifiques au patrimoine architectural, mobilier et naturel et d'autre part les applications industrielles. Le calcul des structures et leur modélisation est utilisé dans les domaines : de la conservation et mise en valeur du patrimoine architectural, mobilier et naturel, dans le cadre de missions d’assistance à la maître d’œuvre ou au maître d’ouvrage permettant d’arrêter un programme de travaux, d’applications industrielles.
Failure analysisFailure analysis is the process of collecting and analyzing data to determine the cause of a failure, often with the goal of determining corrective actions or liability. According to Bloch and Geitner, ”machinery failures reveal a reaction chain of cause and effect... usually a deficiency commonly referred to as the symptom...”. Failure analysis can save money, lives, and resources if done correctly and acted upon.
Loi stableLa loi stable ou loi de Lévy tronquée, nommée d'après le mathématicien Paul Lévy, est une loi de probabilité utilisée en mathématiques, physique et analyse quantitative (finance de marché). On dit qu'une variable aléatoire réelle est de loi stable si elle vérifie l'une des 3 propriétés équivalentes suivantes : Pour tous réels strictement positifs et , il existe un réel strictement positif et un réel tels que les variables aléatoires et aient la même loi, où et sont des copies indépendantes de .
Loi de probabilitéthumb|400px 3 répartitions.png En théorie des probabilités et en statistique, une loi de probabilité décrit le comportement aléatoire d'un phénomène dépendant du hasard. L'étude des phénomènes aléatoires a commencé avec l'étude des jeux de hasard. Jeux de dés, tirage de boules dans des urnes et jeu de pile ou face ont été des motivations pour comprendre et prévoir les expériences aléatoires. Ces premières approches sont des phénomènes discrets, c'est-à-dire dont le nombre de résultats possibles est fini ou infini dénombrable.
Loi de Cauchy (probabilités)La loi de Cauchy, appelée aussi loi de Lorentz, est une loi de probabilité continue qui doit son nom au mathématicien Augustin Louis Cauchy. Une variable aléatoire X suit une loi de Cauchy si sa densité , dépendant des deux paramètres et ( > 0) est définie par : La fonction ainsi définie s'appelle une lorentzienne. Elle apparaît par exemple en spectroscopie pour modéliser des raies d'émission. Cette distribution est symétrique par rapport à (paramètre de position), le paramètre donnant une information sur l'étalement de la fonction (paramètre d'échelle).
Fatigue (matériau)vignette|Photomicrographie de la progression des fissures dans un matériau dues à la fatigue. Image tirée de . La fatigue est l'endommagement local d'une pièce sous l'effet d'efforts variables : forces appliquées, vibrations, rafales de vent Alors que la pièce est conçue pour résister à des efforts donnés, la variation de l'effort, même à des niveaux bien plus faibles que ceux pouvant provoquer sa rupture, peut à la longue provoquer sa rupture. Les essais de fatigue permettent de déterminer la résistance des matériaux à de telles faibles charges répétées.
Incertitude de mesurevignette|Mesurage avec une colonne de mesure. En métrologie, une incertitude de mesure liée à un mesurage (d'après le Bureau international des poids et mesures). Elle est considérée comme une dispersion et fait appel à des notions de statistique. Les causes de cette dispersion, liées à différents facteurs, influent sur le résultat de mesurage, donc sur l'incertitude et in fine sur la qualité de la mesure. Elle comprend de nombreuses composantes qui sont évaluées de deux façons différentes : certaines par une analyse statistique, d'autres par d'autres moyens.
Loi de probabilité d'entropie maximaleEn statistique et en théorie de l'information, une loi de probabilité d'entropie maximale a une entropie qui est au moins aussi grande que celle de tous les autres membres d'une classe spécifiée de lois de probabilité. Selon le principe d'entropie maximale, si rien n'est connu sur une loi , sauf qu'elle appartient à une certaine classe (généralement définie en termes de propriétés ou de mesures spécifiées), alors la loi avec la plus grande entropie doit être choisie comme la moins informative par défaut.
Loi de Laplace (probabilités)En théorie des probabilités et en statistiques, la loi (distribution) de Laplace est une densité de probabilité continue, portant le nom de Pierre-Simon de Laplace. On la connaît aussi sous le nom de loi double exponentielle, car sa densité peut être vue comme l'association des densités de deux lois exponentielles, accolées dos à dos. La loi de Laplace s'obtient aussi comme résultat de la différence de deux variables exponentielles indépendantes.
Essai de compressionUn essai de compression mesure la résistance à la compression d'un matériau sur une machine d'essais mécaniques suivant un protocole normalisé. Les essais de compression se font souvent sur le même appareil que l'essai de traction mais en appliquant la charge en compression au lieu de l'appliquer en traction. Pendant l'essai de compression, l'échantillon se raccourcit et s'élargit. La déformation relative est « négative » en ce sens que la longueur de l'échantillon diminue.