Test (informatique)vignette|Une programmeuse écrivant du code Java avec JUnit. En informatique, un test désigne une procédure de vérification partielle d'un système. Son objectif principal est d'identifier un nombre maximal de comportements problématiques du logiciel. Il permet ainsi, dès lors que les problèmes identifiés seront corrigés, d'en augmenter la qualité. D'une manière plus générale, le test désigne toutes les activités qui consistent à rechercher des informations quant à la qualité du système afin de permettre la prise de décisions.
Inférence causaleL'inférence causale est le processus par lequel on peut établir une relation de causalité entre un élément et ses effets. C'est un champ de recherche à la croisée des statistiques, de l'économétrie, de l'épidémiologie, de la méthodologie politique et de l'intelligence artificielle. En 1920, Sewall Wright développe la première path analysis. Cette analyse graphique des relations de causalité entre les variables constitue selon Judea Pearl un travail pionnier dans l'inférence causale.
ViscoélasticitéLa viscoélasticité est la propriété de matériaux qui présentent des caractéristiques à la fois visqueuses et élastiques, lorsqu'ils subissent une déformation. Les matériaux visqueux, comme le miel, résistent bien à un écoulement en cisaillement et présentent une déformation qui augmente linéairement avec le temps lorsqu'une contrainte est appliquée. Les matériaux élastiques se déforment lorsqu'ils sont contraints, et retournent rapidement à leur état d'origine une fois la contrainte retirée.
Optimisation (mathématiques)L'optimisation est une branche des mathématiques cherchant à modéliser, à analyser et à résoudre analytiquement ou numériquement les problèmes qui consistent à minimiser ou maximiser une fonction sur un ensemble. L’optimisation joue un rôle important en recherche opérationnelle (domaine à la frontière entre l'informatique, les mathématiques et l'économie), dans les mathématiques appliquées (fondamentales pour l'industrie et l'ingénierie), en analyse et en analyse numérique, en statistique pour l’estimation du maximum de vraisemblance d’une distribution, pour la recherche de stratégies dans le cadre de la théorie des jeux, ou encore en théorie du contrôle et de la commande.
Module de cisaillementEn résistance des matériaux, le module de cisaillement, module de glissement, module de rigidité, module de Coulomb ou second coefficient de Lamé, est une grandeur physique intrinsèque à chaque matériau et qui intervient dans la caractérisation des déformations causées par des efforts de cisaillement. La définition du module de rigidité , parfois aussi noté μ, estoù (voir l'image ci-contre) est la contrainte de cisaillement, la force, l'aire sur laquelle la force agit, le déplacement latéral relatif et l'écart à l'angle droit, le déplacement latéral et enfin l'épaisseur.
Béton de cimentthumb|upright=1.0|Un mètre cube de béton (représentant la production mondiale annuelle de béton par habitant). Le béton de ciment, couramment appelé béton, est un mélange de ciment, de granulats, d'eau et d'adjuvants. Histoire du béton de ciment Ciment Le ciment se compose essentiellement de chaux, de silice, d'alumine et d'oxyde de fer combinés au silicate et aluminate de calcium. Les différents ciments résultent du mélange de clinker, de calcaire, de laitier et de cendres volantes (qui sont des composés à effet pouzzolanique, mais non considérés comme des pouzzolanes).
Essai triaxialL’essai triaxial est une méthode de laboratoire courante pour mesurer les caractéristiques mécaniques des matériaux granulaires, en particulier celles des sols (par ex. le sable, l’argile), des roches et des poudres. Il existe plusieurs variantes de cet essai, aujourd'hui entièrement normalisé. vignette|L'essai danois. vignette|Enregistrement typique d'un essai triaxial. vignette|Bandes de cisaillement dans une argile verte.
Apprentissage profondL'apprentissage profond ou apprentissage en profondeur (en anglais : deep learning, deep structured learning, hierarchical learning) est un sous-domaine de l’intelligence artificielle qui utilise des réseaux neuronaux pour résoudre des tâches complexes grâce à des architectures articulées de différentes transformations non linéaires. Ces techniques ont permis des progrès importants et rapides dans les domaines de l'analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage.
Ingénierie de fiabilitéL'ingénierie de fiabilité est un domaine de l'ingénierie, qui traite de l'étude, de l'évaluation et du Product Lifecycle Management de la fiabilité : l'habilité d'un système ou d'un composant à remplir ses fonctions exigées dans des conditions déterminées pour une période de temps déterminé. L'ingénierie de fiabilité est une sous-discipline au sein de l'ingénierie des systèmes. La fiabilité est souvent mesurée en probabilité de défaillance, fréquence de défaillance, ou en termes de disponibilité, une probabilité dérivée de la fiabilité et de la maintenabilité.
Test de validationUn test de validation est un type de test informatique qui permet de vérifier si toutes les exigences client, décrites dans le document de spécification du logiciel, sont respectées. Les tests de validation se décomposent généralement en plusieurs phases : Validation fonctionnelle : les tests fonctionnels assurent que les différents modules ou composants implémentent correctement les exigences client. Ces tests peuvent être de type valide, invalide, inopportuns, etc.