Plastique renforcé de fibresthumb|Cuves en plastique à renfort fibre de verre. thumb|Tissu fibre de verre/aramide (pour haute traction et compression). Un plastique renforcé de fibres ou polymère renforcé de fibres (en anglais, fibre-reinforced plastic ou FRP) est un matériau composite constitué d’une matrice polymère (appelée résine) renforcée par de fines fibres (souvent synthétiques) à haut module. La résine est généralement un polyester thermodurcissable, un époxyde, un vinylester, ou thermoplastique (polyamide...
Verrethumb|Une bouteille de verre coloré. thumb|Bouteille en verre utilisée pour le vin. On appelle verre : un matériau dur, fragile (cassant) et transparent, à base de dioxyde de silicium et de fondants. Cette définition est celle du sens commun et c'était aussi celle des scientifiques jusqu'au . Avant le en effet les verres silicatés (verres sodocalciques) étaient pratiquement les seuls matériaux transparents que l'on savait produire industriellement, et encore aujourd'hui ce sont les verres produits en plus grande quantité (vitrages, vaisselle et verrerie de laboratoire, notamment).
Plastique à renfort de verreUn plastique à renfort de verre (ou Polyester Renforcé de fibres de Verre ou Polymère Renforcé aux fibres de Verre, symbolisé habituellement par ses initiales PRV ; en anglais, glass-reinforced plastic ou GRP) est un matériau composite constitué d’une matrice polymère (appelée résine) renforcée par des fibres ou parfois par des microsphères de verre. La résine est généralement un polyester thermodurcissable, un époxyde, un vinylester ou thermoplastique (polyamide, par exemple).
Régression linéaireEn statistiques, en économétrie et en apprentissage automatique, un modèle de régression linéaire est un modèle de régression qui cherche à établir une relation linéaire entre une variable, dite expliquée, et une ou plusieurs variables, dites explicatives. On parle aussi de modèle linéaire ou de modèle de régression linéaire. Parmi les modèles de régression linéaire, le plus simple est l'ajustement affine. Celui-ci consiste à rechercher la droite permettant d'expliquer le comportement d'une variable statistique y comme étant une fonction affine d'une autre variable statistique x.
Régression (statistiques)En mathématiques, la régression recouvre plusieurs méthodes d’analyse statistique permettant d’approcher une variable à partir d’autres qui lui sont corrélées. Par extension, le terme est aussi utilisé pour certaines méthodes d’ajustement de courbe. En apprentissage automatique, on distingue les problèmes de régression des problèmes de classification. Ainsi, on considère que les problèmes de prédiction d'une variable quantitative sont des problèmes de régression tandis que les problèmes de prédiction d'une variable qualitative sont des problèmes de classification.
Plan d'expériencesOn nomme plan d'expériences (en anglais, design of experiments ou DOE) la suite ordonnée d'essais d'une expérimentation, chacun permettant d'acquérir de nouvelles connaissances en maîtrisant un ou plusieurs paramètres d'entrée pour obtenir des résultats validant un modèle avec une bonne économie de moyens (nombre d'essais le plus faible possible, par exemple). Un exemple classique est le « plan en étoile » où en partant d'un jeu de valeurs choisi pour les paramètres d'un essai central, on complète celui-ci par des essais où chaque fois un seul des facteurs varie « toutes choses égales par ailleurs ».
Régression de PoissonEn statistique, la régression de Poisson est un modèle linéaire généralisé utilisé pour les données de comptage et les tableaux de contingence. Cette régression suppose que la variable réponse Y suit une loi de Poisson et que le logarithme de son espérance peut être modélisé par une combinaison linéaire de paramètre inconnus. Soit un vecteur de variables indépendantes, et la variable que l'on cherche à prédire. Réaliser une régression de Poisson revient à supposer que suit une loi de Poisson de paramètre , avec et les paramètres de la régression à estimer, et le produit scalaire standard de .
Multinomial logistic regressionIn statistics, multinomial logistic regression is a classification method that generalizes logistic regression to multiclass problems, i.e. with more than two possible discrete outcomes. That is, it is a model that is used to predict the probabilities of the different possible outcomes of a categorically distributed dependent variable, given a set of independent variables (which may be real-valued, binary-valued, categorical-valued, etc.).
Régression multivariée par spline adaptativeLa Régression multivariée par spline adaptative (en anglais MARS pour ) est une méthode statistique ; plus précisément, c'est une forme de modèle de régression présentée pour la première fois par Jerome H. Friedman et Bernard Silverman en 1991. C'est une technique de régression non paramétrique pouvant être vue comme une extension des régressions linéaires qui modélisent automatiquement des interactions et des non-linéarités. Le terme MARS est une marque de Salford Systems.
Régression logistiqueEn statistiques, la régression logistique ou modèle logit est un modèle de régression binomiale. Comme pour tous les modèles de régression binomiale, il s'agit d'expliquer au mieux une variable binaire (la présence ou l'absence d'une caractéristique donnée) par des observations réelles nombreuses, grâce à un modèle mathématique. En d'autres termes d'associer une variable aléatoire de Bernoulli (génériquement notée ) à un vecteur de variables aléatoires . La régression logistique constitue un cas particulier de modèle linéaire généralisé.