Réseau de neurones récurrentsUn réseau de neurones récurrents (RNN pour recurrent neural network en anglais) est un réseau de neurones artificiels présentant des connexions récurrentes. Un réseau de neurones récurrents est constitué d'unités (neurones) interconnectées interagissant non-linéairement et pour lequel il existe au moins un cycle dans la structure. Les unités sont reliées par des arcs (synapses) qui possèdent un poids. La sortie d'un neurone est une combinaison non linéaire de ses entrées.
Generalized linear mixed modelIn statistics, a generalized linear mixed model (GLMM) is an extension to the generalized linear model (GLM) in which the linear predictor contains random effects in addition to the usual fixed effects. They also inherit from GLMs the idea of extending linear mixed models to non-normal data. GLMMs provide a broad range of models for the analysis of grouped data, since the differences between groups can be modelled as a random effect. These models are useful in the analysis of many kinds of data, including longitudinal data.
Champ de force (chimie)vignette|Un champ de force peut par exemple être utilisé afin de minimiser l'énergie d'étirement de cette molécule d'éthane. Dans le cadre de la mécanique moléculaire, un champ de force est un ensemble de potentiels et de paramètres permettant de décrire la structure de l'énergie potentielle d'un système de particules (typiquement, des atomes, mais non exclusivement). L'usage de l'expression champ de force en chimie et biologie numériques diffère ainsi de celui de la physique, où il indique en général un gradient négatif d'un potentiel scalaire.
Liquidevignette|L'eau est une substance abondante sur la surface terrestre, se manifestant notamment sous forme de liquide. vignette|Diagramme montrant comment sont configurés les molécules et les atomes pour les différents états de la matière.
Linear probability modelIn statistics, a linear probability model (LPM) is a special case of a binary regression model. Here the dependent variable for each observation takes values which are either 0 or 1. The probability of observing a 0 or 1 in any one case is treated as depending on one or more explanatory variables. For the "linear probability model", this relationship is a particularly simple one, and allows the model to be fitted by linear regression.
Réseau de neurones à propagation avantUn réseau de neurones à propagation avant, en anglais feedforward neural network, est un réseau de neurones artificiels acyclique, se distinguant ainsi des réseaux de neurones récurrents. Le plus connu est le perceptron multicouche qui est une extension du premier réseau de neurones artificiel, le perceptron inventé en 1957 par Frank Rosenblatt. vignette|Réseau de neurones à propagation avant Le réseau de neurones à propagation avant est le premier type de réseau neuronal artificiel conçu. C'est aussi le plus simple.
Réseau neuronal convolutifEn apprentissage automatique, un réseau de neurones convolutifs ou réseau de neurones à convolution (en anglais CNN ou ConvNet pour convolutional neural networks) est un type de réseau de neurones artificiels acycliques (feed-forward), dans lequel le motif de connexion entre les neurones est inspiré par le cortex visuel des animaux. Les neurones de cette région du cerveau sont arrangés de sorte qu'ils correspondent à des régions qui se chevauchent lors du pavage du champ visuel.
Cristal liquideUn cristal liquide est un état de la matière qui combine des propriétés d'un liquide ordinaire et celles d'un solide cristallisé. On exprime son état par le terme de « mésophase » ou « état mésomorphe » (du grec « de forme intermédiaire »). La nature de la mésophase diffère suivant la nature et la structure du mésogène, molécule à l'origine de la mésophase, ainsi que des conditions de température, de pression et de concentration. thumb|Rudolf Virchow.
Réseau de neurones à impulsionsLes réseaux de neurones à impulsions (SNNs : Spiking Neural Networks, en anglais) sont un raffinement des réseaux de neurones artificiels (ANNs : Artificial Neural Networks, en anglais) où l’échange entre neurones repose sur l’intégration des impulsions et la redescente de l’activation, à l’instar des neurones naturels. L’encodage est donc temporel et binaire. Le caractère binaire pose une difficulté de continuité au sens mathématique (cela empêche notamment l’utilisation des techniques de rétropropagation des coefficients - telle que la descente de gradient - utilisées classiquement dans les méthodes d'apprentissage).
Modèle d'eauEn chimie numérique, les modèles d'eau classiques sont utilisés pour la simulation de l'eau et des solutions aqueuses (avec ce qu'on appelle un solvant explicite, par opposition aux modèles à solvants implicites). Ces modèles utilisent généralement les approximations de la mécanique moléculaire. De nombreux et différents modèles ont été proposés ; ils peuvent être classés en fonction du nombre de points employés pour définir le modèle (atomes plus sites spécifiques), de la rigidité ou de la flexibilité de la structure, ou encore de la prise en compte des effets de polarisation.