Analyseur de réseauUn analyseur de réseau est un instrument de mesure qui permet de déterminer les paramètres S d'un circuit électrique. Les analyseurs de réseau les plus perfectionnés mesurent également d'autres paramètres, tels que les paramètres Y, Z et H. Cet instrument est généralement utilisé pour caractériser les quadripôles (tels que les amplificateurs ou filtres), mais peut être utilisé sur d'autres réseaux (avec notamment un plus grand nombre de pôles).
Modèle d'IsingLe modèle d'Ising est un modèle de physique statistique qui a été adapté à divers phénomènes caractérisés par des interactions locales de particules à deux états. L'exemple principal est le ferromagnétisme pour lequel le modèle d'Ising est un modèle sur réseau de moments magnétiques, dans lequel les particules sont toujours orientées suivant le même axe spatial et ne peuvent prendre que deux valeurs. Ce modèle est parfois appelé modèle de Lenz-Ising en référence aux physiciens Wilhelm Lenz et Ernst Ising.
Regularized least squaresRegularized least squares (RLS) is a family of methods for solving the least-squares problem while using regularization to further constrain the resulting solution. RLS is used for two main reasons. The first comes up when the number of variables in the linear system exceeds the number of observations. In such settings, the ordinary least-squares problem is ill-posed and is therefore impossible to fit because the associated optimization problem has infinitely many solutions.
Generalization errorFor supervised learning applications in machine learning and statistical learning theory, generalization error (also known as the out-of-sample error or the risk) is a measure of how accurately an algorithm is able to predict outcome values for previously unseen data. Because learning algorithms are evaluated on finite samples, the evaluation of a learning algorithm may be sensitive to sampling error. As a result, measurements of prediction error on the current data may not provide much information about predictive ability on new data.
Apprentissage superviséL'apprentissage supervisé (supervised learning en anglais) est une tâche d'apprentissage automatique consistant à apprendre une fonction de prédiction à partir d'exemples annotés, au contraire de l'apprentissage non supervisé. On distingue les problèmes de régression des problèmes de classement. Ainsi, on considère que les problèmes de prédiction d'une variable quantitative sont des problèmes de régression tandis que les problèmes de prédiction d'une variable qualitative sont des problèmes de classification.
Jeux d'entrainement, de validation et de testEn apprentissage automatique, une tâche courante est l'étude et la construction d'algorithmes qui peuvent apprendre et faire des prédictions sur les données. De tels algorithmes fonctionnent en faisant des prédictions ou des décisions basées sur les données, en construisant un modèle mathématique à partir des données d'entrée. Ces données d'entrée utilisées pour construire le modèle sont généralement divisées en plusieurs jeux de données .
Ridge regressionRidge regression is a method of estimating the coefficients of multiple-regression models in scenarios where the independent variables are highly correlated. It has been used in many fields including econometrics, chemistry, and engineering. Also known as Tikhonov regularization, named for Andrey Tikhonov, it is a method of regularization of ill-posed problems. It is particularly useful to mitigate the problem of multicollinearity in linear regression, which commonly occurs in models with large numbers of parameters.
HyperparamètreDans l'apprentissage automatique, un hyperparamètre est un paramètre dont la valeur est utilisée pour contrôler le processus d'apprentissage. En revanche, les valeurs des autres paramètres (généralement la pondération de nœuds) sont obtenues par apprentissage. Les hyperparamètres peuvent être classifiés comme étant des hyperparamètres de modèle, qui ne peuvent pas être déduits en ajustant la machine à l'ensemble d'entraînement parce qu'ils s'appliquent à la tâche de la sélection du modèle, ou des hyperparamètres d'algorithmes, qui en principe n'ont aucune influence sur la performance du modèle mais affectent la rapidité et la qualité du processus d'apprentissage.
Modèle sigma non linéaireEn théorie quantique des champs un modèle sigma non linéaire désigne une théorie dans laquelle les champs fondamentaux représentent des coordonnées dans une variété riemannienne appelée espace-cible. Ensemble ils constituent un plongement depuis l'espace sur lequel ils vivent (par exemple l'espace de Minkowski) vers l'espace-cible. Dans le cas le plus simple on considère que l'espace sur lequel vivent les champs de la théorie est l'espace de Minkowki .
Potts modelIn statistical mechanics, the Potts model, a generalization of the Ising model, is a model of interacting spins on a crystalline lattice. By studying the Potts model, one may gain insight into the behaviour of ferromagnets and certain other phenomena of solid-state physics. The strength of the Potts model is not so much that it models these physical systems well; it is rather that the one-dimensional case is exactly solvable, and that it has a rich mathematical formulation that has been studied extensively.