Weak supervisionWeak supervision, also called semi-supervised learning, is a paradigm in machine learning, the relevance and notability of which increased with the advent of large language models due to large amount of data required to train them. It is characterized by using a combination of a small amount of human-labeled data (exclusively used in more expensive and time-consuming supervised learning paradigm), followed by a large amount of unlabeled data (used exclusively in unsupervised learning paradigm).
Prédiction dynamiqueLa prédiction dynamique est une méthode inventée par Newton et Leibniz. Newton l’a appliquée avec succès au mouvement des planètes et de leurs satellites. Depuis elle est devenue la grande méthode de prédiction des mathématiques appliquées. Sa portée est universelle. Tout ce qui est matériel, tout ce qui est en mouvement, peut être étudié avec les outils de la théorie des systèmes dynamiques. Mais il ne faut pas en conclure que pour connaître un système il est nécessaire de connaître sa dynamique.
Faisceau gaussienEn optique, un faisceau gaussien est une solution particulière de l'équation de propagation de Helmholtz (au même titre qu'une onde plane) dans le cadre de l'approximation paraxiale. Ce modèle produit une meilleure description de rayonnements cohérents comme les faisceaux lasers bien qu'il soit incomplet dans le traitement de la diffraction. Plus spécifiquement, un faisceau gaussien est un faisceau dont l'évolution du profil transversal d'amplitude en fonction de la propagation spatiale est proportionnel à une fonction gaussienne, par exemple une fonction de Gauss-Hermite.
Erreur quadratique moyenneEn statistiques, l’erreur quadratique moyenne d’un estimateur d’un paramètre de dimension 1 (mean squared error (), en anglais) est une mesure caractérisant la « précision » de cet estimateur. Elle est plus souvent appelée « erreur quadratique » (« moyenne » étant sous-entendu) ; elle est parfois appelée aussi « risque quadratique ».
Generalization errorFor supervised learning applications in machine learning and statistical learning theory, generalization error (also known as the out-of-sample error or the risk) is a measure of how accurately an algorithm is able to predict outcome values for previously unseen data. Because learning algorithms are evaluated on finite samples, the evaluation of a learning algorithm may be sensitive to sampling error. As a result, measurements of prediction error on the current data may not provide much information about predictive ability on new data.
Indice adiabatiqueEn thermodynamique, l'indice adiabatique d'un gaz (corps pur ou mélange), aussi appelé coefficient adiabatique, exposant adiabatique ou coefficient de Laplace, noté , est défini comme le rapport de ses capacités thermiques à pression constante (isobare) et à volume constant (isochore) : Le coefficient de Laplace se définit également à partir des capacités thermiques molaires et si la transformation concerne moles de gaz, ou des capacités thermiques massiques (ou spécifiques) et si la transformation concerne
Invariance d'échelleIl y a invariance d'échelle lorsqu'aucune échelle ne caractérise le système. Par exemple, dans un ensemble fractal, les propriétés seront les mêmes quelle que soit la distance à laquelle on se place. Une fonction g est dite invariante d'échelle s'il existe une fonction telle que pour tout x et y : Alors, il existe une constante et un exposant , tels que : En physique, l'invariance d'échelle n'est valable que dans un domaine de taille limité — par exemple, pour un ensemble fractal, on ne peut pas se placer à une échelle plus petite que celle des molécules, ni plus grande que la taille du système.
Mean absolute percentage errorThe mean absolute percentage error (MAPE), also known as mean absolute percentage deviation (MAPD), is a measure of prediction accuracy of a forecasting method in statistics. It usually expresses the accuracy as a ratio defined by the formula: where At is the actual value and Ft is the forecast value. Their difference is divided by the actual value At. The absolute value of this ratio is summed for every forecasted point in time and divided by the number of fitted points n.
Binary classificationBinary classification is the task of classifying the elements of a set into two groups (each called class) on the basis of a classification rule. Typical binary classification problems include: Medical testing to determine if a patient has certain disease or not; Quality control in industry, deciding whether a specification has been met; In information retrieval, deciding whether a page should be in the result set of a search or not. Binary classification is dichotomization applied to a practical situation.
Noyau (statistiques)Un noyau est une fonction de pondération utilisée dans les techniques d'estimation non-paramétrique. Les noyaux interviennent dans l'estimateur par noyau pour estimer la densité de probabilité d'une variable aléatoire, ou encore dans la régression paramétrique (à noyau) pour estimer des espérances conditionnelles. Pour les séries temporelles, le noyau permet d'estimer la densité spectrale. Un noyau est une fonction positive, intégrable et à valeurs réelles, notée K, qui doit vérifier les deux conditions suivantes : normalisation : symétrie : pour toutes les valeurs de u.