Théorie supersymétrique de la dynamique stochastiqueLa théorie supersymétrique de la dynamique stochastique (TSDS) est une théorie exacte des équations différentielles (partielles) stochastiques (EDS). Elle représente une classe de modèles mathématiques très large qui décrit, en particulier, tous les systèmes dynamiques à temps continu, avec et sans bruit.
Classification naïve bayésiennevignette|Exemple de classification naïve bayésienne pour un ensemble de données dont le nombre augmente avec le temps. La classification naïve bayésienne est un type de classification bayésienne probabiliste simple basée sur le théorème de Bayes avec une forte indépendance (dite naïve) des hypothèses. Elle met en œuvre un classifieur bayésien naïf, ou classifieur naïf de Bayes, appartenant à la famille des classifieurs linéaires. Un terme plus approprié pour le modèle probabiliste sous-jacent pourrait être « modèle à caractéristiques statistiquement indépendantes ».
Landscape-scale conservationLandscape-scale conservation is a holistic approach to landscape management, aiming to reconcile the competing objectives of nature conservation and economic activities across a given landscape. Landscape-scale conservation may sometimes be attempted because of climate change. It can be seen as an alternative to site based conservation. Many global problems such as poverty, food security, climate change, water scarcity, deforestation and biodiversity loss are connected.
Continuous functionIn mathematics, a continuous function is a function such that a continuous variation (that is a change without jump) of the argument induces a continuous variation of the value of the function. This means that there are no abrupt changes in value, known as discontinuities. More precisely, a function is continuous if arbitrarily small changes in its value can be assured by restricting to sufficiently small changes of its argument. A discontinuous function is a function that is .
Weak supervisionWeak supervision, also called semi-supervised learning, is a paradigm in machine learning, the relevance and notability of which increased with the advent of large language models due to large amount of data required to train them. It is characterized by using a combination of a small amount of human-labeled data (exclusively used in more expensive and time-consuming supervised learning paradigm), followed by a large amount of unlabeled data (used exclusively in unsupervised learning paradigm).
Apprentissage par renforcement profondL'apprentissage par renforcement profond (en anglais : deep reinforcement learning ou deep RL) est un sous-domaine de l'apprentissage automatique (en anglais : machine learning) qui combine l'apprentissage par renforcement et l'apprentissage profond (en anglais : deep learning). L'apprentissage par renforcement considère le problème d'un agent informatique (par exemple, un robot, un agent conversationnel, un personnage dans un jeu vidéo, etc.) qui apprend à prendre des décisions par essais et erreurs.
Determining the number of clusters in a data setDetermining the number of clusters in a data set, a quantity often labelled k as in the k-means algorithm, is a frequent problem in data clustering, and is a distinct issue from the process of actually solving the clustering problem. For a certain class of clustering algorithms (in particular k-means, k-medoids and expectation–maximization algorithm), there is a parameter commonly referred to as k that specifies the number of clusters to detect.
Four-gradientIn differential geometry, the four-gradient (or 4-gradient) is the four-vector analogue of the gradient from vector calculus. In special relativity and in quantum mechanics, the four-gradient is used to define the properties and relations between the various physical four-vectors and tensors. This article uses the (+ − − −) metric signature. SR and GR are abbreviations for special relativity and general relativity respectively. indicates the speed of light in vacuum. is the flat spacetime metric of SR.
Théorie du champ moléculaireLe champ moléculaire est un modèle développé par Pierre Weiss dans l’objectif de fonder une théorie du comportement des ferromagnétiques. Cette théorie est ensuite étendue à d'autres matériaux magnétiques. Certains matériaux, en particulier les ferromagnétiques, possèdent une aimantation spontanée en l'absence de tout champ magnétique externe. Ce modèle explique l'existence de cette aimantation par l'action d'un champ interne nommé champ moléculaire.
K-moyennesLe partitionnement en k-moyennes (ou k-means en anglais) est une méthode de partitionnement de données et un problème d'optimisation combinatoire. Étant donnés des points et un entier k, le problème est de diviser les points en k groupes, souvent appelés clusters, de façon à minimiser une certaine fonction. On considère la distance d'un point à la moyenne des points de son cluster ; la fonction à minimiser est la somme des carrés de ces distances.