Reservoir simulationReservoir simulation is an area of reservoir engineering in which computer models are used to predict the flow of fluids (typically, oil, water, and gas) through porous media. The creation of models of oil fields and the implementation of calculations of field development on their basis is one of the main areas of activity of engineers and oil researchers. On the basis of geological and physical information about the properties of an oil, gas or gas condensate field, consideration of the capabilities of the systems and technologies for its development create quantitative ideas about the development of the field as a whole.
Rayon spectralSoit un endomorphisme sur un espace de Banach complexe , on appelle rayon spectral de , et on note , le rayon de la plus petite boule fermée de centre 0 contenant toutes les valeurs spectrales de . Il est toujours inférieur ou égal à la norme d'opérateur de . En dimension finie, pour un endomorphisme de valeurs propres complexes , le rayon spectral est égal à . Par conséquent, pour toute norme matricielle N, c'est-à-dire toute norme d'algèbre sur (respectivement ) et pour toute matrice A dans (respectivement ), .
Vanishing gradient problemIn machine learning, the vanishing gradient problem is encountered when training artificial neural networks with gradient-based learning methods and backpropagation. In such methods, during each iteration of training each of the neural networks weights receives an update proportional to the partial derivative of the error function with respect to the current weight. The problem is that in some cases, the gradient will be vanishingly small, effectively preventing the weight from changing its value.
Boltzmann machineA Boltzmann machine (also called Sherrington–Kirkpatrick model with external field or stochastic Ising–Lenz–Little model) is a stochastic spin-glass model with an external field, i.e., a Sherrington–Kirkpatrick model, that is a stochastic Ising model. It is a statistical physics technique applied in the context of cognitive science. It is also classified as a Markov random field. Boltzmann machines are theoretically intriguing because of the locality and Hebbian nature of their training algorithm (being trained by Hebb's rule), and because of their parallelism and the resemblance of their dynamics to simple physical processes.
Connexion d'EhresmannEn géométrie différentielle, une connexion d'Ehresmann (d'après le mathématicien français Charles Ehresmann qui a le premier formalisé ce concept) est une version de la notion de connexion qui est définie sur des fibrés. En particulier, elle peut être non-linéaire, puisqu'un espace fibré n'a pas de notion de linéarité qui lui soit naturellement adaptée. Cependant, une connexion de Koszul (parfois aussi appelée connexion linéaire) en est un cas particulier.
Exponentielle d'une matriceEn mathématiques, et plus particulièrement en analyse, l'exponentielle d'une matrice est une fonction généralisant la fonction exponentielle aux matrices et aux endomorphismes par le calcul fonctionnel. Elle fait en particulier le pont entre un groupe de Lie et son algèbre de Lie. Pour n = 1, on retrouve la définition de l'exponentielle complexe. Sauf indication contraire, X, Y désignent des matrices n × n complexes (à coefficients complexes).
Optimisation (mathématiques)L'optimisation est une branche des mathématiques cherchant à modéliser, à analyser et à résoudre analytiquement ou numériquement les problèmes qui consistent à minimiser ou maximiser une fonction sur un ensemble. L’optimisation joue un rôle important en recherche opérationnelle (domaine à la frontière entre l'informatique, les mathématiques et l'économie), dans les mathématiques appliquées (fondamentales pour l'industrie et l'ingénierie), en analyse et en analyse numérique, en statistique pour l’estimation du maximum de vraisemblance d’une distribution, pour la recherche de stratégies dans le cadre de la théorie des jeux, ou encore en théorie du contrôle et de la commande.
Calcul par réservoirLe calcul par réservoir (de l'anglais reservoir computing) est un cadre de calcul dérivé de la théorie des réseaux de neurones récurrents qui mappe un ou plusieurs signaux d'entrée dans des espaces de calcul de dimension supérieure grâce à la dynamique d'un système fixe et non linéaire appelé réservoir . Une fois que le signal d'entrée est introduit dans le réservoir, qui est traité comme une « boîte noire », un simple mécanisme de lecture est entraîné pour lire l'état du réservoir et le mapper à la sortie souhaitée.
Matrice laplacienneEn théorie des graphes, une matrice laplacienne, ou matrice de Laplace, est une matrice représentant un graphe. La matrice laplacienne d'un graphe G non orienté et non réflexif est définie par : où est la matrice des degrés de G et la matrice d'adjacence de G. Formellement : A la différence de la matrice d'adjacence d'un graphe, la matrice laplacienne a une interprétation algébrique ce qui rend son analyse spectrale fructueuse. Plus précisément la matrice correspond à l'opérateur de diffusion sur le graphe.
Théorie spectraleEn mathématiques, et plus particulièrement en analyse, une théorie spectrale est une théorie étendant à des opérateurs définis sur des espaces fonctionnels généraux la théorie élémentaire des valeurs propres et des vecteurs propres de matrices. Bien que ces idées viennent au départ du développement de l'algèbre linéaire, elles sont également liées à l'étude des fonctions analytiques, parce que les propriétés spectrales d'un opérateur sont liées à celles de fonctions analytiques sur les valeurs de son spectre.