Méthodes de Runge-KuttaLes méthodes de Runge-Kutta sont des méthodes d'analyse numérique d'approximation de solutions d'équations différentielles. Elles ont été nommées ainsi en l'honneur des mathématiciens Carl Runge et Martin Wilhelm Kutta, lesquels élaborèrent la méthode en 1901. Ces méthodes reposent sur le principe de l'itération, c'est-à-dire qu'une première estimation de la solution est utilisée pour calculer une seconde estimation, plus précise, et ainsi de suite. Considérons le problème suivant : que l'on va chercher à résoudre en un ensemble discret t < t < .
Méthode d'EulerEn mathématiques, la méthode d'Euler, nommée ainsi en l'honneur du mathématicien Leonhard Euler (1707 — 1783), est une procédure numérique pour résoudre par approximation des équations différentielles du premier ordre avec une condition initiale. C'est la plus simple des méthodes de résolution numérique des équations différentielles. thumb|Illustration de la méthode d'Euler explicite : l'avancée se fait par approximation sur la tangente au point initial.
Numerical methods for ordinary differential equationsNumerical methods for ordinary differential equations are methods used to find numerical approximations to the solutions of ordinary differential equations (ODEs). Their use is also known as "numerical integration", although this term can also refer to the computation of integrals. Many differential equations cannot be solved exactly. For practical purposes, however – such as in engineering – a numeric approximation to the solution is often sufficient. The algorithms studied here can be used to compute such an approximation.
Équation différentielle raideUne équation différentielle raide est une équation différentielle dont la sensibilité aux paramètres va rendre difficile la résolution par des méthodes numériques explicites. Plusieurs explications, aussi bien physiques que mathématiques, peuvent permettre d'appréhender la notion de raideur, qui reste difficilement formulable. Il existe plusieurs définitions formelles de la raideur d'une équation différentielle. Une des plus simples est celle de Curtiss et Hirschfelder : Une formulation plus mathématique passe par le comportement des valeurs propres liés au système : où est le spectre de .
Trapezoidal rule (differential equations)In numerical analysis and scientific computing, the trapezoidal rule is a numerical method to solve ordinary differential equations derived from the trapezoidal rule for computing integrals. The trapezoidal rule is an implicit second-order method, which can be considered as both a Runge–Kutta method and a linear multistep method. Suppose that we want to solve the differential equation The trapezoidal rule is given by the formula where is the step size.
Réduction de la dimensionnalitévignette|320x320px|Animation présentant la projection de points en deux dimensions sur les axes obtenus par analyse en composantes principales, une méthode populaire de réduction de la dimensionnalité La réduction de la dimensionnalité (ou réduction de (la) dimension) est un processus étudié en mathématiques et en informatique, qui consiste à prendre des données dans un espace de grande dimension, et à les remplacer par des données dans un espace de plus petite dimension.
Nonlinear dimensionality reductionNonlinear dimensionality reduction, also known as manifold learning, refers to various related techniques that aim to project high-dimensional data onto lower-dimensional latent manifolds, with the goal of either visualizing the data in the low-dimensional space, or learning the mapping (either from the high-dimensional space to the low-dimensional embedding or vice versa) itself. The techniques described below can be understood as generalizations of linear decomposition methods used for dimensionality reduction, such as singular value decomposition and principal component analysis.
Kernel principal component analysisIn the field of multivariate statistics, kernel principal component analysis (kernel PCA) is an extension of principal component analysis (PCA) using techniques of kernel methods. Using a kernel, the originally linear operations of PCA are performed in a reproducing kernel Hilbert space. Recall that conventional PCA operates on zero-centered data; that is, where is one of the multivariate observations.
Anesthésie localeUne anesthésie locale consiste à inhiber de façon réversible la propagation des signaux le long des nerfs. Si cette anesthésie est réalisée au niveau de voies nerveuses spécifiques, elle est susceptible de produire des effets tels que l'analgésie (diminution de la sensation de douleur) et la paralysie (perte de puissance du muscle). Elle s'oppose à l'anesthésie générale où le patient est endormi. En 1884, Carl Köller utilise déjà la cocaïne pour l’anesthésie par contact en ophtalmologie et en otorhinolaryngologie.
Anesthésique localUn anesthésique local est un médicament qui inhibe de manière réversible la propagation des signaux le long des nerfs. Lorsqu'elle intéresse un nerf sensitif, cette inhibition se traduit cliniquement par une perte de sensibilité plus ou moins complète que l'on appelle analgésie ou « bloc sensitif » : c'est le but recherché lors de l'usage d'un tel médicament. Lorsqu'elle concerne un nerf moteur ou la composante motrice d'un nerf mixte, il en résulte une perte de motricité nommée paralysie ou encore « bloc moteur » généralement considérée comme un effet secondaire.