Numerical methods for ordinary differential equationsNumerical methods for ordinary differential equations are methods used to find numerical approximations to the solutions of ordinary differential equations (ODEs). Their use is also known as "numerical integration", although this term can also refer to the computation of integrals. Many differential equations cannot be solved exactly. For practical purposes, however – such as in engineering – a numeric approximation to the solution is often sufficient. The algorithms studied here can be used to compute such an approximation.
Intégrateur symplectiqueUn intégrateur symplectique est une méthode numérique de résolution approchée des équations de la mécanique hamiltonienne, valable pour des faibles variations de temps. Les hypothèses de la mécanique hamiltonienne sont souvent appliquées à la mécanique céleste. Le système à étudier peut s'écrire sous la forme d'une action I et d'un angle φ, de manière que le système différentiel se réduise à : x := (I, φ) et : où l'on a noté : le crochet de Poisson de et . On voudrait connaître la solution formelle au système intégrable .
Formulation implicite ou explicite d'un problème de dynamiqueEn simulation numérique, un problème dépendant du temps peut être formulé de manière implicite ou explicite. Un problème dépendant du temps décrit une situation qui évolue ; le système est modélisé à différents instants t discrets appelés « pas de temps ». La méthode explicite consiste à déterminer la solution à t + Δt en fonction de la valeur de la fonction en t. Si la fonction à évaluer s'appelle y(t), alors le problème se formule de la manière suivante : y(t + Δt) = F(y(t)). La méthode d'Euler est une méthode explicite.
Méthode d'EulerEn mathématiques, la méthode d'Euler, nommée ainsi en l'honneur du mathématicien Leonhard Euler (1707 — 1783), est une procédure numérique pour résoudre par approximation des équations différentielles du premier ordre avec une condition initiale. C'est la plus simple des méthodes de résolution numérique des équations différentielles. thumb|Illustration de la méthode d'Euler explicite : l'avancée se fait par approximation sur la tangente au point initial.
Méthodes de Runge-KuttaLes méthodes de Runge-Kutta sont des méthodes d'analyse numérique d'approximation de solutions d'équations différentielles. Elles ont été nommées ainsi en l'honneur des mathématiciens Carl Runge et Martin Wilhelm Kutta, lesquels élaborèrent la méthode en 1901. Ces méthodes reposent sur le principe de l'itération, c'est-à-dire qu'une première estimation de la solution est utilisée pour calculer une seconde estimation, plus précise, et ainsi de suite. Considérons le problème suivant : que l'on va chercher à résoudre en un ensemble discret t < t < .
Intégration de VerletLintégration de Verlet est un schéma d'intégration qui permet de calculer la trajectoire de particules en simulation de dynamique moléculaire. Cette méthode offre une meilleure stabilité que la plus simple méthode d'Euler (créée au ), de même que d'importantes propriétés dans les systèmes physiques, telles que la réversibilité dans le temps et la conservation de propriété. À première vue, il peut sembler naturel de calculer les trajectoires en utilisant la méthode d'Euler. Cependant, ce type d'intégration souffre de nombreux problèmes.
Méthode itérativeEn analyse numérique, une méthode itérative est un procédé algorithmique utilisé pour résoudre un problème, par exemple la recherche d’une solution d’un système d'équations ou d’un problème d’optimisation. En débutant par le choix d’un point initial considéré comme une première ébauche de solution, la méthode procède par itérations au cours desquelles elle détermine une succession de solutions approximatives raffinées qui se rapprochent graduellement de la solution cherchée. Les points générés sont appelés des itérés.
Méthode du gradient conjuguévignette|Illustration de la méthode du gradient conjugué. En analyse numérique, la méthode du gradient conjugué est un algorithme pour résoudre des systèmes d'équations linéaires dont la matrice est symétrique définie positive. Cette méthode, imaginée en 1950 simultanément par Cornelius Lanczos, Eduard Stiefel et Magnus Hestenes, est une méthode itérative qui converge en un nombre fini d'itérations (au plus égal à la dimension du système linéaire).
Équation aux dérivées partiellesEn mathématiques, plus précisément en calcul différentiel, une équation aux dérivées partielles (parfois appelée équation différentielle partielle et abrégée en EDP) est une équation différentielle dont les solutions sont les fonctions inconnues dépendant de plusieurs variables vérifiant certaines conditions concernant leurs dérivées partielles. Une EDP a souvent de très nombreuses solutions, les conditions étant moins strictes que dans le cas d'une équation différentielle ordinaire à une seule variable ; les problèmes comportent souvent des conditions aux limites qui restreignent l'ensemble des solutions.
Stabilité de LiapounovEn mathématiques et en automatique, la notion de stabilité de Liapounov (ou, plus correctement, de stabilité au sens de Liapounov) apparaît dans l'étude des systèmes dynamiques. De manière générale, la notion de stabilité joue également un rôle en mécanique, dans les modèles économiques, les algorithmes numériques, la mécanique quantique, la physique nucléaire Un exemple typique de système stable au sens de Liapounov est celui constitué d'une bille roulant sans frottement au fond d'une coupelle ayant la forme d'une demi-sphère creuse : après avoir été écartée de sa position d'équilibre (qui est le fond de la coupelle), la bille oscille autour de cette position, sans s'éloigner davantage : la composante tangentielle de la force de gravité ramène constamment la bille vers sa position d'équilibre.