Condition aux limites de DirichletEn mathématiques, une condition aux limites de Dirichlet (nommée d’après Johann Dirichlet) est imposée à une équation différentielle ou à une équation aux dérivées partielles lorsque l'on spécifie les valeurs que la solution doit vérifier sur les frontières/limites du domaine. Pour une équation différentielle, par exemple : la condition aux limites de Dirichlet sur l'intervalle s'exprime par : où et sont deux nombres donnés.
Heun's methodIn mathematics and computational science, Heun's method may refer to the improved or modified Euler's method (that is, the explicit trapezoidal rule), or a similar two-stage Runge–Kutta method. It is named after Karl Heun and is a numerical procedure for solving ordinary differential equations (ODEs) with a given initial value. Both variants can be seen as extensions of the Euler method into two-stage second-order Runge–Kutta methods.
Problème de DirichletEn mathématiques, le problème de Dirichlet est de trouver une fonction harmonique définie sur un ouvert de prolongeant une fonction continue définie sur la frontière de l'ouvert . Ce problème porte le nom du mathématicien allemand Johann Peter Gustav Lejeune Dirichlet. Il n'existe pas toujours de solution au problème de Dirichlet. Dans cette partie, , où est le disque de centre 0 et de rayon 1. Il existe alors une solution au problème de Dirichlet, définie ci-dessous. On a toujours continue sur . On pose : .
Méthode de Newtonvignette|Une itération de la méthode de Newton. En analyse numérique, la méthode de Newton ou méthode de Newton-Raphson est, dans son application la plus simple, un algorithme efficace pour trouver numériquement une approximation précise d'un zéro (ou racine) d'une fonction réelle d'une variable réelle. Cette méthode doit son nom aux mathématiciens anglais Isaac Newton (1643-1727) et Joseph Raphson (peut-être 1648-1715), qui furent les premiers à la décrire pour la recherche des solutions d'une équation polynomiale.
Méthode de JacobiLa méthode de Jacobi, due au mathématicien allemand Karl Jacobi, est une méthode itérative de résolution d'un système matriciel de la forme Ax = b. Pour cela, on utilise une suite x qui converge vers un point fixe x, solution du système d'équations linéaires. On cherche à construire, pour x donné, la suite x = F(x) avec . où est une matrice inversible. où F est une fonction affine. La matrice B = MN est alors appelée matrice de Jacobi.
Condition aux limites de NeumannEn mathématiques, une condition aux limites de Neumann (nommée d'après Carl Neumann) est imposée à une équation différentielle ou à une équation aux dérivées partielles lorsque l'on spécifie les valeurs des dérivées que la solution doit vérifier sur les frontières/limites du domaine. Pour une équation différentielle, par exemple : la condition aux limites de Neumann sur l'intervalle s'exprime par : où et sont deux nombres donnés.
Équation différentielle ordinaireEn mathématiques, une équation différentielle ordinaire (parfois simplement appelée équation différentielle et abrégée en EDO) est une équation différentielle dont la ou les fonctions inconnues ne dépendent que d'une seule variable; elle se présente sous la forme d'une relation entre ces fonctions inconnues et leurs dérivées successives. Le terme ordinaire est utilisé par opposition au terme équation différentielle partielle (plus communément équation aux dérivées partielles, ou EDP) où la ou les fonctions inconnues peuvent dépendre de plusieurs variables.
Méthode de GalerkineEn mathématiques, dans le domaine de l'analyse numérique, les méthodes de Galerkine sont une classe de méthodes permettant de transformer un problème continu (par exemple une équation différentielle) en un problème discret. Cette approche est attribuée aux ingénieurs russes Ivan Boubnov (1911) et Boris Galerkine (1913). Cette méthode est couramment utilisée dans la méthode des éléments finis. On part de la formulation faible du problème. La solution appartient à un espace fonctionnel satisfaisant des propriétés de régularité bien définies.
Équation aux dérivées partielles elliptiqueEn mathématiques, une équation aux dérivées partielles linéaire du second ordre, dont la forme générale est donnée par : est dite elliptique en un point donné x de l'ouvert U si la matrice carrée symétrique des coefficients du second ordre admet des valeurs propres non nulles et de même signe. En physique, les équations de Laplace, et de Poisson pour le potentiel électrostatique respectivement dans le vide et pour la distribution de charges sont de type elliptique.
Méthode des différences finiesEn analyse numérique, la méthode des différences finies est une technique courante de recherche de solutions approchées d'équations aux dérivées partielles qui consiste à résoudre un système de relations (schéma numérique) liant les valeurs des fonctions inconnues en certains points suffisamment proches les uns des autres. Cette méthode apparaît comme étant la plus simple à mettre en œuvre car elle procède en deux étapes : d'une part la discrétisation par différences finies des opérateurs de dérivation/différentiation, d'autre part la convergence du schéma numérique ainsi obtenu lorsque la distance entre les points diminue.