Méthode d'EulerEn mathématiques, la méthode d'Euler, nommée ainsi en l'honneur du mathématicien Leonhard Euler (1707 — 1783), est une procédure numérique pour résoudre par approximation des équations différentielles du premier ordre avec une condition initiale. C'est la plus simple des méthodes de résolution numérique des équations différentielles. thumb|Illustration de la méthode d'Euler explicite : l'avancée se fait par approximation sur la tangente au point initial.
Suite (mathématiques)vignette|Exemple de suite : les points bleus représentent ses termes. En mathématiques, une suite est une famille d'éléments — appelés ses « termes » — indexée par les entiers naturels. Une suite finie est une famille indexée par les entiers strictement positifs inférieurs ou égaux à un certain entier, ce dernier étant appelé « longueur » de la suite. Lorsque tous les éléments d'une suite (infinie) appartiennent à un même ensemble , cette suite peut être assimilée à une application de dans .
Limite d'une suiteEn mathématiques, de manière intuitive, la limite d'une suite est l'élément dont les termes de la suite se rapprochent quand les indices deviennent très grands. Cette définition intuitive n'est guère exploitable car il faudrait pouvoir définir le sens de « se rapprocher ». Cette notion sous-entend l'existence d'une distance (induite par la valeur absolue dans R, par le module dans C, par la norme dans un espace vectoriel normé) mais on verra que l'on peut même s'en passer pourvu qu'on ait une topologie.
Optimisation convexevignette|320x320px|Optimisation convexe dans un espace en deux dimensions dans un espace contraint L'optimisation convexe est une sous-discipline de l'optimisation mathématique, dans laquelle le critère à minimiser est convexe et l'ensemble admissible est convexe. Ces problèmes sont plus simples à analyser et à résoudre que les problèmes d'optimisation non convexes, bien qu'ils puissent être NP-difficile (c'est le cas de l'optimisation copositive). La théorie permettant d'analyser ces problèmes ne requiert pas la différentiabilité des fonctions.
Méthode itérativeEn analyse numérique, une méthode itérative est un procédé algorithmique utilisé pour résoudre un problème, par exemple la recherche d’une solution d’un système d'équations ou d’un problème d’optimisation. En débutant par le choix d’un point initial considéré comme une première ébauche de solution, la méthode procède par itérations au cours desquelles elle détermine une succession de solutions approximatives raffinées qui se rapprochent graduellement de la solution cherchée. Les points générés sont appelés des itérés.
Algorithmethumb|Algorithme de découpe d'un polygone quelconque en triangles (triangulation). Un algorithme est une suite finie et non ambiguë d'instructions et d’opérations permettant de résoudre une classe de problèmes. Le domaine qui étudie les algorithmes est appelé l'algorithmique. On retrouve aujourd'hui des algorithmes dans de nombreuses applications telles que le fonctionnement des ordinateurs, la cryptographie, le routage d'informations, la planification et l'utilisation optimale des ressources, le , le traitement de textes, la bio-informatique L' algorithme peut être mis en forme de façon graphique dans un algorigramme ou organigramme de programmation.
Heun's methodIn mathematics and computational science, Heun's method may refer to the improved or modified Euler's method (that is, the explicit trapezoidal rule), or a similar two-stage Runge–Kutta method. It is named after Karl Heun and is a numerical procedure for solving ordinary differential equations (ODEs) with a given initial value. Both variants can be seen as extensions of the Euler method into two-stage second-order Runge–Kutta methods.
Convergence simpleEn mathématiques, la convergence simple ou ponctuelle est une notion de convergence dans un espace fonctionnel, c’est-à-dire dans un ensemble de fonctions entre deux espaces topologiques. C'est une définition peu exigeante : elle est plus facile à établir que d'autres formes de convergence, notamment la convergence uniforme. Le passage à la limite possède donc moins de propriétés : une suite de fonctions continues peut ainsi converger simplement vers une fonction qui ne l'est pas.
Méthode de JacobiLa méthode de Jacobi, due au mathématicien allemand Karl Jacobi, est une méthode itérative de résolution d'un système matriciel de la forme Ax = b. Pour cela, on utilise une suite x qui converge vers un point fixe x, solution du système d'équations linéaires. On cherche à construire, pour x donné, la suite x = F(x) avec . où est une matrice inversible. où F est une fonction affine. La matrice B = MN est alors appelée matrice de Jacobi.
Théorème de convergence monotoneEn mathématiques, le théorème de convergence monotone (ou théorème de Beppo Levi) est un résultat de la théorie de l'intégration de Lebesgue. Il permet de démontrer le lemme de Fatou et le théorème de convergence dominée. Ce théorème indique que pour une suite croissante de fonctions mesurables positives on a toujours la convergence de la suite de leurs intégrales vers l'intégrale de la limite simple. Le théorème autorise donc, pour une telle suite de fonctions, à intervertir les symboles et .