L’analyse numérique est une discipline à l'interface des mathématiques et de l'informatique. Elle s’intéresse tant aux fondements qu’à la mise en pratique des méthodes permettant de résoudre, par des calculs purement numériques, des problèmes d’analyse mathématique.
Plus formellement, l’analyse numérique est l’étude des algorithmes permettant de résoudre numériquement par discrétisation les problèmes de mathématiques continues (distinguées des mathématiques discrètes). Cela signifie qu’elle s’occupe principalement de répondre de façon numérique à des questions à variable réelle ou complexe comme l’algèbre linéaire numérique sur les champs réels ou complexes, la recherche de solution numérique d’équations différentielles et d’autres problèmes liés survenant dans les sciences physiques et l’ingénierie. Branche des mathématiques appliquées, son développement est étroitement lié à celui des outils informatiques.
Sa mise en œuvre pratique et ses domaines d’application sont décrits plus complètement dans l’article calcul numérique.
vignette|Simulation numérique d'un crash de véhicule.
Certains problèmes de mathématiques peuvent être résolus numériquement (c.-à-d., sur ordinateur) de façon exacte par un algorithme en un nombre fini d'opérations. Ces algorithmes sont parfois appelés méthodes directes ou qualifiés de finis. Des exemples sont l’élimination de Gauss-Jordan pour la résolution d’un système d’équations linéaires et l’algorithme du simplexe en optimisation linéaire.
Cependant, aucune méthode directe n’est connue pour certains problèmes (de plus, pour une classe de problèmes dits NP-complets, aucun algorithme de calcul direct en temps polynomial n'est connu à ce jour). Dans de tels cas, il est parfois possible d’utiliser une méthode itérative pour tenter de déterminer une approximation de la solution. Une telle méthode démarre depuis une valeur devinée ou estimée grossièrement et trouve des approximations successives qui devraient converger vers la solution sous certaines conditions.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
En mathématiques, la formule de Rodrigues (anciennement appelée formule de Ivory-Jacobi) est une formule impliquant les polynômes de Legendre, indépendamment découverte par Olinde Rodrigues, James Ivory et Charles Gustave Jacob Jacobi. Le nom « formule de Rodrigues » a été introduit par Eduard Heine en 1878, après que Hermite eut souligné, dès 1865, que Rodrigues a été le premier à la découvrir. Le terme est également utilisé pour décrire des formules similaires pour d'autres suites de polynômes orthogonaux.
thumb|upright=1.5|Polynômes de Legendre En mathématiques et en physique théorique, les polynômes de Legendre constituent l'exemple le plus simple d'une suite de polynômes orthogonaux. Ce sont des solutions polynomiales P(x), sur l'intervalle x ∈ [–1, 1], de l'équation différentielle de Legendre : dans le cas particulier où le paramètre n est un entier naturel. De façon équivalente, les polynômes de Legendre sont les fonctions propres de l'endomorphisme de R[X] défini par : pour les valeurs propres .
vignette| Une interprétation en noir et blanc de la tablette YBC 7289 de la Yale Babylonian Collection (vers 1800–1600 avant notre ère), montrant une approximation babylonienne de la racine carrée de 2 (1 24 51 10 w : sexagésimal) dans le contexte du théorème de Pythagore pour un triangle isocèle. La tablette donne également un exemple où un côté du carré est 30 et la diagonale résultante est 42 25 35 soit 42,4263888.
This course presents numerical methods for the solution of mathematical problems such as systems of linear and non-linear equations, functions approximation, integration and differentiation, and diffe
Le cours présente des méthodes numériques pour la résolution de problèmes mathématiques comme des systèmes d'équations linéaires ou non linéaires, approximation de fonctions, intégration et dérivation
Actif en hydroélectricité, simulation et multiphysique. Power Vision Engineering se spécialise dans la modélisation et la simulation du comportement dynamique des centrales hydroélectriques, offrant des services dans l'évaluation de la stabilité du système et l'analyse complexe des débits.
En programmation informatique, un langage de programmation à haut niveau d'abstraction généralement appelé langage de haut niveau est un langage de programmation orienté autour du problème à résoudre, qui permet d'écrire des programmes en utilisant des mots usuels des langues naturelles (très souvent de l'anglais) et des symboles mathématiques familiers. Un langage de haut niveau fait abstraction des caractéristiques techniques du matériel utilisé pour exécuter le programme, tels que les registres et les drapeaux du processeur.
vignette|R3 est un espace vectoriel de dimension 3. Droites et plans qui passent par l'origine sont des sous-espaces vectoriels. L’algèbre linéaire est la branche des mathématiques qui s'intéresse aux espaces vectoriels et aux transformations linéaires, formalisation générale des théories des systèmes d'équations linéaires. L'algèbre linéaire est initiée dans son principe par le mathématicien perse Al-Khwârizmî qui s'est inspiré des textes de mathématiques indiens et qui a complété les travaux de l'école grecque, laquelle continuera de se développer des siècles durant.
L'analyse complexe est un domaine des mathématiques traitant des fonctions à valeurs complexes (ou, plus généralement, à valeurs dans un C-espace vectoriel) et qui sont dérivables par rapport à une ou plusieurs variables complexes. Les fonctions dérivables sur un ouvert du plan complexe sont appelées holomorphes et satisfont de nombreuses propriétés plus fortes que celles vérifiées par les fonctions dérivables en analyse réelle. Entre autres, toute fonction holomorphe est analytique et vérifie le principe du maximum.
For a high dimensional problem, a randomized Gram-Schmidt (RGS) algorithm is beneficial in computational costs as well as numerical stability. We apply this dimension reduction technique by random sketching to Krylov subspace methods, e.g. to the generaliz ...
Springer2024
,
This work is concerned with the computation of the action of a matrix function f(A), such as the matrix exponential or the matrix square root, on a vector b. For a general matrix A, this can be done by computing the compression of A onto a suitable Krylov ...
Siam Publications2024
, ,
Mass lumping techniques are commonly employed in explicit time integration schemes for problems in structural dynamics and both avoid solving costly linear systems with the consistent mass matrix and increase the critical time step. In isogeometric analysi ...