Espace de BanachEn mathématiques, plus particulièrement en analyse fonctionnelle, on appelle espace de Banach un espace vectoriel normé sur un sous-corps K de C (en général, K = R ou C), complet pour la distance issue de sa norme. Comme la topologie induite par sa distance est compatible avec sa structure d’espace vectoriel, c’est un espace vectoriel topologique. Les espaces de Banach possèdent de nombreuses propriétés qui font d'eux un outil essentiel pour l'analyse fonctionnelle. Ils doivent leur nom au mathématicien polonais Stefan Banach.
Suite définie par récurrenceEn mathématiques, une suite définie par récurrence est une suite définie par son (ou ses) premier(s) terme(s) et par une relation de récurrence, qui définit chaque terme à partir du précédent ou des précédents lorsqu'ils existent. Une relation de récurrence est une équation dans laquelle l'expression de plusieurs termes de la suite apparait, par exemple : ou ou ou si l'on se place dans les suites de mots sur l'alphabet : Si la relation de récurrence a une « bonne » présentation, cela permet de calculer l'expression du terme d'indice le plus élevé en fonction de l'expression des autres.
Bifurcation de HopfDans la théorie des bifurcations, une bifurcation de Hopf ou de Poincaré–Andronov–Hopf, des noms de Henri Poincaré, Eberhard Hopf, et Aleksandr Andronov, est une bifurcation locale dans laquelle un point fixe d'un système dynamique perd sa stabilité tandis qu'une paire de valeurs propres complexes conjuguées de la linéarisation autour du point fixe franchissent l'axe imaginaire du plan complexe. Pour un tour d'horizon plus général sur les bifurcations de Hopf et leurs applications notamment en physique et en électronique, voir.
Théorème du point fixe de LefschetzEn mathématiques, le théorème du point fixe de Lefschetz est une formule qui compte le nombre de points fixes d'une application continue d'un espace compact X dans lui-même en utilisant les traces des endomorphismes qu'elle induit sur l'homologie de X. Il est nommé d'après Solomon Lefschetz qui l'a démontré en 1926. Chaque point fixe est compté avec sa multiplicité. Une version faible du théorème suffit à démontrer qu'une application qui n'a aucun point fixe doit vérifier certaines propriétés particulières (comme une rotation du cercle).
Équation différentielleEn mathématiques, une équation différentielle est une équation dont la ou les « inconnue(s) » sont des fonctions ; elle se présente sous la forme d'une relation entre ces fonctions inconnues et leurs dérivées successives. C'est un cas particulier d'équation fonctionnelle. On distingue généralement deux types d'équations différentielles : les équations différentielles ordinaires (EDO) où la ou les fonctions inconnues recherchées ne dépendent que d'une seule variable ; les équations différentielles partielles, plutôt appelées équations aux dérivées partielles (EDP), où la ou les fonctions inconnues recherchées peuvent dépendre de plusieurs variables indépendantes.
Singularité (mathématiques)En mathématiques, une singularité est en général un point, une valeur ou un cas dans lequel un certain objet mathématique n'est pas bien défini ou bien subit une transition. Ce terme peut donc avoir des significations très différentes en fonction du contexte. Par exemple, dans l'analyse élémentaire, on dit que . En théorie des singularités, le terme prend un sens différent. On dit, par exemple, En algèbre linéaire, une matrice carrée est dite singulière si elle n'est pas inversible.
Fixed-point theorems in infinite-dimensional spacesIn mathematics, a number of fixed-point theorems in infinite-dimensional spaces generalise the Brouwer fixed-point theorem. They have applications, for example, to the proof of existence theorems for partial differential equations. The first result in the field was the Schauder fixed-point theorem, proved in 1930 by Juliusz Schauder (a previous result in a different vein, the Banach fixed-point theorem for contraction mappings in complete metric spaces was proved in 1922). Quite a number of further results followed.
Équation différentielle à retardEn mathématiques, les équations différentielles à retard (EDR) sont un type d'équation différentielle dans laquelle la dérivée de la fonction inconnue à un certain instant est donnée en fonction des valeurs de la fonction aux instants précédents. Les EDR sont également appelés des systèmes à retard, systèmes avec effet secondaire ou temps mort, systèmes héréditaires, équations à argument déviant, ou équations aux différences différentielles .
Différence finieEn mathématiques, et plus précisément en analyse, une différence finie est une expression de la forme f(x + b) − f(x + a) (où f est une fonction numérique) ; la même expression divisée par b − a s'appelle un taux d'accroissement (ou taux de variation), et il est possible, plus généralement, de définir de même des différences divisées. L'approximation des dérivées par des différences finies joue un rôle central dans les méthodes des différences finies utilisées pour la résolution numérique des équations différentielles, tout particulièrement pour les problèmes de conditions aux limites.
Équation différentielle stochastiqueUne équation différentielle stochastique (EDS) est une généralisation de la notion d'équation différentielle prenant en compte un terme de bruit blanc. Les EDS permettent de modéliser des trajectoires aléatoires, tels des cours de bourse ou les mouvements de particules soumises à des phénomènes de diffusion. Elles permettent aussi de traiter théoriquement ou numériquement des problèmes issus de la théorie des équations aux dérivées partielles.