Équation différentielleEn mathématiques, une équation différentielle est une équation dont la ou les « inconnue(s) » sont des fonctions ; elle se présente sous la forme d'une relation entre ces fonctions inconnues et leurs dérivées successives. C'est un cas particulier d'équation fonctionnelle. On distingue généralement deux types d'équations différentielles : les équations différentielles ordinaires (EDO) où la ou les fonctions inconnues recherchées ne dépendent que d'une seule variable ; les équations différentielles partielles, plutôt appelées équations aux dérivées partielles (EDP), où la ou les fonctions inconnues recherchées peuvent dépendre de plusieurs variables indépendantes.
Optimisation (mathématiques)L'optimisation est une branche des mathématiques cherchant à modéliser, à analyser et à résoudre analytiquement ou numériquement les problèmes qui consistent à minimiser ou maximiser une fonction sur un ensemble. L’optimisation joue un rôle important en recherche opérationnelle (domaine à la frontière entre l'informatique, les mathématiques et l'économie), dans les mathématiques appliquées (fondamentales pour l'industrie et l'ingénierie), en analyse et en analyse numérique, en statistique pour l’estimation du maximum de vraisemblance d’une distribution, pour la recherche de stratégies dans le cadre de la théorie des jeux, ou encore en théorie du contrôle et de la commande.
Équations d'EulerEn mécanique des fluides, les équations d'Euler sont des équations aux dérivées partielles non linéaires qui décrivent l'écoulement des fluides (liquide ou gaz) dans l’approximation des milieux continus. Ces écoulements sont adiabatiques, sans échange de quantité de mouvement par viscosité ni d'énergie par conduction thermique. L'histoire de ces équations remonte à Leonhard Euler qui les a établies pour des écoulements incompressibles (1757).
Problème de décisionEn informatique théorique, un problème de décision est une question mathématique dont la réponse est soit « oui », soit « non ». Les logiciens s'y sont intéressés à cause de l'existence ou de la non-existence d'un algorithme répondant à la question posée. Les problèmes de décision interviennent dans deux domaines de la logique : la théorie de la calculabilité et la théorie de la complexité. Parmi les problèmes de décision citons par exemple le problème de l'arrêt, le problème de correspondance de Post ou le dernier théorème de Fermat.
Théorème du point fixe de BrouwerEn mathématiques, et plus précisément en topologie algébrique, le théorème du point fixe de Brouwer fait partie de la grande famille des théorèmes de point fixe, qui énoncent que si une fonction continue f vérifie certaines propriétés, alors il existe un point x0 tel que f(x0) = x0. La forme la plus simple du théorème de Brouwer prend comme hypothèse que la fonction f est définie sur un intervalle fermé borné non vide I et à valeurs dans I. Sous une forme plus générale, la fonction est définie sur un convexe compact K d'un espace euclidien et à valeurs dans K.
Fonction de BesselEn mathématiques, et plus précisément en analyse, les fonctions de Bessel, appelées aussi quelquefois fonctions cylindriques, découvertes par le mathématicien suisse Daniel Bernoulli, portent le nom du mathématicien allemand Friedrich Wilhelm Bessel. Bessel développa l'analyse de ces fonctions en 1816 dans le cadre de ses études du mouvement des planètes induit par l'interaction gravitationnelle, généralisant les découvertes antérieures de Bernoulli.
Résolution de problèmevignette|Résolution d'un problème mathématique. La résolution de problème est le processus d'identification puis de mise en œuvre d'une solution à un problème. Analyse de cause racine (ACR, Root cause analysis) : cette démarche part du constat qu'il est plus judicieux de traiter les causes d'un problème que d'en traiter les symptômes immédiats. Puisqu'analyser les causes d'un problème permet d'en déterminer une solution définitive, et donc, empêcher qu'il ne se reproduise de nouveau.
Optimisation convexevignette|320x320px|Optimisation convexe dans un espace en deux dimensions dans un espace contraint L'optimisation convexe est une sous-discipline de l'optimisation mathématique, dans laquelle le critère à minimiser est convexe et l'ensemble admissible est convexe. Ces problèmes sont plus simples à analyser et à résoudre que les problèmes d'optimisation non convexes, bien qu'ils puissent être NP-difficile (c'est le cas de l'optimisation copositive). La théorie permettant d'analyser ces problèmes ne requiert pas la différentiabilité des fonctions.
Problème du voyageur de commercevignette|Le problème de voyageur de commerce : calculer un plus court circuit qui passe une et une seule fois par toutes les villes (ici 15 villes). En informatique, le problème du voyageur de commerce, ou problème du commis voyageur, est un problème d'optimisation qui consiste à déterminer, étant donné un ensemble de villes, le plus court circuit passant par chaque ville une seule fois. C'est un problème algorithmique célèbre, qui a donné lieu à de nombreuses recherches et qui est souvent utilisé comme introduction à l'algorithmique ou à la théorie de la complexité.
Théorème du point fixe de Kakutanivignette|Exemple animé montrant des points x, et leurs images φ(x) par la fonction φ. L'animation finit par montrer un point x contenu dans φ(x). En analyse mathématique, le théorème du point fixe de Kakutani est un théorème de point fixe qui généralise celui de Brouwer à des fonctions à valeurs ensemblistes. Il fournit une condition suffisante pour qu'une telle fonction, définie sur un compact convexe d'un espace euclidien, possède un point fixe, c'est-à-dire dans ce contexte : un point qui appartient à son par cette fonction.