Optimisation (mathématiques)L'optimisation est une branche des mathématiques cherchant à modéliser, à analyser et à résoudre analytiquement ou numériquement les problèmes qui consistent à minimiser ou maximiser une fonction sur un ensemble. L’optimisation joue un rôle important en recherche opérationnelle (domaine à la frontière entre l'informatique, les mathématiques et l'économie), dans les mathématiques appliquées (fondamentales pour l'industrie et l'ingénierie), en analyse et en analyse numérique, en statistique pour l’estimation du maximum de vraisemblance d’une distribution, pour la recherche de stratégies dans le cadre de la théorie des jeux, ou encore en théorie du contrôle et de la commande.
Variété kählérienneEn mathématiques, une variété kählérienne ou variété de Kähler est une variété différentielle équipée d'une structure unitaire satisfaisant une condition d'intégrabilité. C'est en particulier une variété riemannienne, une variété symplectique et une variété complexe, ces trois structures étant mutuellement compatibles. Les variétés kählériennes sont un objet d'étude naturel en géométrie différentielle complexe. Elles doivent leur nom au mathématicien Erich Kähler. Plusieurs définitions équivalentes existent.
3-variétéEn mathématiques, une 3-variété est une variété de dimension 3, au sens des variétés topologiques, ou différentielles (en dimension 3, ces catégories sont équivalentes). Certains phénomènes sont liés spécifiquement à la dimension 3, si bien qu'en cette dimension, des techniques particulières prévalent, qui ne se généralisent pas aux dimensions supérieures.
Orientabilitédroite|vignette| Un tore est une surface orientable droite|vignette| Le ruban de Möbius est une surface non orientable. Notez que le crabe violoniste qui se déplace autour de lui est retourné à gauche et à droite à chaque circulation complète. Cela ne se produirait pas si le crabe était sur le tore. droite|vignette| La surface romaine n'est pas orientable En mathématiques, l'orientabilité est une propriété des surfaces dans l'espace euclidien qui mesure s'il est possible de faire un choix cohérent de vecteur normal de surface en chaque point.
Hyperparameter optimizationIn machine learning, hyperparameter optimization or tuning is the problem of choosing a set of optimal hyperparameters for a learning algorithm. A hyperparameter is a parameter whose value is used to control the learning process. By contrast, the values of other parameters (typically node weights) are learned. The same kind of machine learning model can require different constraints, weights or learning rates to generalize different data patterns.
Théorie quantique des champsvignette|296x296px|Ce diagramme de Feynman représente l'annihilation d'un électron et d'un positron, qui produit un photon (représenté par une ligne ondulée bleue). Ce photon se décompose en une paire quark-antiquark, puis l'antiquark émet un gluon (représenté par la courbe verte). Ce type de diagramme permet à la fois de représenter approximativement les processus physiques mais également de calculer précisément leurs propriétés, comme la section efficace de collision.
État cohérentvignette|300px|droite|Un oscillateur harmonique classique (A et B) et en mécanique quantique (C à H). Les figures C à H représentent les solutions de l'équation de Schrödinger pour un même potentiel. L'axe horizontal est la position, et l'axe vertical la partie réelle (en bleu) et imaginaire (en rouge) de la fonction d'onde. (C,D,E,F) sont les états stationnaires (états propres d'énergie), et (G,H) non stationnaires.
GrassmannienneEn mathématiques, les grassmanniennes sont des variétés dont les points correspondent aux sous-espaces vectoriels d'un espace vectoriel fixé. On note G(k, n) ou G(K) la grassmannienne des sous-espaces de dimension k dans un espace de dimension n sur le corps K. Ces espaces portent le nom de Hermann Grassmann qui en donna une paramétrisation et sont encore appelés grassmanniennes des « k-plans ». Pour k = 1, la grassmannienne est l'espace projectif associé à l'espace vectoriel.
Optimisation multiobjectifL'optimisation multiobjectif (appelée aussi Programmation multi-objective ou optimisation multi-critère) est une branche de l'optimisation mathématique traitant spécifiquement des problèmes d'optimisation ayant plusieurs fonctions objectifs. Elle se distingue de l'optimisation multidisciplinaire par le fait que les objectifs à optimiser portent ici sur un seul problème. Les problèmes multiobjectifs ont un intérêt grandissant dans l'industrie où les responsables sont contraints de tenter d'optimiser des objectifs contradictoires.
Principe d'incertitudeEn mécanique quantique, le principe d'incertitude ou, plus correctement, principe d'indétermination, aussi connu sous le nom de principe d'incertitude de Heisenberg, désigne toute inégalité mathématique affirmant qu'il existe une limite fondamentale à la précision avec laquelle il est possible de connaître simultanément deux propriétés physiques d'une même particule ; ces deux variables dites complémentaires peuvent être sa position (x) et sa quantité de mouvement (p).