Régression non linéaireUne régression non linéaire consiste à ajuster un modèle, en général non linéaire, y = ƒa1, ..., am(x) pour un ensemble de valeurs (xi, yi)1 ≤ i ≤ n. Les variables xi et yi peuvent être des scalaires ou des vecteurs. Par « ajuster », il faut comprendre : déterminer les paramètres de la loi, (a1, ..., am), afin de minimiser S = ||ri||, avec : ri = yi - ƒa1, ..., am(xi). ||...|| est une norme. On utilise en général la norme euclidienne, ou norme l2 ; on parle alors de méthode des moindres carrés.
Méthode des moindres carrés ordinairevignette|Graphique d'une régression linéaire La méthode des moindres carrés ordinaire (MCO) est le nom technique de la régression mathématique en statistiques, et plus particulièrement de la régression linéaire. Il s'agit d'un modèle couramment utilisé en économétrie. Il s'agit d'ajuster un nuage de points selon une relation linéaire, prenant la forme de la relation matricielle , où est un terme d'erreur.
Seconde forme fondamentaleLa seconde forme fondamentale est une forme quadratique caractérisant certains aspects de la géométrie différentielle des surfaces. Ce concept est d'abord apparu dans l'étude des surfaces réglées avant de prendre toute sa généralité dans le cadre de la géométrie riemannienne. Alors que la première forme fondamentale décrit la « géométrie interne » d'une surface (c'est-à-dire les propriétés qui peuvent être déterminées depuis la surface elle-même), la seconde forme fondamentale dépend de la situation de la surface dans l'espace.
Shing-Tung YauShing-Tung Yau ( ; ku1 sêng-tông), né le à Shantou, est un mathématicien chinois connu pour ses travaux en géométrie différentielle, et est à l'origine de la théorie des variétés de Calabi-Yau. Shing-Tung Yau naît dans la ville de Shantou, province de Guangdong (Chine) dans une famille de huit enfants. Son père, un professeur de philosophie, est mort alors qu'il avait quatorze ans. Il déménage à Hong Kong avec sa famille, où il étudie les mathématiques à l'université chinoise de Hong Kong de 1966 à 1969.
Géométrie différentielle des surfacesEn mathématiques, la géométrie différentielle des surfaces est la branche de la géométrie différentielle qui traite des surfaces (les objets géométriques de l'espace usuel E3, ou leur généralisation que sont les variétés de dimension 2), munies éventuellement de structures supplémentaires, le plus souvent une métrique riemannienne. Outre les surfaces classiques de la géométrie euclidienne (sphères, cônes, cylindres, etc.
Forme (géométrie)En géométrie classique, la forme permet d’identifier ou de distinguer des figures selon qu’elles peuvent ou non être obtenues les unes à partir des autres par des transformations géométriques qui préservent les angles en multipliant toutes les longueurs par un même coefficient d’agrandissement. Au sens commun, la forme d’une figure est en général décrite par la donnée combinatoire d’un nombre fini de points et de segments ou d’autres courbes délimitant des surfaces, des comparaisons de longueurs ou d’angles, d’éventuels angles droits et éventuellement du sens de courbure.
Optimisation non linéaireEn optimisation, vue comme branche des mathématiques, l'optimisation non linéaire (en anglais : nonlinear programming – NLP) s'occupe principalement des problèmes d'optimisation dont les données, i.e., les fonctions et ensembles définissant ces problèmes, sont non linéaires, mais sont aussi différentiables autant de fois que nécessaire pour l'établissement des outils théoriques, comme les conditions d'optimalité, ou pour la bonne marche des algorithmes de résolution qui y sont introduits et analysés.
Maupertuis's principleIn classical mechanics, Maupertuis's principle (named after Pierre Louis Maupertuis) states that the path followed by a physical system is the one of least length (with a suitable interpretation of path and length). It is a special case of the more generally stated principle of least action. Using the calculus of variations, it results in an integral equation formulation of the equations of motion for the system. Maupertuis's principle states that the true path of a system described by generalized coordinates between two specified states and is a stationary point (i.
Optimisation multidisciplinaireL'Optimisation de Conception Multidisciplinaire (OMD ou MDO, Multidisciplinary Design Optimisation, en anglais) est un domaine d'ingénierie qui utilise des méthodes d'optimisation afin de résoudre des problèmes de conception mettant en œuvre plusieurs disciplines. La MDO permet aux concepteurs d'incorporer les effets de chacune des disciplines en même temps. L'optimum global ainsi trouvé est meilleur que la configuration trouvée en optimisant chaque discipline indépendamment des autres, car l'on prend en compte les interactions entre les disciplines.
Hyperparameter optimizationIn machine learning, hyperparameter optimization or tuning is the problem of choosing a set of optimal hyperparameters for a learning algorithm. A hyperparameter is a parameter whose value is used to control the learning process. By contrast, the values of other parameters (typically node weights) are learned. The same kind of machine learning model can require different constraints, weights or learning rates to generalize different data patterns.