En mathématiques, et plus précisément en analyse, l'analyse non standard est un ensemble d'outils développés depuis 1960 afin de traiter la notion d'infiniment petit de manière rigoureuse. Pour cela, une nouvelle notion est introduite, celle d'objet standard (s'opposant à celle d'objet non standard), ou plus généralement de modèle standard ou de modèle non standard. Cela permet de présenter les principaux résultats de l'analyse sous une forme plus intuitive que celle exposée traditionnellement depuis le .
La naissance du calcul différentiel et infinitésimal au mena à l'introduction et à l'utilisation de quantités infiniment petites. Leibniz, Euler et Cauchy en firent grand usage. Cependant, ils ne purent éclairer pleinement la nature même de ces infiniment petits. Leur usage disparut au avec le développement de la rigueur en Analyse, par Weierstrass et Dedekind.
Il fallut attendre la deuxième moitié du pour qu'une introduction rigoureuse des infiniment petits soit proposée. Après une approche due à Abraham Robinson en 1961, issue des travaux de la logique mathématique et utilisant la notion de modèle, Wilhelmus Luxemburg popularisa en 1962 une construction (déjà découverte par Edwin Hewitt en 1948) des infiniment petits (et des autres hyperréels) par une ultrapuissance de , donnant ainsi naissance à une nouvelle théorie, l'analyse non standard. En 1977, Edward Nelson fournit une autre présentation de l'analyse non standard – appelée IST (Internal Set Theory, c'est-à-dire « Théorie des ensembles internes » en anglais) – fondée sur l'axiomatique de Zermelo-Frankel à laquelle est ajouté un nouveau prédicat : le prédicat standard. Le comportement de ce nouveau prédicat est fondé sur trois axiomes nouveaux :
l'axiome d'idéalisation ;
l'axiome de standardisation ;
l'axiome de transfert.
Le sens du qualificatif standard donné par ces axiomes est celui d'objet appartenant à l'horizon perceptible, non standard comme étant au-delà de l'horizon perceptible. Un ensemble peut donc être standard ou non standard (on dit aussi charmé), il ne peut être les deux.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
En mathématiques, et plus précisément en analyse, l'analyse non standard est un ensemble d'outils développés depuis 1960 afin de traiter la notion d'infiniment petit de manière rigoureuse. Pour cela, une nouvelle notion est introduite, celle d'objet standard (s'opposant à celle d'objet non standard), ou plus généralement de modèle standard ou de modèle non standard. Cela permet de présenter les principaux résultats de l'analyse sous une forme plus intuitive que celle exposée traditionnellement depuis le .
En mathématiques, un nombre réel est un nombre qui peut être représenté par une partie entière et une liste finie ou infinie de décimales. Cette définition s'applique donc aux nombres rationnels, dont les décimales se répètent de façon périodique à partir d'un certain rang, mais aussi à d'autres nombres dits irrationnels, tels que la racine carrée de 2, π et e.
vignette|Représentation des infinitésimaux (ε) et infinis (ω) sur la droite des nombres hyperréels (1/ε = ω)|520x520px En mathématiques, le corps ordonné des nombres hyperréels constitue une extension, notée *R, des nombres réels usuels, permettant de donner un sens rigoureux aux notions de quantité infiniment petite ou infiniment grande. On peut éviter alors l'emploi des passages à la limite et des expressions conditionnées par une valeur ε « aussi petite que l’on veut ».
Machine learning and data analysis are becoming increasingly central in many sciences and applications. This course concentrates on the theoretical underpinnings of machine learning.
Explore l'analyse stochastique de la descente et du champ moyen dans les réseaux neuraux à deux couches, en mettant l'accent sur leurs processus itératifs et leurs fondements mathématiques.
This paper discusses the advantages of using a coding interface both to describe form and run performance simulations in the context of architectural design. It outlines the relevance of combining rec