Andreï Andreïevitch Markov (en Андрей Андреевич Марков) (1856-1922) est un mathématicien russe.
Il est considéré comme le fondateur de la théorie des processus stochastiques.
La mère d'Andreï Markov, Nadejda Petrovna, est la fille d'un ouvrier d'État. Son père, Andreï Grigorievitch Markov, membre de la petite noblesse, sert dans le département des forêts, puis devient gestionnaire de domaine privé.
Dans ses premières années, Markov est en mauvaise santé et jusqu'à l'âge de dix ans, il ne peut marcher qu'à l'aide de béquilles. Durant sa scolarité secondaire, il démontre des talents exceptionnels pour les mathématiques mais réussit plutôt mal dans les autres matières. Il écrit son premier article de mathématiques sur la résolution des équations différentielles linéaires mais les résultats qu'il présente ne sont pas nouveaux. Cependant, l'écriture de cet article lui fait rencontrer et , deux des principaux professeurs à l'université, stimulant sa carrière scientifique.
En 1883, Markov épouse Maria Ivanova Valvatieva. Ils se connaissent depuis l'enfance car elle est la fille du propriétaire de la propriété gérée par son père. Cependant, la mère de Maria Ivanova n'autorise sa fille à se marier avec Markov que lorsque ce dernier a acquis un statut social suffisant.
Il est le père d'Andreï Andreïevitch Markov, un des fondateurs de l'école russe des mathématiques constructives.
En 1874, il entre à la faculté de physique et de mathématiques de l'université impériale de Saint-Pétersbourg. Il participe au séminaire dirigé par Korkine et Zolotarev, et assiste à des conférences de Tchebychev, le directeur du département de mathématiques. Celles-ci sont particulièrement stimulantes pour Markov, car Tchebychev encourage souvent une atmosphère de recherche en posant de nouvelles questions et problèmes pour que ses étudiants y réfléchissent.
En 1878, il est diplômé et remporte la médaille d'or pour le meilleur essai sur le thème du prix fixé par la faculté de cette année - Sur l' intégration des équations différentielles au moyen de fractions continues.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
The study of random walks finds many applications in computer science and communications. The goal of the course is to get familiar with the theory of random walks, and to get an overview of some appl
Information is processed in physical devices. In the quantum regime the concept of classical bit is replaced by the quantum bit. We introduce quantum principles, and then quantum communications, key d
This lecture describes advanced concepts and applications of quantum optics. It emphasizes the connection with ongoing research, and with the fast growing field of quantum technologies. The topics cov
Explore les chaînes de Markov et leurs applications dans des algorithmes, en se concentrant sur l'impatience des utilisateurs et la génération d'échantillons fidèles.
vignette|Exemple élémentaire de chaîne de Markov, à deux états A et E. Les flèches indiquent les probabilités de transition d'un état à un autre. En mathématiques, une chaîne de Markov est un processus de Markov à temps discret, ou à temps continu et à espace d'états discret. Un processus de Markov est un processus stochastique possédant la propriété de Markov : l'information utile pour la prédiction du futur est entièrement contenue dans l'état présent du processus et n'est pas dépendante des états antérieurs (le système n'a pas de « mémoire »).
vignette|Visualisation de la loi des grands nombres En mathématiques, la loi des grands nombres permet d’interpréter la probabilité comme une fréquence de réalisation, justifiant ainsi le principe des sondages, et présente l’espérance comme une moyenne. Plus formellement, elle signifie que la moyenne empirique, calculée sur les valeurs d’un échantillon, converge vers l’espérance lorsque la taille de l’échantillon tend vers l’infini. Plusieurs théorèmes expriment cette loi, pour différents types de convergence en théorie des probabilités.
vignette|Exemple de processus stochastique vérifiant la propriété de Markov: un mouvement Brownien (ici représenté en 3D) d'une particule dont la position à un instant t+1 ne dépend que de la position précédente à l'instant t. En probabilité, un processus stochastique vérifie la propriété de Markov si et seulement si la distribution conditionnelle de probabilité des états futurs, étant donnés les états passés et l'état présent, ne dépend en fait que de l'état présent et non pas des états passés (absence de « mémoire »).
The RIde-hail VEhicle Routing (RIVER) problem describes how drivers in a ride-hail market form a dynamic routing strategy according to the expected reward in each zone of the market. We model this decision-making problem as a Markov decision process (MDP), ...
This paper studies the routing and charging behaviors of electric vehicles in a competitive ride-hailing market. When the vehicles are idle, they can choose whether to continue cruising to search for passengers, or move a charging station to recharge. The ...
New York2023
,
Universal inference enables the construction of confidence intervals and tests without regularity conditions by splitting the data into two parts and appealing to Markov's inequality. Previous investigations have shown that the cost of this generality is a ...