Formule de Gauss-Bonnetvignette|Exemple d'une surface à laquelle le théorème de Gauss-Bonnet peut être appliqué En géométrie différentielle, la formule de Gauss-Bonnet est une propriété reliant la géométrie (au sens de la courbure de Gauss) et la topologie (au sens de la caractéristique d'Euler) des surfaces. Elle porte le nom des mathématiciens Carl Friedrich Gauss, qui avait conscience d'une version du théorème, mais ne la publia jamais, et Pierre Ossian Bonnet, qui en publia un cas particulier en 1848.
Géométrie différentielle des surfacesEn mathématiques, la géométrie différentielle des surfaces est la branche de la géométrie différentielle qui traite des surfaces (les objets géométriques de l'espace usuel E3, ou leur généralisation que sont les variétés de dimension 2), munies éventuellement de structures supplémentaires, le plus souvent une métrique riemannienne. Outre les surfaces classiques de la géométrie euclidienne (sphères, cônes, cylindres, etc.
Modèle de Markov cachéUn modèle de Markov caché (MMC, terme et définition normalisés par l’ISO/CÉI [ISO/IEC 2382-29:1999]) — (HMM)—, ou plus correctement (mais non employé) automate de Markov à états cachés, est un modèle statistique dans lequel le système modélisé est supposé être un processus markovien de paramètres inconnus. Contrairement à une chaîne de Markov classique, où les transitions prises sont inconnues de l'utilisateur mais où les états d'une exécution sont connus, dans un modèle de Markov caché, les états d'une exécution sont inconnus de l'utilisateur (seuls certains paramètres, comme la température, etc.
Réseau de neurones récurrentsUn réseau de neurones récurrents (RNN pour recurrent neural network en anglais) est un réseau de neurones artificiels présentant des connexions récurrentes. Un réseau de neurones récurrents est constitué d'unités (neurones) interconnectées interagissant non-linéairement et pour lequel il existe au moins un cycle dans la structure. Les unités sont reliées par des arcs (synapses) qui possèdent un poids. La sortie d'un neurone est une combinaison non linéaire de ses entrées.
Réseau de neurones de HopfieldLe réseau de neurones d'Hopfield est un modèle de réseau de neurones récurrents à temps discret dont la matrice des connexions est symétrique et nulle sur la diagonale et où la dynamique est asynchrone (un seul neurone est mis à jour à chaque unité de temps). Il a été popularisé par le physicien John Hopfield en 1982. Sa découverte a permis de relancer l'intérêt dans les réseaux de neurones qui s'était essoufflé durant les années 1970 à la suite d'un article de Marvin Minsky et Seymour Papert.