Passer au contenu principal
Graph
Search
fr
|
en
Se Connecter
Recherche
Tous
Catégories
Concepts
Cours
Séances de cours
MOOCs
Personnes
Exercices
Publications
Start-ups
Unités
Afficher tous les résultats pour
Accueil
Séance de cours
Quantifier l'information : probabilité, entropie et contraintes
Graph Chatbot
Séances de cours associées (27)
Précédent
Page 3 sur 3
Suivant
Formulation variationnelle : Mesures d'information
Explore la formulation variationnelle pour mesurer le contenu de l'information et la divergence entre les distributions de probabilité.
Aléatoire biologique et analyse des données
Explore le caractère aléatoire en biologie, couvrant les fluctuations thermiques, les promenades aléatoires et les techniques d'analyse de données.
GLMs non paramétriques et image de haut niveau
Explore les relations non paramétriques dans les GLM et l'importance de comprendre la variabilité par le biais des probabilités et des modèles.
Sources fixes : Propriétés et Entropie
Explore les sources fixes, l'entropie, la régularité et l'efficacité du codage, y compris un problème difficile avec les boules de billard.
Compression de données et entropie: Illustration des propriétés d'entropie
Explore l'entropie comme une mesure du désordre et comment elle peut être augmentée.
Probabilité et statistiques : Indépendance et probabilité conditionnelle
Explore l'indépendance et la probabilité conditionnelle dans les probabilités et les statistiques, avec des exemples illustrant les concepts et les applications pratiques.
Théorie de l'information: Entropie et traitement de l'information
Explore l'entropie dans la théorie de l'information et son rôle dans le traitement des données et les distributions de probabilité.