Passer au contenu principal
Graph
Search
fr
|
en
Se Connecter
Recherche
Tous
Catégories
Concepts
Cours
Séances de cours
MOOCs
Personnes
Exercices
Publications
Start-ups
Unités
Afficher tous les résultats pour
Accueil
Séance de cours
Théorie de l'information et codage
Graph Chatbot
Séances de cours associées (30)
Précédent
Page 1 sur 3
Suivant
Code source et codes sans préfixe
Couvre le codage source, les codes injectifs, les codes sans préfixe et l'inégalité de Kraft.
Théorie de l'information: codage de source et codage de canal
Couvre les bases de la théorie de l'information, en se concentrant sur le codage source et le codage de canal.
Formulation variationnelle : Mesures d'information
Explore la formulation variationnelle pour mesurer le contenu de l'information et la divergence entre les distributions de probabilité.
Information mutuelle et entropie
Explore l'information mutuelle et le calcul d'entropie entre les variables aléatoires.
Séance de cours: Shannon
Couvre les bases de la théorie de l'information, en se concentrant sur le réglage de Shannon et la transmission de canal.
Mesures d'information
Couvre les mesures d'information telles que l'entropie, la divergence Kullback-Leibler et l'inégalité de traitement des données, ainsi que les noyaux de probabilité et les informations mutuelles.
Mesures de l'information : Entropie et théorie de l'information
Explique comment l'entropie mesure l'incertitude dans un système en fonction des résultats possibles.
Théorie de l'information et codage
Couvre la longueur attendue des mots de code, la procédure Huffman et l'entropie dans la théorie du codage.
Théorie de l'information: Capacité du canal et fonctions convexes
Explore la capacité des canaux et les fonctions convexes dans la théorie de l'information, en soulignant l'importance de la convexité.
Théorie de l'information : examen et information mutuelle
Examine les mesures d'information comme l'entropie et introduit l'information mutuelle comme mesure de l'information entre les variables aléatoires.