Passer au contenu principal
Graph
Search
fr
en
Se Connecter
Recherche
Tous
Catégories
Concepts
Cours
Séances de cours
MOOCs
Personnes
Exercices
Publications
Start-ups
Unités
Afficher tous les résultats pour
Accueil
Séance de cours
Théorie de l'information: Codes sans préfixe
Graph Chatbot
Séances de cours associées (28)
Précédent
Page 1 sur 3
Suivant
Compression: Codes sans préfixe
Explique les codes sans préfixe pour une compression efficace des données et l'importance des codes décodables de manière unique.
Théorème de codage des sources
Explore le théorème de codage source, l'entropie, le codage Huffman et l'impact du conditionnement sur la réduction de l'entropie.
Séance de cours: Shannon
Couvre les bases de la théorie de l'information, en se concentrant sur le réglage de Shannon et la transmission de canal.
Entropie et compression de données: techniques de codage Huffman
Discute de l'entropie, de la compression des données et des techniques de codage Huffman, en mettant l'accent sur leurs applications pour optimiser les longueurs de mots de code et comprendre l'entropie conditionnelle.
Mesures de l'information : Entropie et théorie de l'information
Explique comment l'entropie mesure l'incertitude dans un système en fonction des résultats possibles.
Compression des données et Algorithme Shannon-Fano
Explore l'algorithme Shannon-Fano pour la compression des données et son efficacité dans la création de codes binaires uniques pour les lettres.
Entropie et algorithmes : Applications au tri et à la pesée
Couvre l'application de l'entropie dans les algorithmes, en se concentrant sur le tri et les stratégies de prise de décision.
Techniques d'entropie conditionnelle et de compression de données
Discute de l'entropie conditionnelle et de son rôle dans les techniques de compression de données.
Information mutuelle et entropie
Explore l'information mutuelle et le calcul d'entropie entre les variables aléatoires.
Formulation variationnelle : Mesures d'information
Explore la formulation variationnelle pour mesurer le contenu de l'information et la divergence entre les distributions de probabilité.