Passer au contenu principal
Graph
Search
fr
en
Se Connecter
Recherche
Tous
Catégories
Concepts
Cours
Séances de cours
MOOCs
Personnes
Exercices
Publications
Start-ups
Unités
Afficher tous les résultats pour
Accueil
Concept
Convolutional code
Applied sciences
Information engineering
Théorie de l'information
Théorie des codes
Graph Chatbot
Séances de cours associées (28)
Connectez-vous pour filtrer par séance de cours
Connectez-vous pour filtrer par séance de cours
Réinitialiser
Précédent
Page 2 sur 3
Suivant
Codes convolutifs : décodage et diagrammes oculaires
Couvre le processus de décodage des codes convolutifs et l'analyse des diagrammes oculaires.
Codes linéaires: Systématique vs non-systématique
Explore la création de codes linéaires systématiques et la transformation de codes non systématiques, en montrant leur équivalence et leur importance dans la simplification des processus de codage et de décodage.
Codes de blocs linéaires : Bases
Couvre les bases des codes de blocs linéaires et des codes systématiques sur un champ F.
Compression de données et théorème de Shannon: Exemple de calcul d'entropie
Démontre le calcul de l'entropie pour un exemple spécifique, résultant en une valeur d'entropie de 2,69.
Codes convolutifs : analyse et applications
Plonge dans l'analyse et les applications des codes convolutifs, soulignant l'importance d'une mise en œuvre correcte pour des résultats optimaux.
Viterbi Decoder: Mise à jour métrique d'état et calcul LLR
Explore l'algorithme de Viterbi, les mises à jour métriques d'état, le calcul LLR et les défis de décodage.
Code de vérification de la parité binaire
Explore les codes de contrôle de parité binaire, la matrice de générateur systématique et l'élimination gaussienne.
Conseils en TI : stratégies et solutions
Explore les stratégies de consultation en TI, l'engagement des intervenants et les solutions durables dans un cadre d'équipe virtuelle.
Compression des données et résumé du théorème de Shannon
Résumé du théorème de Shannon, soulignant l'importance de l'entropie dans la compression des données.
Modèles de Markov cachés (HMM): Théorie
Couvre les modèles de Markov cachés (HMM) pour la modélisation de données de séries chronologiques et le décodage à laide de lalgorithme de Viterbi.