Couvre les mesures d'information telles que l'entropie, l'entropie articulaire et l'information mutuelle dans la théorie de l'information et le traitement des données.
Couvre les mesures d'information telles que l'entropie, la divergence Kullback-Leibler et l'inégalité de traitement des données, ainsi que les noyaux de probabilité et les informations mutuelles.
Explore les équations non linéaires, la bisection, les méthodes de points fixes, le contrôle des erreurs et les interprétations graphiques des points fixes.
Explore l'optimisation des réseaux neuronaux en utilisant la descente de gradient stochastique (SGD) et le concept de risque double par rapport au risque empirique.
Explore les arbres de décision pour la classification, l'entropie, le gain d'information, l'encodage à chaud, l'optimisation de l'hyperparamètre et les forêts aléatoires.