Introduit un apprentissage profond, de la régression logistique aux réseaux neuraux, soulignant la nécessité de traiter des données non linéairement séparables.
Explore les avantages prouvables d'une surparamétrie dans la compression des modèles, en mettant l'accent sur l'efficacité des réseaux neuronaux profonds et sur l'importance du recyclage pour améliorer les performances.
Couvre les concepts fondamentaux de l'apprentissage profond et de l'architecture Transformer, en se concentrant sur les réseaux neuronaux, les mécanismes d'attention et leurs applications dans les tâches de modélisation de séquence.
Introduit des bases de réseau, des protocoles de communication, des mécanismes de routage, des concepts de conception Web et des risques pour la sécurité.
Explore les mathématiques des modèles de langues, couvrant la conception de l'architecture, la pré-formation et l'ajustement fin, soulignant l'importance de la pré-formation et de l'ajustement fin pour diverses tâches.
Présente les réseaux neuronaux convolutifs, en expliquant leur architecture, leur processus de formation et leurs applications dans les tâches de segmentation sémantique.