Explore la motivation et les avantages de l'utilisation des GPU pour le calcul, en se concentrant sur leurs performances et leur programmation via CUDA.
Explore les principes de synchronisation à l'aide de verrous et de barrières, en mettant l'accent sur des implémentations matérielles efficaces et des mécanismes de coordination tels qu'OpenMP.
Couvre les bases de la programmation parallèle, y compris la concurrence, les formes de parallélisme, la synchronisation et les modèles de programmation tels que PThreads et OpenMP.
Couvre la cohérence des caches dans les systèmes multiprocesseurs et les défis du maintien de la cohérence et de la cohérence dans les processeurs modernes.
Explore les perspectives historiques et les mécanismes de la mémoire transactionnelle, en soulignant l'importance et les défis de sa mise en œuvre dans les systèmes informatiques modernes.
Explore la cohérence du cache dans les systèmes multiprocesseurs, en discutant des protocoles de base et des défis liés aux données partagées entre les processeurs.