Explore la mémoire transactionnelle pour le contrôle de la concurrence matérielle, en discutant des mécanismes de verrouillage, des compromis de performance et des modifications matérielles.
Explore la motivation et les avantages de l'utilisation des GPU pour le calcul, en se concentrant sur leurs performances et leur programmation via CUDA.
Explore les fondements théoriques de RDMA et de NVRAM dans les technologies multiprocesseurs, couvrant la discorde, le contrôle de la convergence et la tolérance aux défauts.
Explore l'importance de la synchronisation sans verrouillage pour obtenir une faible latence dans les systèmes distribués et discute des solutions pratiques pour la génération d'identificateurs uniques et les files d'attente de messagerie.
Couvre les bases de la programmation parallèle, y compris l'exploitation du parallélisme dans les algorithmes et l'importance d'éviter les conditions de race.
Couvre l'analyse opérationnelle, en se concentrant sur le système adaptatif STEP pour un accès efficace aux nouvelles données dans le traitement analytique.
Couvre les bases de la programmation parallèle, y compris la concurrence, les formes de parallélisme, la synchronisation et les modèles de programmation tels que PThreads et OpenMP.
Couvre le passage aux processeurs multicœurs, à l'architecture de mémoire de processeur, aux défis de concurrence et aux problèmes de synchronisation dans l'informatique moderne.