Couvre les principes de la synchronisation dans le calcul parallèle, en mettant l'accent sur la synchronisation de la mémoire partagée et différentes méthodes comme les verrous et les barrières.
Fournit une vue d'ensemble de l'architecture informatique, en se concentrant sur l'architecture de von Neumann et ses composants, y compris les unités de gestion du processeur et de la mémoire.
Explore la structure hiérarchique de la mémoire virtuelle, la traduction d'adresses, les tailles de champs offset, le calcul de la taille de la table de page et la génération d'adresses Alpha Processor.
Couvre l'optimisation logicielle, l'efficacité du cache, la planification parallèle et les stratégies de distribution de travail pour les programmes parallèles rapides.
Couvre les bases de la programmation parallèle, y compris la concurrence, les formes de parallélisme, la synchronisation et les modèles de programmation tels que PThreads et OpenMP.
Explore l'organisation de la mémoire, la virtualisation, l'attribution dynamique de la mémoire, la pile, le tas et les techniques de virtualisation de la mémoire comme le registre de base et la segmentation.
Couvre l'abstraction des threads dans les systèmes informatiques, en se concentrant sur la concurrence, le parallélisme et la gestion des threads à l'aide de l'API POSIX.