Couvre les bases de la programmation parallèle, y compris la concurrence, les formes de parallélisme, la synchronisation et les modèles de programmation tels que PThreads et OpenMP.
Explore les mécanismes de synchronisation évolutive pour de nombreux systèmes d'exploitation de base, en mettant l'accent sur les défis de la gestion de la croissance des données et des régressions dans le système d'exploitation.
Explore le parallélisme dans la programmation, en mettant l'accent sur les compromis entre la programmabilité et la performance, et introduit la programmation parallèle en mémoire partagée à l'aide d'OpenMP.
Discute de la gestion des périphériques dans les systèmes d'exploitation, en se concentrant sur les pilotes de périphériques, la persistance et les techniques d'optimisation des performances.
Couvre la virtualisation de la mémoire, en se concentrant sur l'abstraction de l'espace d'adressage et la gestion des ressources mémoire par le système d'exploitation.
Explore le concept de verrouillage pour l'exclusion mutuelle dans le système d'exploitation, couvrant les conditions de race, le parallélisme, les instructions atomiques, la prévention de l'impasse et les meilleures pratiques.
Explore l'importance de la concurrence dans l'amélioration des performances et de la réactivité du système, en mettant l'accent sur la nécessité de la synchronisation et de l'atomicité pour prévenir les conditions de course et le non-déterminisme.
Couvre le rôle du système d'exploitation en tant qu'arbitre dans la gestion des ressources et la sécurité grâce à l'isolement des pannes, au partage des ressources et à la communication.