Couvre les principes de l'informatique parallèle et introduit OpenMP pour créer du code concurrent à partir du code série.
Explore le parallélisme dans la programmation, en mettant l'accent sur les compromis entre la programmabilité et la performance, et introduit la programmation parallèle en mémoire partagée à l'aide d'OpenMP.
Couvre les bases de la programmation parallèle, y compris la concurrence, les formes de parallélisme, la synchronisation et les modèles de programmation tels que PThreads et OpenMP.
Couvre les principes de la synchronisation dans le calcul parallèle, en mettant l'accent sur la synchronisation de la mémoire partagée et différentes méthodes comme les verrous et les barrières.
Couvre l'évolution et les défis des multiprocesseurs, en mettant l'accent sur l'efficacité énergétique, la programmation parallèle, la cohérence du cache et le rôle des GPU.
Explore les principes de l'informatique parallèle, en se concentrant sur OpenMP en tant qu'outil pour créer du code concurrent à partir du code série.
Explore les principes de synchronisation à l'aide de verrous et de barrières, en mettant l'accent sur des implémentations matérielles efficaces et des mécanismes de coordination tels qu'OpenMP.
Explore les méthodes de synchronisation matérielle, y compris les verrous, les barrières et les sections critiques en calcul parallèle.
Explore la programmation parallèle aux données avec les processeurs vectoriels et SIMD, et présente MapReduce, Pregel et TensorFlow.
Explore l'architecture GPU, le multithreading, les processeurs SIMD et la programmation CUDA pour l'informatique parallèle.