Couvre les bases de la programmation parallèle, y compris l'exploitation du parallélisme dans les algorithmes et l'importance d'éviter les conditions de race.
Explore les opérations de pliage (réduction) dans la programmation parallèle à l'aide de Scala, couvrant les opérations associatives, les arbres d'expression, la réduction parallèle et la réduction du réseau.
Couvre l'architecture multiprocesseurs, l'informatique durable, l'impact de la formation sur les modèles d'IA et les principes fondamentaux de la programmation parallèle.
Explore les opérations parallèles de données dans Scala, la conversion des collections, la mise en œuvre de la somme et l'examen des opérations de plis.
Explore le parallélisme dans la programmation, en mettant l'accent sur les compromis entre la programmabilité et la performance, et introduit la programmation parallèle en mémoire partagée à l'aide d'OpenMP.
Couvre l'évolution et les défis des multiprocesseurs, en mettant l'accent sur l'efficacité énergétique, la programmation parallèle, la cohérence du cache et le rôle des GPU.