Explore la programmation dynamique dans la conception de processeurs pour augmenter le parallélisme en exécutant des instructions hors de l'ordre, en améliorant les performances et l'efficacité.
Explore la programmation parallèle dans Scala, les opérations fonctionnelles sur les collections, et les fonctions de carte parallèle sur les tableaux et les arbres.
Explore le parallélisme dans la programmation, en mettant l'accent sur les compromis entre la programmabilité et la performance, et introduit la programmation parallèle en mémoire partagée à l'aide d'OpenMP.
S'inscrit dans l'analyse de performance des programmes parallèles de Scala, couvrant l'analyse asymptotique, les fonctions récursives et la loi d'Amdahl.
Couvre la planification dynamique dans les processeurs, en se concentrant sur l'exécution dans le désordre et la gestion efficace des dépendances d'instructions.