Explore les solveurs OPF haute performance, répondant aux défis de l'optimisation du système d'alimentation et présentant des accélérations significatives et des approches efficaces en mémoire.
Explore la mémoire transactionnelle et la simplification matérielle pour le contrôle de la concurrence dans les logiciels, mettant l'accent sur les avantages de la spéculation matérielle et de la concurrence déclarative.
Discute des défis et de l'avenir de l'informatique neuromorphe, en comparant les ordinateurs numériques et le matériel spécialisé, comme SpiNNaker et NEST, tout en explorant la plate-forme informatique neuromorphe du projet Human Brain.
Explore le parallélisme dans la programmation, en mettant l'accent sur les compromis entre la programmabilité et la performance, et introduit la programmation parallèle en mémoire partagée à l'aide d'OpenMP.
Explore les inefficacités du processeur serveur, les tendances d'intégration matérielle et les critères d'optimisation de la conception pour des serveurs efficaces.
Explore les principes de cache mémoire, en mettant l'accent sur la localisation spatiale, l'impact de la latence et les stratégies d'efficacité du cache.
Explore les algorithmes distribués en temps réel, couvrant les applications industrielles, les modèles de système, les protocoles de communication et la détection des défaillances.
Explore la motivation et les avantages de l'utilisation des GPU pour le calcul, en se concentrant sur leurs performances et leur programmation via CUDA.