Explore la motivation et les avantages de l'utilisation des GPU pour le calcul, en se concentrant sur leurs performances et leur programmation via CUDA.
Couvre les bases de la programmation parallèle, y compris la concurrence, les formes de parallélisme, la synchronisation et les modèles de programmation tels que PThreads et OpenMP.
Explore les perspectives historiques et les mécanismes de la mémoire transactionnelle, en soulignant l'importance et les défis de sa mise en œuvre dans les systèmes informatiques modernes.
Met l'accent sur la mise en œuvre d'un générateur de fonctions carrées utilisant la technologie Speedgoat FPGA et les techniques de traitement du signal en temps réel.