Séance de cours

GPU Advanced : Gestion et optimisation de la mémoire

Description

Cette séance de cours couvre les concepts avancés de l'informatique GPU, en se concentrant sur la hiérarchie de la mémoire, le modèle de programmation CUDA et l'informatique parallèle aux données. Il explique le modèle de mémoire GPU, la coopération des threads et les subtilités du modèle de programmation CUDA. La séance de cours explore la mémoire partagée, la mémoire globale, la mémoire constante et la mémoire de texture, mettant en évidence leurs rôles dans l'optimisation des performances du GPU. Il traite également des problèmes de mémoire, de la coalescence et des conflits bancaires, fournissant un aperçu des stratégies d'accès à la mémoire efficaces. Des exemples pratiques, tels que l'optimisation de transposition matricielle à l'aide de la mémoire partagée, démontrent l'importance de la gestion de la mémoire pour atteindre des performances élevées dans le calcul GPU.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.