FLOPSLe nombre d'opérations en virgule flottante par seconde ( ou FLOPS) est une unité de mesure de la rapidité de calcul d'un système informatique et donc d'une partie de sa performance. Les opérations en virgule flottante (additions ou multiplications) sont des opérations qui permettent des calculs représentant de très grands et de très petits nombres représentés par une mantisse et un exposant. De telles opérations prennent plus de temps de calcul que des opérations sur les nombres entiers et sont utilisées dans certains types d'applications.
CoprocesseurUn coprocesseur est un circuit électronique destiné à ajouter une fonction à un processeur classique. On compte des coprocesseurs arithmétiques (pour le calcul en virgule flottante), graphiques (pour accélérer du rendu 2D ou 3D) et des coprocesseurs spécialisés dans le chiffrement. Alors que le processeur principal est conçu pour exécuter tout type de programme, un coprocesseur est spécialisé dans l’exécution rapide d'un type de calcul particulier (Fonction trigonométrique, processeur graphique, par exempl
Attente activeL’attente active, en génie logiciel, ou polling (parfois appelée aussi « scrutation ») est une technique de programmation que les processus utilisent lorsqu'ils vérifient de façon répétée si une condition est vraie, comme l'attente d'une entrée (clavier ou autre) ou encore la libération d'un verrou. Cette technique peut également être utilisée pour mettre en attente un programme pour une durée déterminée. Cela était nécessaire sur d'anciens systèmes d'exploitation dont le matériel sous-jacent ne proposait pas de méthode spécifique pour suspendre l'exécution du flot d'instruction pendant une période déterminée.
Calcul hétérogèneHeterogeneous computing refers to systems that use more than one kind of processor or core. These systems gain performance or energy efficiency not just by adding the same type of processors, but by adding dissimilar coprocessors, usually incorporating specialized processing capabilities to handle particular tasks. Usually heterogeneity in the context of computing referred to different instruction-set architectures (ISA), where the main processor has one and other processors have another - usually a very different - architecture (maybe more than one), not just a different microarchitecture (floating point number processing is a special case of this - not usually referred to as heterogeneous).
Message Passing InterfaceMessage Passing Interface (MPI) est un outil pour le calcul scientifique à haute performance qui permet d'utiliser plusieurs ordinateurs. C'est une norme conçue en 1993-94 pour le passage de messages entre ordinateurs distants ou dans un ordinateur multiprocesseur. Elle est devenue de facto un standard de communication pour des nœuds exécutant des programmes parallèles sur des systèmes à mémoire distribuée. Elle définit une bibliothèque de fonctions, utilisable avec les langages C, C++ et Fortran.
Processeur physiqueUn processeur physique (en anglais PPU de Physics Processing Unit), est un microprocesseur qui est destiné aux calculs de modélisation physique, plus particulièrement dans les jeux vidéo. Un PPU peut matériellement prendre en charge les calculs suivants : dynamique des corps rigides ; dynamique des corps mous ; détection de collision ; dynamique des fluides ; système de particules ; calculs de structures complexes (cheveux, vêtements) ; méthode des éléments finis ; tribologie.
InfographieL'infographie est le domaine de la création d' assistée par ordinateur. Cette activité est liée aux arts graphiques. Les études les plus courantes passent par les écoles publiques ou privées se situant majoritairement en Angleterre, en Belgique, au Canada, en France, et aux États-Unis. Lors de l'introduction du concept dans la langue française vers les années 1970, le terme « infographie » désigne les graphismes produits par ordinateur.
Folding@homeFolding@home, parfois désigné par l'abréviation FAH, est un projet de recherche médicale dont le but est de simuler le repliement des protéines dans diverses configurations de température et de pression afin de mieux comprendre ce processus, et d'en tirer des connaissances utiles qui pourraient, entre autres, permettre de développer de nouveaux médicaments, notamment contre la maladie d'Alzheimer, la drépanocytose, certains types de cancers et la maladie à coronavirus 2019.
Embarrassingly parallelIn parallel computing, an embarrassingly parallel workload or problem (also called embarrassingly parallelizable, perfectly parallel, delightfully parallel or pleasingly parallel) is one where little or no effort is needed to separate the problem into a number of parallel tasks. This is often the case where there is little or no dependency or need for communication between those parallel tasks, or for results between them. Thus, these are different from distributed computing problems that need communication between tasks, especially communication of intermediate results.
Parallélisme de donnéeLe parallélisme par distribution de donnée ou parallélisme de donnée (data parallelism en anglais) est un paradigme de la programmation parallèle. Autrement dit, c'est une manière particulière d'écrire des programmes pour des machines parallèles. Les algorithmes des programmes qui entrent dans cette catégorie cherchent à distribuer les données au sein des processus et à y opérer les mêmes opérations à l'instar des SIMD. Le paradigme opposé est celui du parallélisme de tâche. Catégorie:Programmation concurr