Renommage de registresEn architecture des ordinateurs, on appelle renommage de registres le fait qu'une microarchitecture alloue dynamiquement les registres architecturaux à un ensemble plus vaste de registres physiques au cours de l'exécution d'un programme. Une architecture externe de processeur définit un ensemble de registres, dits architecturaux, que peuvent manipuler les programmes en langage machine. Dans une microarchitecture superscalaire, le processeur essaie d'exécuter en parallèle plusieurs instructions.
Calcul intensifLe terme Calcul intensif (ou Calcul Haute Performance) - en anglais : High-performance computing (HPC) - désigne les activités de calculs réalisés sur un supercalculateur, en particulier à des fins de simulation numérique et de pré-apprentissage d'intelligences artificielles. Le calcul intensif rassemble l'administration système (réseau et sécurité) et la programmation parallèle en un champ multidisciplinaire qui combine l'électronique numérique, le développement d'architectures informatiques, la programmation système, les langages informatiques, l'algorithmique et les techniques de calcul.
Partitioned global address spaceIn computer science, partitioned global address space (PGAS) is a parallel programming model paradigm. PGAS is typified by communication operations involving a global memory address space abstraction that is logically partitioned, where a portion is local to each process, thread, or processing element. The novelty of PGAS is that the portions of the shared memory space may have an affinity for a particular process, thereby exploiting locality of reference in order to improve performance.
Task parallelismTask parallelism (also known as function parallelism and control parallelism) is a form of parallelization of computer code across multiple processors in parallel computing environments. Task parallelism focuses on distributing tasks—concurrently performed by processes or threads—across different processors. In contrast to data parallelism which involves running the same task on different components of data, task parallelism is distinguished by running many different tasks at the same time on the same data.
Reconfigurable computingReconfigurable computing is a computer architecture combining some of the flexibility of software with the high performance of hardware by processing with very flexible high speed computing fabrics like field-programmable gate arrays (FPGAs). The principal difference when compared to using ordinary microprocessors is the ability to make substantial changes to the datapath itself in addition to the control flow. On the other hand, the main difference from custom hardware, i.e.
Intel i860L'Intel i860 (i860 dit aussi 80860, nom de code N10) est un microprocesseur RISC d'Intel, lancé en 1989. L'i860 est le premier à proposer une architecture et un jeu d'instructions (ISA, Instruction Set Architecture) complètement nouveau, depuis l'échec de l'iAPX 432 au début des années 1980. Lancé en fanfare, il masque l'i960, pourtant techniquement meilleur. L'i860 n'arriva cependant pas à devenir populaire. La fabrication de ce processeur fut interrompue à la suite de résultats commerciaux décevants.
Athlon 64 X2L'Athlon 64 X2 correspond à la série de microprocesseur à double cœur proposée par AMD à la suite de l'évolution de la compétition à la performance qui se détourne de la course à la fréquence pour entamer celle du multi-threading. À partir de la seconde génération de la série Brisbane, les microprocesseurs dual-core portent désormais le nom de Athlon X2. Lancé en avril - mai 2005, AMD a choisi une politique radicalement différente de celle de son concurrent Intel, qui a choisi de réunir sur un même die deux cœurs Prescott pour concevoir ses Pentium D.
X10 (langage)X10 est un langage de programmation en cours de développement par IBM au centre de recherche Thomas J. Watson financé par le projet High Productivity Computing Systems de la DARPA. Les auteurs principaux sont Kemal Ebcioğlu, Vijay Saraswat, and Vivek Sarkar. X10 est conçu pour la programmation parallèle avec le modèle d' (PGAS). Un programme s'exécute sur un ensemble de places : chaque place possède des données et quelques activities qui font des calculs sur ces données.
Parallélisation automatiqueLa Parallélisation automatique est une étape de la compilation d'un programme qui consiste à transformer un code source écrit pour une machine séquentielle en un exécutable parallélisé pour ordinateur à Symmetric multiprocessing. L'objectif de la parallélisation automatique est de simplifier et de réduire la durée de développement des programmes parallèles, qui sont notablement plus compliqués à écrire que les programmes séquentiels mais permettent des gains de vitesse sur les machines parallèles.
Performance par wattEn informatique, la performance par watt est une mesure de l'efficacité énergétique d'un ordinateur. Celle-ci mesure la puissance de calcul délivrée par un ordinateur pour chaque watt consommé. Le terme de performance n'est pas objectif, puisqu'il dépend du type de charge de travail demandé. Cependant, la liste Green 500 classant les supercalculateurs les plus efficaces utilise un seul test de performance. Les architectes systèmes utilisant des systèmes parallèles utilisent des notions de performance par watt pour choisir leurs processeurs, le coût d'alimentation du CPU dépassant son prix d'achat.