Message Passing InterfaceMessage Passing Interface (MPI) est un outil pour le calcul scientifique à haute performance qui permet d'utiliser plusieurs ordinateurs. C'est une norme conçue en 1993-94 pour le passage de messages entre ordinateurs distants ou dans un ordinateur multiprocesseur. Elle est devenue de facto un standard de communication pour des nœuds exécutant des programmes parallèles sur des systèmes à mémoire distribuée. Elle définit une bibliothèque de fonctions, utilisable avec les langages C, C++ et Fortran.
Fast EthernetFast Ethernet est une dénomination pour décrire une variété de technologies utilisées pour implémenter le standard Ethernet (Implémentation au niveau de la couche PHY et de la sous-couche MAC) à des débits jusqu'à 100 Mbit/s. Fast Ethernet améliore le standard précédent qui n'autorise un transfert de données qu'à des débits ne dépassant pas 10 Mbit/s. Ces variantes du standard Ethernet sont définies par les normes IEEE 802.3u et IEEE 802.3y.
Ethernetthumb|200px|Connecteur RJ45 pour Ethernet. Ethernet est un protocole de communication utilisé pour les réseaux informatiques, exploitant la commutation de paquets. Il réalise les fonctions de la couche physique et de la couche liaison de données (couches 1 et 2) du modèle OSI. C'est une norme internationale ISO/IEC/IEEE 8802-3. Il a été conçu au début des années 1970 pour faire communiquer des ordinateurs rattachés à un même « éther », c'est-à-dire, un milieu passif capable de transférer des données, comme un câble coaxial.
Parallélisme (informatique)vignette|upright=1|Un des éléments de Blue Gene L cabinet, un des supercalculateurs massivement parallèles les plus rapides des années 2000. En informatique, le parallélisme consiste à mettre en œuvre des architectures d'électronique numérique permettant de traiter des informations de manière simultanée, ainsi que les algorithmes spécialisés pour celles-ci. Ces techniques ont pour but de réaliser le plus grand nombre d'opérations en un temps le plus petit possible.
Bibliothèquevignette|redresse=1.2|Bibliothèque de l'abbaye de Saint-Gall (, patrimoine mondial, Suisse). vignette|redresse=1.2|Bibliothèque publique à Almere (Pays-Bas). Une bibliothèque (du grec ancien , de , « livre », et , « boîte, coffre, caisse ») est un lieu où l'on conserve une collection organisée de livres et matériels de référence. Il existe des bibliothèques privées des bibliothèques publiques, et des bibliothèques spécialisées entre autres.
Disk storageDisk storage (also sometimes called drive storage) is a general category of storage mechanisms where data is recorded by various electronic, magnetic, optical, or mechanical changes to a surface layer of one or more rotating disks. A disk drive is a device implementing such a storage mechanism. Notable types are the hard disk drive (HDD) containing a non-removable disk, the floppy disk drive (FDD) and its removable floppy disk, and various optical disc drives (ODD) and associated optical disc media.
Hub EthernetUn hub Ethernet ou concentrateur Ethernet est un appareil informatique permettant de concentrer les transmissions Ethernet de plusieurs équipements sur un même support dans un réseau informatique local. En utilisant un hub, chaque équipement attaché à celui-ci partage le même domaine de diffusion ainsi que le même domaine de collision. Comme dans tout segment de réseau Ethernet, une seule des machines connectées peut y transmettre à la fois.
Embarrassingly parallelIn parallel computing, an embarrassingly parallel workload or problem (also called embarrassingly parallelizable, perfectly parallel, delightfully parallel or pleasingly parallel) is one where little or no effort is needed to separate the problem into a number of parallel tasks. This is often the case where there is little or no dependency or need for communication between those parallel tasks, or for results between them. Thus, these are different from distributed computing problems that need communication between tasks, especially communication of intermediate results.
Traitement massivement parallèleEn informatique, le traitement massivement parallèle (en anglais, massively parallel processing ou massively parallel computing) est l'utilisation d'un grand nombre de processeurs (ou d'ordinateurs distincts) pour effectuer un ensemble de calculs coordonnés en parallèle (c'est-à-dire simultanément). Différentes approches ont été utilisées pour implanter le traitement massivement parallèle. Dans cette approche, la puissance de calcul d'un grand nombre d'ordinateurs distribués est utilisée de façon opportuniste chaque fois qu'un ordinateur est disponible.
DEC Alphathumbnail|200px|right|Un DEC Alpha . Le DEC Alpha, aussi appelé Alpha AXP, est un microprocesseur superscalaire RISC initialement développé et fabriqué par Digital Equipment Corp. (DEC), qui le commercialisa dans ses stations de travail et ses serveurs. La conception de ce processeur s’est très largement inspirée du processeur , ce dernier ayant connu de nombreux retards et ne sera finalement jamais commercialisé. Selon son fabricant Il sera notamment utilisé dans plusieurs superordinateurs Cray entre .