En informatique, le traitement massivement parallèle (en anglais, massively parallel processing ou massively parallel computing) est l'utilisation d'un grand nombre de processeurs (ou d'ordinateurs distincts) pour effectuer un ensemble de calculs coordonnés en parallèle (c'est-à-dire simultanément). Différentes approches ont été utilisées pour implanter le traitement massivement parallèle. Dans cette approche, la puissance de calcul d'un grand nombre d'ordinateurs distribués est utilisée de façon opportuniste chaque fois qu'un ordinateur est disponible. La plateforme Berkeley Open Infrastructure for Network Computing (BOINC) est un exemple de cette implantation. Il s'agit d'une grille informatique basée sur le volontariat où chaque ordinateur fournit de la puissance de calcul selon ses disponibilités. Cette approche utilise un grand nombre de processeurs situés à proximité l'un de l'autre. Dans un tel système centralisé, la vitesse et la flexibilité de l'interconnexion des processeurs sont très importantes. Les superordinateurs modernes utilisent différents types d'interconnexion allant de systèmes InfiniBand améliorés à des topologies de réseau de type à plusieurs dimensions. Cette approche utilise un type de circuit intégré contenant des centaines ou de milliers processeurs et de mémoires vives. Les processeurs s'échangent des données à travers des interconnexions reconfigurables. En tirant parti du parallélisme, un circuit de ce type peut accomplir plus de travail qu'un circuit conventionnel.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Cours associés (29)
CS-453: Concurrent computing
With the advent of modern architectures, it becomes crucial to master the underlying algorithmics of concurrency. The objective of this course is to study the foundations of concurrent algorithms and
PHYS-743: Parallel programming
Learn the concepts, tools and API's that are needed to debug, test, optimize and parallelize a scientific application on a cluster from an existing code or from scratch. Both OpenMP (shared memory) an
MATH-454: Parallel and high-performance computing
This course provides insight into a broad variety of High Performance Computing (HPC) concepts and the majority of modern HPC architectures. Moreover, the student will learn to have a feeling about wh
Afficher plus