Parallélisme (informatique)vignette|upright=1|Un des éléments de Blue Gene L cabinet, un des supercalculateurs massivement parallèles les plus rapides des années 2000. En informatique, le parallélisme consiste à mettre en œuvre des architectures d'électronique numérique permettant de traiter des informations de manière simultanée, ainsi que les algorithmes spécialisés pour celles-ci. Ces techniques ont pour but de réaliser le plus grand nombre d'opérations en un temps le plus petit possible.
Traitement massivement parallèleEn informatique, le traitement massivement parallèle (en anglais, massively parallel processing ou massively parallel computing) est l'utilisation d'un grand nombre de processeurs (ou d'ordinateurs distincts) pour effectuer un ensemble de calculs coordonnés en parallèle (c'est-à-dire simultanément). Différentes approches ont été utilisées pour implanter le traitement massivement parallèle. Dans cette approche, la puissance de calcul d'un grand nombre d'ordinateurs distribués est utilisée de façon opportuniste chaque fois qu'un ordinateur est disponible.
Embarrassingly parallelIn parallel computing, an embarrassingly parallel workload or problem (also called embarrassingly parallelizable, perfectly parallel, delightfully parallel or pleasingly parallel) is one where little or no effort is needed to separate the problem into a number of parallel tasks. This is often the case where there is little or no dependency or need for communication between those parallel tasks, or for results between them. Thus, these are different from distributed computing problems that need communication between tasks, especially communication of intermediate results.
Port parallèleLe port parallèle est un connecteur situé à l'arrière des ordinateurs compatibles PC reposant sur la communication parallèle. Il est associé à l'interface parallèle Centronics. La communication parallèle a été conçue pour une imprimante imprimant du texte, caractère par caractère. Les imprimantes graphiques (pouvant imprimer des images) ont ensuite continué à utiliser ce système pour profiter de l'interface parallèle normalisée. Le port parallèle est à l'origine unidirectionnel.
Transmission parallèleLa transmission parallèle consiste à transmettre des éléments d'information sur plusieurs voies simultanément. Elle s'oppose à la transmission série où les informations doivent être découpées avant d'être envoyées (car il y a moins de lignes de communication disponibles que de bits nécessaires pour transmettre l'information). À grande distance, la multiplicité des conducteurs nécessaires pour la transmission parallèle lui a fait préférer dès l'origine la transmission série dans des télécommunications.
Sun Microsystemsétait un constructeur d’ordinateurs et un éditeur de logiciels américain. Le , Sun est racheté par Oracle Corporation pour 7,4 milliards de dollars. Avant son rachat, le chiffre d’affaires de l’entreprise était de de dollars pour l'année fiscale 2007-2008 et l’effectif d’environ (2006). Sun était présent dans plus de (2005). Le nom Sun vient de Stanford University Network (réseau de l’université Stanford). Sun a produit des serveurs et stations de travail fondés sur les processeurs m68k, SPARC et x86, et le système d’exploitation Solaris, anciennement SunOS.
UltraSPARCL’UltraSPARC est un micro-processeur développé par Sun Microsystems et fabriqué par Texas Instruments. Il implémente le jeu d'instructions SPARC V9. Il a été mis sur le marché en 1995. Il fut le premier micro-processeur de Sun Microsystems qui implémenta ce jeu d'instructions. Marc Tremblay participa à sa création. L'UltraSPARC est un micro-processeur superscalaire capable de gérer ses instructions dans le désordre (Exécution out-of-order). Il est en mesure de traiter quatre instructions en parallèle.
MultiprocessingMultiprocessing is the use of two or more central processing units (CPUs) within a single computer system. The term also refers to the ability of a system to support more than one processor or the ability to allocate tasks between them. There are many variations on this basic theme, and the definition of multiprocessing can vary with context, mostly as a function of how CPUs are defined (multiple cores on one die, multiple dies in one package, multiple packages in one system unit, etc.).
Parallel algorithmIn computer science, a parallel algorithm, as opposed to a traditional serial algorithm, is an algorithm which can do multiple operations in a given time. It has been a tradition of computer science to describe serial algorithms in abstract machine models, often the one known as random-access machine. Similarly, many computer science researchers have used a so-called parallel random-access machine (PRAM) as a parallel abstract machine (shared-memory).
Map (parallel pattern)Map is an idiom in parallel computing where a simple operation is applied to all elements of a sequence, potentially in parallel. It is used to solve embarrassingly parallel problems: those problems that can be decomposed into independent subtasks, requiring no communication/synchronization between the subtasks except a join or barrier at the end. When applying the map pattern, one formulates an elemental function that captures the operation to be performed on a data item that represents a part of the problem, then applies this elemental function in one or more threads of execution, hyperthreads, SIMD lanes or on multiple computers.