Accélération (informatique)En architecture informatique, l'accélération (speedup en anglais) est une mesure du gain de performance entre deux systèmes traitant le même problème. Plus techniquement, c'est le gain de vitesse d'exécution d'une tâche exécutée par deux architectures similaires disposant de ressources différentes. La notion d'accélération a été établie par la loi d'Amdahl, qui se penchait principalement sur le calcul parallèle. Cependant, l'accélération peut être utilisée plus généralement pour montrer l'effet sur les performances lors de n'importe quelle amélioration des ressources.
Codes de parité à faible densitéDans la théorie de l'information, un contrôle de parité de faible densité LDPC est un code linéaire correcteur d'erreur, permettant la transmission d'information sur un canal de transmission bruité. LDPC est construit en utilisant un graphe biparti clairsemé. Les codes LDPC ont une capacité approchant la limite théorique. À l'aide de techniques itératives de propagation d'information sur la donnée transmise et à décoder, les codes LDPC peuvent être décodés en un temps proportionnel à leur longueur de bloc.
Task parallelismTask parallelism (also known as function parallelism and control parallelism) is a form of parallelization of computer code across multiple processors in parallel computing environments. Task parallelism focuses on distributing tasks—concurrently performed by processes or threads—across different processors. In contrast to data parallelism which involves running the same task on different components of data, task parallelism is distinguished by running many different tasks at the same time on the same data.
Numerical methods for partial differential equationsNumerical methods for partial differential equations is the branch of numerical analysis that studies the numerical solution of partial differential equations (PDEs). In principle, specialized methods for hyperbolic, parabolic or elliptic partial differential equations exist. Finite difference method In this method, functions are represented by their values at certain grid points and derivatives are approximated through differences in these values.
Roadrunner (supercalculateur)Roadrunner est le premier supercalculateur américain à avoir officiellement dépassé la puissance de 1 pétaFLOPS (soit 1015 opérations flottantes par seconde). Il appartient au département de l'Énergie des États-Unis (DOE) et est construit au Laboratoire national de Los Alamos, au Nouveau-Mexique. IBM a été chargé de sa construction et Roadrunner est devenu l'ordinateur le plus puissant du monde en mais a été détrôné en par Jaguar - Cray XT5-HE. Ce projet, annoncé en septembre 2006, lançait le premier supercalculateur utilisant le processeur Cell de ce constructeur.
Centre de donnéesvignette|Centre de traitement de données. Un centre de données (en anglais data center ou data centre), ou centre informatique est un lieu (et un service) où sont regroupés les équipements constituants d'un système d'information (ordinateurs centraux, serveurs, baies de stockage, équipements réseaux et de télécommunications). Ce regroupement permet de faciliter la sécurisation, la gestion (notamment l'exécution de calculs et le refroidissement) et la maintenance des équipements et des données stockées.
Jaguar (supercalculateur)Jaguar est un supercalculateur construit par Cray Inc. au Laboratoire national d'Oak Ridge à Oak Ridge (Tennessee). En , il est devenu l'ordinateur le plus rapide du monde, atteignant les 1,75 pétaFLOPS, jusqu'à ce qu'il soit dépassé par le Tianhe-IA en (2,5 PFLOPS). Il est ainsi le deuxième à dépasser la barre de 1 PFLOPS, après le Roadrunner d'IBM. Son amélioration a conduit à Titan, supercalculateur opérationnel début 2013. Jaguar possède x86 AMD Opteron, et fonctionne avec une version de Linux appelée Cray Linux Environment.
Explicit parallelismIn computer programming, explicit parallelism is the representation of concurrent computations by means of primitives in the form of special-purpose directives or function calls. Most parallel primitives are related to process synchronization, communication or task partitioning. As they seldom contribute to actually carry out the intended computation of the program, their computational cost is often considered as parallelization overhead. The advantage of explicit parallel programming is the absolute programmer control over the parallel execution.
ARM (entreprise)300px|vignette|Bâtiment de l'entreprise ARM est une société britannique spécialisée dans le développement de processeurs d'architecture 32 bits et d'architecture de type RISC. Filiale de SoftBank depuis 2016. ARM développe également un grand nombre de blocs de propriété intellectuelle (IP). ARM est désormais présent dans le monde entier et son siège historique se situe à Cambridge. ARM est fondée sous la forme d'une coentreprise par Acorn Computers, Apple Computer (aujourd’hui Apple Inc.) et VLSI Technology.
Blue Gene (superordinateur)vignette|IBM Blue Gene P. vignette|Une des armoires de Blue Gene/L. Blue Gene est une architecture de superordinateurs. Le projet est cofinancé par le Département de l'Énergie des États-Unis et développé par IBM. Il a pris la tête du classement TOP500 du au (dans une version non finalisée), avec 36,01 téraflops au test LINPACK. Le record était précédemment détenu par le NEC Earth Simulator de 35,86 téraflops. L'architecture évolua jusqu'à téraflops (record réalisé avec processeurs), puis 478 téraflops en .