VHDLVHDL est un langage de description de matériel destiné à représenter le comportement ainsi que l'architecture d’un système électronique numérique. Son nom complet est VHSIC Hardware Description Language. L'intérêt d'une telle description réside dans son caractère exécutable : une spécification décrite en VHDL peut être vérifiée par simulation, avant que la conception détaillée ne soit terminée.
MulticsMultics (acronyme de MULTiplexed Information and Computing Service) est le nom d'un système d'exploitation en temps partagé. Ce projet a été lancé en 1964, par Fernando Corbató et Jerry Saltzer. Le projet Multics a marqué la conception des systèmes d'exploitation notamment après la réutilisation et la diffusion dans le système Unix de nombreux éléments qui en faisait un système novateur : système de fichier hiérarchique, temps partagé, multitâche préemptif, multiutilisateur, sécurité.
Bus InfiniBandthumb|Façade d'un switch InfiniBand thumb|Câble InfiniBand L'infiniBand est un bus d'ordinateur à haut-débit. Il est destiné aussi bien aux communications internes qu'externes. L'infiniBand est le fruit de la fusion de deux technologies concurrentes : Future I/O, développée par Compaq, IBM, et Hewlett-Packard, avec Next Generation I/O (ngio), développée par Intel, Microsoft, et Sun Microsystems. Pendant un bref temps avant l'adoption de son nom définitif, il fut aussi nommé System I/O.
VerilogLe Verilog, de son nom complet Verilog HDL est un langage de description matériel de circuits logiques en électronique, utilisé pour la conception d'ASICs (application-specific integrated circuits, circuits spécialisés) et de FPGAs (field-programmable gate array). Le sigle anglais HDL -Hardware Description Language- signifie Langage de Description du Matériel. « Verilog HDL » ne doit pas être abrégé en VHDL, ce sigle étant utilisé pour le langage concurrent VHSIC Hardware Description Language.
Pipeline (computing)In computing, a pipeline, also known as a data pipeline, is a set of data processing elements connected in series, where the output of one element is the input of the next one. The elements of a pipeline are often executed in parallel or in time-sliced fashion. Some amount of buffer storage is often inserted between elements. Computer-related pipelines include: Instruction pipelines, such as the classic RISC pipeline, which are used in central processing units (CPUs) and other microprocessors to allow overlapping execution of multiple instructions with the same circuitry.
Simultaneous multithreadingLe simultaneous multithreading (SMT) est une technique informatique datant des années 1960. Il s'agit d'une forme de multithreading, une technique qui consiste, comme le symmetric multiprocessing (SMP), à augmenter le TLP (thread level parallelism), c’est-à-dire le parallélisme des threads. Le SMT est le partage d'un cœur de processeur superscalaire (les pipelines, les unités de calcul et les caches) entre plusieurs threads.
Parallel programming modelIn computing, a parallel programming model is an abstraction of parallel computer architecture, with which it is convenient to express algorithms and their composition in programs. The value of a programming model can be judged on its generality: how well a range of different problems can be expressed for a variety of different architectures, and its performance: how efficiently the compiled programs can execute. The implementation of a parallel programming model can take the form of a library invoked from a sequential language, as an extension to an existing language, or as an entirely new language.
Traitement massivement parallèleEn informatique, le traitement massivement parallèle (en anglais, massively parallel processing ou massively parallel computing) est l'utilisation d'un grand nombre de processeurs (ou d'ordinateurs distincts) pour effectuer un ensemble de calculs coordonnés en parallèle (c'est-à-dire simultanément). Différentes approches ont été utilisées pour implanter le traitement massivement parallèle. Dans cette approche, la puissance de calcul d'un grand nombre d'ordinateurs distribués est utilisée de façon opportuniste chaque fois qu'un ordinateur est disponible.
Parallélisme de donnéeLe parallélisme par distribution de donnée ou parallélisme de donnée (data parallelism en anglais) est un paradigme de la programmation parallèle. Autrement dit, c'est une manière particulière d'écrire des programmes pour des machines parallèles. Les algorithmes des programmes qui entrent dans cette catégorie cherchent à distribuer les données au sein des processus et à y opérer les mêmes opérations à l'instar des SIMD. Le paradigme opposé est celui du parallélisme de tâche. Catégorie:Programmation concurr
Berkeley Open Infrastructure for Network ComputingBOINC, acronyme de Berkeley Open Infrastructure for Network Computing (« infrastructure ouverte de Berkeley dédiée au calcul en réseau ») est une plate-forme de calcul distribué qui permet de gérer des projets de calcul sur la base du volontariat. Développée à l'origine pour le projet de recherche d'intelligence extraterrestre SETI@home par l'université de Californie à Berkeley, elle a été généralisée pour de nombreuses autres applications scientifiques.