thumb|Schéma de l'architecture GPU Larrabee.
Le projet Larrabee d'Intel Corporation fut la réaction à l'importance croissante des processeurs graphiques (GPU) dans le domaine du calcul générique. Cette carte fille a été annoncée en 2008, et fut quasiment abandonnée en et définitivement pour le grand public en . Auparavant, les GPU étaient principalement ou uniquement dédiés au calcul graphique, c'est-à-dire à l'affichage d'objets 3D à l'écran sous forme de triangles. Depuis l'arrivée de Cg puis Cuda de NVIDIA, Close to Metal, et enfin OpenCL auquel tous les fabricants de processeurs participent, les processeurs dédiés, qui se destinaient principalement au jeu vidéo et à la conception assistée par ordinateur, ont commencé à mordre sur le marché des calculateurs haut de gamme, voire très haut de gamme, pour toutes sortes d'applications.
Ce projet se concrétisera par une carte de calcul avec sortie vers écran. Cette carte fait l'affichage et d'autres calculs. C'est donc une carte vidéo et coprocesseur.
Jusqu'à récemment, le processeur (CPU) central, chef d'orchestre de l'ordinateur personnel, traitait la plupart des opérations lourdes en calcul comme les simulations physiques, le rendu hors-ligne pour les films, les calculs de risques pour les institutions financières, la prévision météorologique, l'encodage de fichier vidéo et son, etc. Intel, avec ses 80 % de parts de marché sur les CPU, dominait donc très largement tous les besoins en calcul et pouvait en extraire de substantielles marges. Certains de ces calculs lourds sont cependant facilement parallélisables et peuvent donc bénéficier d'une architecture pensée pour le calcul parallèle. La plupart des architectures parallèles étaient lourdes, chères et s'adressaient à un marché de niche. Ceci jusqu'à ce que le GPU s'impose comme un acteur important du calcul parallèle. Le GPU est un produit grand public avec une large diffusion grâce aux débouchés des jeux vidéo, ce qui permet d'en réduire les coûts par rapport à une architecture trop spécialisée.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Multiprocessors are a core component in all types of computing infrastructure, from phones to datacenters. This course will build on the prerequisites of processor design and concurrency to introduce
Biochemistry is a key discipline for the Life Sciences. Biological Chemistry I and II are two tightly interconnected courses that aim to describe and understand in molecular terms the processes that m
Multiprocessors are now the defacto building blocks for all computer systems. This course will build upon the basic concepts offered in Computer Architecture I to cover the architecture and organizati
Xeon Phi was a series of x86 manycore processors designed and made by Intel. It was intended for use in supercomputers, servers, and high-end workstations. Its architecture allowed use of standard programming languages and application programming interfaces (APIs) such as OpenMP. Xeon Phi launched in 2010. Since it was originally based on an earlier GPU design (codenamed "Larrabee") by Intel that was cancelled in 2009, it shared application areas with GPUs.
Bonnell is a CPU microarchitecture used by Intel Atom processors which can execute up to two instructions per cycle. Like many other x86 microprocessors, it translates x86 instructions (CISC instructions) into simpler internal operations (sometimes referred to as micro-ops, effectively RISC style instructions) prior to execution. The majority of instructions produce one micro-op when translated, with around 4% of instructions used in typical programs producing multiple micro-ops.
Tesla est une gamme de cartes accélératrices utilisant des processeurs graphiques faisant office de GPGPU produits par NVIDIA et dont le but est d'assister le processeur central pour les calculs grâce à la bibliothèque logicielle Compute Unified Device Architecture (CUDA). Son nom lui vient de Nikola Tesla, inventeur et ingénieur. Se basant sur les premiers travaux accomplis avec le GeForce 8800 autour de CUDA, l'API logicielle permet d'exploiter via le langage C la puce graphique C870 comme un coprocesseur arithmétique.
Couvre l'analyse des structures protéiques à l'aide du logiciel PyMOL et la visualisation des séquences d'acides aminés et des résidus.
Couvre l'analyse de données intrajournalières, les études systématiques, le débogage, le calcul multicœur, la programmation GPU et le calcul de corrélation avec les GPU.
Explore la hiérarchie de la mémoire GPU, le flux de traitement CUDA, les optimisations et l'efficacité du parallélisme sur les GPU.
Today's continued increase in demand for processing power, despite the slowdown of Moore's law, has led to an increase in processor count, which has resulted in energy consumption and distribution problems. To address this, there is a growing trend toward ...
Virtual Memory (VM) is a critical programming abstraction that is widely used in various modern computing platforms. With the rise of datacenter computing and birth of planet-scale online services, the semantic and capacity requirements from memory have ev ...
We present a massively parallel and scalable nodal discontinuous Galerkin finite element method (DGFEM) solver for the time-domain linearized acoustic wave equations. The solver is implemented using the libParanumal finite element framework with extensions ...