Un cache de processeur est une antémémoire matérielle utilisée par l'unité centrale de traitement (CPU) d'un ordinateur pour réduire le coût moyen (temps ou énergie) de l’accès aux données de la mémoire principale. Un cache de processeur est une mémoire plus petite et plus rapide, située au plus près d'une unité centrale de traitement (ou d'un cœur de microprocesseur), qui stocke des copies des données à partir d'emplacements de la mémoire principale qui sont fréquemment utilisés avant leurs transmissions aux registres du processeur. La plupart des CPU ont différents caches indépendants, y compris des caches d'instructions et de données, où le cache de données est généralement organisé comme une hiérarchie de plusieurs niveaux d'antémémoire (L1, L2, L3, L4, etc.). Les caches de processeur font partie de la mémoire centrale tout comme les registres de processeur et la mémoire principale, ils sont essentiels au fonctionnement de l'ordinateur. Tous les processeurs (rapides) modernes, à quelques exceptions près, ont plusieurs niveaux de caches de processeur. Les premiers processeurs qui utilisaient un cache n'avaient qu'un seul niveau de cache ; contrairement aux caches de premier niveau ultérieurs, il n'était pas divisé en L1d (pour les données) et L1i (pour les instructions). Presque tous les CPU actuels avec des caches ont un cache L1 divisé. Ils ont également des caches L2 et pour les plus gros processeurs, des caches L3 également. Le cache L2 n'est généralement pas divisé et agit comme un référentiel commun pour le cache L1 déjà divisé. Chaque cœur d'un microprocesseur multi-cœur possède un cache L1 dédié et n'est généralement pas partagé entre les cœurs. Le cache L2 et les caches de niveau supérieur peuvent être partagés entre les cœurs. Le cache L4 est actuellement rare et se trouve généralement sur une sorte de mémoire vive dynamique (DRAM), plutôt que sur une mémoire vive statique à accès aléatoire (SRAM), sur un dé de circuit intégré ou une puce électronique séparée (exceptionnellement, un cache de type eDRAM peut être utilisé pour tous les niveaux de cache, jusqu'à L1).

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Cours associés (32)
CS-307: Introduction to multiprocessor architecture
Multiprocessors are a core component in all types of computing infrastructure, from phones to datacenters. This course will build on the prerequisites of processor design and concurrency to introduce
CIVIL-510: Quantitative imaging for engineers
First 2 courses are Tuesday 16-19h!This course will arm students with knowledge of different imaging techniques for practical measurements in many different fields of civil engineering. Modalities wil
CS-471: Advanced multiprocessor architecture
Multiprocessors are basic building blocks for all computer systems. This course covers the architecture and organization of modern multiprocessors, prevalent accelerators (e.g., GPU, TPU), and datacen
Afficher plus
Séances de cours associées (155)
Systèmes linéaires: convergence et méthodes
Explore les systèmes linéaires, la convergence et les méthodes de résolution en mettant l'accent sur les besoins en temps et en mémoire du processeur.
Processeurs multifilés
Couvre les bases des processeurs multifiltres, y compris la conception, l'impact sur la performance et l'utilisation des pipelines.
Analyse de la structure des protéines
Couvre l'analyse des structures protéiques à l'aide du logiciel PyMOL et la visualisation des séquences d'acides aminés et des résidus.
Afficher plus
Publications associées (375)

Intermediate Address Space: virtual memory optimization of heterogeneous architectures for cache-resident workloads

David Atienza Alonso, Marina Zapater Sancho, Luis Maria Costero Valero, Darong Huang, Qunyou Liu

The increasing demand for computing power and the emergence of heterogeneous computing architectures have driven the exploration of innovative techniques to address current limitations in both the compute and memory subsystems. One such solution is the use ...
2024

EdgeAI-Aware Design of In-Memory Computing Architectures

Marco Antonio Rios

Driven by the demand for real-time processing and the need to minimize latency in AI algorithms, edge computing has experienced remarkable progress. Decision-making AI applications stand out for their heavy reliance on data-centric operations, predominantl ...
EPFL2024

HetCache: Synergising NVMe Storage and GPU acceleration for Memory-Efficient Analytics

Anastasia Ailamaki, Periklis Chrysogelos, Hamish Mcniece Hill Nicholson, Syed Mohammad Aunn Raza

Accessing input data is a critical operation in data analytics: i) slow data access significantly degrades performance, and ii) storing everything in the fastest medium, i.e., memory, incurs high operational and hardware costs. Further, while GPUs offer in ...
2023
Afficher plus
Concepts associés (96)
Hiérarchie de mémoire
Dans un ordinateur, le processeur accède aux instructions du programme à exécuter ainsi qu'aux données nécessaires à son exécution depuis la mémoire. Il existe une hiérarchie des mémoires informatiques : les plus rapides sont les plus coûteuses, donc en nombre limité, et placées le plus près du processeur (les registres font partie intégrante du processeur). Les plus lentes sont les moins coûteuses et sont éloignées du processeur. Le matériel et le système d'exploitation sont responsables du déplacement des objets le long de cette hiérarchie.
Protocole de cohérence de cache
thumb|Schéma illustrant le besoin d'un protocole de cohérence de cache. En informatique, un protocole de cohérence de cache, sous entendu cache processeur, est un protocole de communication utilisé dans les architectures multi-processeurs pour assurer aux processeurs une vue cohérente de la mémoire. En particulier, il permet de répercuter les écritures faites par chaque processeur aux autres, en modifiant ou en invalidant les lignes de cache communes.
Pipeline (architecture des processeurs)
330px|droite|Plan d'un pipeline générique à trois étapes En microarchitecture, un pipeline (ou chaîne de traitement), est l'élément d'un processeur dans lequel l'exécution des instructions est découpée en plusieurs étapes. Le premier ordinateur à utiliser cette technique est l'IBM Stretch, conçu en 1961. Avec un pipeline, le processeur peut commencer à exécuter une nouvelle instruction sans attendre que la précédente soit terminée. Chacune des étapes d’un pipeline est appelé étage.
Afficher plus

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.