La gestion des données de référence ou gestion des données maîtres (GDR, plus connue sous le vocable anglais de master data management ou MDM) est une branche des technologies de l'information qui définit un ensemble de concepts et de processus visant à définir, stocker, maintenir, distribuer et imposer une vue complète, fiable et à jour des données référentielles au sein d’un système d’information, indépendamment des canaux de communications, du secteur d'activité ou des subdivisions métiers ou géographiques. Les données référentielles sous-tendent l’ensemble du système d’information, ce qui explique pourquoi leur gestion est devenue un enjeu crucial dans toutes les organisations depuis une dizaine d’années. Classiquement, trois types de données référentielles sont la cible de la GDR : les données « clients/fournisseurs », les données « produits » et les données « financières ». La gestion des données de référence est considérée comme une brique de l'architecture d'un système d'information durable. Le Master Data Management est composé de PIM + DAM + CMS. Ainsi les données sont centralisées en un seul et unique fichier, autrement dit le référentiel unique (Single Source of Truth). Les systèmes informatiques des organisations sont utilisés par différentes fonctions métier (par exemple, la fonction système d'informations, la fonction communiquant, la fonction marketing : produit, marque, client, packaging, etc, la r&d, ou encore la fonction commerciale). Ces systèmes divers partagent nécessairement des données de référence (telles que les données : produits, clients, fournisseurs, localisation, reporting financier pour les comptes consolidés, etc.). Les enjeux de la gestion de données référentielles pour une organisation sont de 5 types : Sécuriser et rendre fiable ces données référentielles d'une façon cohérente à travers chacun de ses systèmes.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Cours associés (6)
BIO-604: ORPER summer school
This summer school will provide PhD students knowledge on the different practices that they can adopt from the beginning of their research journey onwards, to improve the quality, transparency, sharea
ENG-610: How to prepare successful Grant proposals
You will learn where to look for appropriate fellowship or research funding, how to apply for specific instruments, and how to prepare a written application. You will also gain an understanding of how
MATH-517: Statistical computation and visualisation
The course will provide the opportunity to tackle real world problems requiring advanced computational skills and visualisation techniques to complement statistical thinking. Students will practice pr
Afficher plus
Publications associées (56)
Concepts associés (13)
Data virtualization
Data virtualization is an approach to data management that allows an application to retrieve and manipulate data without requiring technical details about the data, such as how it is formatted at source, or where it is physically located, and can provide a single customer view (or single view of any other entity) of the overall data. Unlike the traditional extract, transform, load ("ETL") process, the data remains in place, and real-time access is given to the source system for the data.
Gouvernance des données
La gouvernance des données peut-être : un concept politique lié aux flux de données au sein et entre pays. Ce champ se compose de «normes, principes et règles régissant divers types de données», au delà de la gestion purement technique des données. une stratégie d'entreprise pour gérer les données, leur flux, leurs accès, leur stockage, leur mise à jour, et leur consommation en son sein, afin d'en optimiser la valeur et l'efficience de traitement.
Single source of truth
In information science and information technology, single source of truth (SSOT) architecture, or single point of truth (SPOT) architecture, for information systems is the practice of structuring information models and associated data schemas such that every data element is mastered (or edited) in only one place, providing data normalization to a canonical form (for example, in database normalization or content transclusion).
Afficher plus

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.