Résumé
La gestion des données de référence ou gestion des données maîtres (GDR, plus connue sous le vocable anglais de master data management ou MDM) est une branche des technologies de l'information qui définit un ensemble de concepts et de processus visant à définir, stocker, maintenir, distribuer et imposer une vue complète, fiable et à jour des données référentielles au sein d’un système d’information, indépendamment des canaux de communications, du secteur d'activité ou des subdivisions métiers ou géographiques. Les données référentielles sous-tendent l’ensemble du système d’information, ce qui explique pourquoi leur gestion est devenue un enjeu crucial dans toutes les organisations depuis une dizaine d’années. Classiquement, trois types de données référentielles sont la cible de la GDR : les données « clients/fournisseurs », les données « produits » et les données « financières ». La gestion des données de référence est considérée comme une brique de l'architecture d'un système d'information durable. Le Master Data Management est composé de PIM + DAM + CMS. Ainsi les données sont centralisées en un seul et unique fichier, autrement dit le référentiel unique (Single Source of Truth). Les systèmes informatiques des organisations sont utilisés par différentes fonctions métier (par exemple, la fonction système d'informations, la fonction communiquant, la fonction marketing : produit, marque, client, packaging, etc, la r&d, ou encore la fonction commerciale). Ces systèmes divers partagent nécessairement des données de référence (telles que les données : produits, clients, fournisseurs, localisation, reporting financier pour les comptes consolidés, etc.). Les enjeux de la gestion de données référentielles pour une organisation sont de 5 types : Sécuriser et rendre fiable ces données référentielles d'une façon cohérente à travers chacun de ses systèmes.
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Cours associés (7)
BIO-604: ORPER summer school
This summer school will provide PhD students knowledge on the different practices that they can adopt from the beginning of their research journey onwards, to improve the quality, transparency, sharea
ENG-610: How to prepare successful Grant proposals
You will learn where to look for appropriate fellowship or research funding, how to apply for specific instruments, and how to prepare a written application. You will also gain an understanding of how
MATH-517: Statistical computation and visualisation
The course will provide the opportunity to tackle real world problems requiring advanced computational skills and visualisation techniques to complement statistical thinking. Students will practice pr
Afficher plus
Séances de cours associées (45)
Fraude scientifique et intégrité de la recherche
Explore la fraude scientifique, l'intégrité, les cas d'inconduite, les lignes directrices et les cadres institutionnels pour l'intégrité de la recherche.
Techniques de résolution des entités
Explore les techniques de résolution d'entités, la déduplication des données, les métriques de similitude, le coût de calcul, les techniques de blocage et l'échelle des jointures de similarité.
Formats de données et brouillage de données avec Hadoop
Explore Apache Hive pour l'entreposage de données, les formats de données et la partition, avec des exercices pratiques dans la requête et la connexion à Hive.
Afficher plus
Publications associées (56)
Concepts associés (13)
Data virtualization
Data virtualization is an approach to data management that allows an application to retrieve and manipulate data without requiring technical details about the data, such as how it is formatted at source, or where it is physically located, and can provide a single customer view (or single view of any other entity) of the overall data. Unlike the traditional extract, transform, load ("ETL") process, the data remains in place, and real-time access is given to the source system for the data.
Gouvernance des données
La gouvernance des données peut-être : un concept politique lié aux flux de données au sein et entre pays. Ce champ se compose de «normes, principes et règles régissant divers types de données», au delà de la gestion purement technique des données. une stratégie d'entreprise pour gérer les données, leur flux, leurs accès, leur stockage, leur mise à jour, et leur consommation en son sein, afin d'en optimiser la valeur et l'efficience de traitement.
Single source of truth
In information science and information technology, single source of truth (SSOT) architecture, or single point of truth (SPOT) architecture, for information systems is the practice of structuring information models and associated data schemas such that every data element is mastered (or edited) in only one place, providing data normalization to a canonical form (for example, in database normalization or content transclusion).
Afficher plus