Guide MDM

Guide du Master Data Management (MDM) ou la gestion des données « maîtres »

Démystifier et comprendre l’intérêt des solutions MDM

Les entreprises doivent gérer une multitude de données de natures multiples : informations et données produits, données issues de fournisseurs et/ou de distributeurs, données clients, données filiales, etc.

Ces données sont souvent éparpillées dans des systèmes d’information différents.

Le déploiement de référentiels MDM multi-domaine a pour objectif de résoudre tous les problèmes liés à cette dispersion des données. Voici un guide pour découvrir comment améliorer la qualité de ses données en entreprise.

Qu’est-ce que le Master Data Management (MDM) ou la gestion des données « maîtres » ?

De nos jours, les données sont devenues un atout indispensable au bon fonctionnement et à la bonne santé d’une organisation. Souvent considérées comme un « nouvel or noir », elles permettent d’alimenter le bon fonctionnement opérationnel et la prise de décisions afin d’atteindre les objectifs stratégiques fixés par les dirigeants de l’entreprise.

Néanmoins, les vastes quantités et les multiples flux de données créées chaque jour les rendent difficiles à gérer et à gouverner à l’échelle.
C’est pourquoi les entreprises qui font de leur transformation numérique une priorité ont de plus en plus souvent recours à des solutions de Master Data Management (MDM), parfois appelée gestion des données « maîtres ». Les services de gestion des Master Data permettent d’harmoniser la gouvernance des données et d’assurer un bon ordonnancement des opérations afin de gagner en efficacité, en performance et en agilité.

Les différentes catégories de données

Dans le domaine de la gestion des données, les data sont généralement classées en plusieurs catégories : données transactionnelles, métadonnées, données de reporting, Master Data et données de référence.

Les données transactionnelles sont les plus nombreuses et les plus exploitées au jour le jour dans le contexte de l’activité de l’entreprise. Elles sont créées et peuvent être collectées quotidiennement en grandes quantités.

Elles peuvent concerner des domaines aussi variés que l’achat ou la vente de produits, les expéditions de la chaîne logistique, les activités de ressources humaines (RH), etc.

Les métadonnées servent à définir et à décrire les données. Elles sont rattachées à des données et permettent d’indiquer leurs caractéristiques, comme leur taille, leur type, le degré de résolution, leur auteur, etc.

Les données de reporting sont des données organisées qui servent à établir des rapports et à améliorer la business intelligence (parfois appelée « informatique décisionnelle ») d’une entreprise.

Elles sont raffinées et créées à partir des données transactionnelles, des Master Data et des données de référence.

Les Master Data ou données « maîtres » concernent les informations opérationnelles qui sous-tendent les différentes transactions.

Elles sont généralement classées en plusieurs catégories qui regroupent les lieux (emplacement géographique, sites, adresse, etc.), les parties (personnes physiques ou morales, clients, fournisseurs, etc.) et les objets (produits, éléments, matériaux, véhicules, etc.).

Souvent considérées comme une sous-catégorie des Master Data, les données de référence ou Reference Data sont des informations qui permettent d’harmoniser, de clarifier ou d’ordonnancer les données en y associant des catégories référentielles concernant le statut d’un client ou les classifications de produits, par exemple.

Pourquoi est-il essentiel de garantir une bonne gestion de ses Master Data ?

L’authoring ou la création de Master Data a souvent lieu au sein des systèmes opérationnels et n’est généralement pas assez complet pour satisfaire l’ensemble des besoins de l’entreprise. En effet, si elles existent et sont exploitées via des processus métier, elles s’accompagnent de plusieurs problèmes :

  • Leur qualité n’est généralement pas vérifiée ni validée en fonction de règles prédéfinies, sachant qu’elles peuvent être issues de sources aussi variées que spécialisées ;
  • Elles sont souvent dispersées ou dupliquées en raison des cloisonnements et des silos entre les systèmes liés à une architecture et des processus traditionnels ;
  • Elles ne sont pas véritablement gérées et harmonisées pour répondre à des normes de qualité ou permettre une gouvernance unifiée des données.

Imaginez un client qui crée un compte pour se connecter au site Internet d’une entreprise. Dans ce contexte, parmi les Master Data créées et collectées, l’adresse e-mail du client, qui lui servira probablement d’identifiant, aura une importance majeure et sera donc validée par le processus de création de compte. En revanche, le degré de fiabilité du numéro de téléphone fourni aura une importance secondaire. A contrario, dans le contexte d’une livraison d’article commandé chez le même client, le numéro de contact revêtira une importance primordiale et sera probablement de qualité, tandis que l’adresse e-mail sera considérée comme moins importante.

Ainsi, sans véritable outil de gestion unifiée des Master Data (et des données de référence), une entreprise peut difficilement se former une image à 360° de ses partenaires commerciaux – qu’il s’agisse de clients, de partenaires ou de fournisseurs. Cela génère des incertitudes liées à la fiabilité de l’information et restreint l’efficacité opérationnelle.

Si une image vaut 1000 mots, alors rien de mieux que cette vidéo présentant le problème du MDM et son impact sur une entreprise, avec la famille Smith qui cherche le numéro de téléphone de sa grand-mère.

À quoi correspondent les Golden Data ?

L’objectif premier d’un outil de MDM consiste ainsi à créer une base de données unifiée composée d’informations vérifiées, fiables et communes à l’ensemble de l’entreprise.

Ces informations sont appelées Golden Data (ou également « points de vérité »). Il s’agit de Master Data, collectées via une solution de MDM, qui ont été nettoyées, dédupliquées, consolidées et validées pour parvenir à créer une image complète d’un client ou d’un produit. Elles représentent « une source unique de vérité » pour l’ensemble des processus, applications et systèmes de l’entreprise.

Ces « points de vérité » génèrent une formidable valeur ajoutée dans le cadre de la business intelligence, de l’efficacité opérationnelle et de la gouvernance des données au sein d’une entreprise. En effet, il devient possible de constituer une source ou un référentiel unique de données fiables et cohérentes sur l’ensemble des outils, des systèmes et des applications de l’entreprise (PIM, CRM, etc.). Cela permet aux utilisateurs métier de maximiser leur efficacité opérationnelle, tout en garantissant la qualité et la bonne gouvernance des données, y compris en matière de conformité et de sécurité.

Pourquoi les entreprises doivent-elles se doter d’une solution de Master Data Management (MDM) spécifique ?

Qu’est-ce qui différencie les solutions ETL et MDM ?

De nombreuses entreprises ont tendance à penser qu’il ne leur est pas forcément nécessaire de se doter d’une solution spécifique pour la gestion de leurs Master Data, dans la mesure où il est possible d’établir des correspondances entre les données via un outil d’intégration de données ou d’ETL (de l’anglais « Extract, Transform, Load »).

Or, si les solutions ETL permettent aux équipes IT d’acheminer et d’intégrer les données d’un système à l’autre, les solutions MDM permettent de résoudre les problèmes liés à l’inexactitude ou au manque de complétude des données pour les utilisateurs métier. Il peut s’agit notamment de créer une image à 360° des clients ou d’un produit qui permet aux équipes métiers de prendre de meilleures décisions opérationnelles et d’améliorer la qualité et l’ordonnancement des données. Ainsi, tandis que les outils ETL font souvent appel aux compétences de développeurs, les solutions de MDM s’adressent aux dépositaires des données, également appelés « data stewards ».

Ces solutions de MDM, à l’image du module xDM de gouvernance et de gestion des données de Semarchy, s’accompagnent de fonctionnalités spécifiques, notamment :

  • Les contrôles de qualité des données – s’assure que l’entreprise dispose de données fiables, vérifiées et corrigées nécessaires à la mise en place d’une gouvernance efficace
  • Le data lineage – retrace la généalogie des données afin de vérifier la validité et d’évaluer la qualité des sources de données
  • Le data versioning – établit plusieurs versions de la représentation d’un produit ou d’un client au fil du temps
  • La hiérarchie entre les entités business – déterminer de quel département et sous-département de l’entreprise ces données dépendent
  • Génération automatisée d’interfaces utilisateurs no-code ou low-code – permet aux utilisateurs métiers non techniques d’assurer la maintenance des données
  • Les flux de travail collaboratifs et inter-applications – vérifient l’exactitude des données et confirment les correspondances d’un système à l’autre et entre les équipes qui les gèrent pour améliorer les processus métier et techniques

Ainsi, si les outils de MDM et d’ETL sont complémentaires, ils ne sont pas interchangeables et ne répondent pas aux mêmes besoins. En effet, si l’intégration des données au sein de la solution de MDM et le réacheminement des données nettoyées, vérifiées et gouvernées vers un système source peut nécessiter l’emploi d’une solution ETL ou d’un outil d’intégration des données, une solution MDM est indispensable pour permettre aux dépositaires des données d’effectuer les opérations nécessaires à leur nettoyage, à leur vérification et à la mise en place de politiques et de règles harmonisées afin d’en assurer la bonne gouvernance.

Au demeurant, la solution la plus agile pour accomplir ces différentes tâches consiste à se doter d’une plateforme unifiée qui regroupe un outil et des services de Master Data Management, ainsi qu’une solution d’intégration des données, à l’image de la plateforme unifiée d’intégration des données et de Master Data Management de Semarchy

Quels sont les principaux avantages du Master Data Management (MDM) pour les organisations ?

La collecte, la transformation et la consolidation de Master Data normalisées permettent de créer des Golden Data de qualité, fiables et harmonisées sur l’ensemble de l’entreprise. C’est sur ces données que s’appuie le projet de MDM afin d’améliorer la gouvernance de l’ensemble des informations dont une organisation dispose et de maximiser la création de valeur à partir de ces dernières.

La gestion des Master Data permet notamment d’améliorer les performances opérationnelles de l’ensemble des employés, de mieux planifier et organiser l’activité de l’entreprise en matière de production, de logistique ou de gestion des stocks et donc de réduire fortement les dépenses opérationnelles, tout en facilitant le travail des utilisateurs métier.

Du point de vue de l’infrastructure réseau, elle permet d’éviter la déduplication et la dispersion des enregistrements de données ou « data records » et la surcharge d’informations liée à une organisation en silos, facilitant la communication entre les différents services de l’entreprise et favorisant la mise en place d’une infrastructure responsable et durable.

Elle offre la possibilité de renforcer à la fois la qualité, la conformité réglementaire, la sécurité et la fiabilité de ce qui constitue aujourd’hui la base sur laquelle une entreprise data-driven fonde toutes, sinon la grande majorité, de ses décisions stratégiques, à travers la création d’un hub de données intelligent qui renforce la business intelligence de l’organisation.

Quelle approche MDM adopter ?

Les Master Data, les données de référence et les Golden Data sont généralement stockées et gérées au sein d’une base de données centralisée ou hub MDM.
Ces hubs peuvent se construire sur différentes approches en fonction des besoins de l’entreprise, des sources de données, des systèmes concernés ou du mode de gouvernance souhaité :


Hub sous forme de registre

Cette approche, qui n’est que très rarement utilisée de nos jours, permettait aux données d’être créées et de demeurer au sein de chaque système source. Le hub incluait un index des sources de données et assurait un suivi du référencement croisé entre les sources de données correspondantes.

Son objectif principal consistait à établir des correspondances entre les données, qui étaient ensuite distribuées en aval en fédérant les données source. Les processus liés à la transformation et à la consolidation des données de référence destinés à générer des Golden Data étaient déclenchés à la demande.

Cette approche non intrusive permettait de conserver et de maintenir les données au sein des systèmes sources. L’accès aux Golden Data se faisait via des requêtes fédérées. Toutefois, une telle approche est inadaptée à la mise en place d’un projet moderne de MDM à grande échelle. En effet, les ensembles de données sont trop vastes et les stratégies de transformation ou de consolidation trop complexes. Cette approche occasionne des baisses de performances et des difficultés techniques liées à la création de Golden Data à la volée.

Hub de consolidation

Cette approche s’appuie sur la copie des Master Data à partir des applications source. Des correspondances sont établies et les données de référence sont consolidées dans le hub lui-même. Ainsi, les Golden Data créées sont directement distribuables sur les applications en aval et accessibles aux utilisateurs métier et aux dépositaires des données.

Il s’agit également d’un style de MDM non intrusif, à l’image de l’approche sous forme de registre. En revanche, le fait que les Golden Data soient stockées permet d’éviter les problèmes éventuels liés à des stratégies de transformation ou de consolidation complexes et les processus de « data stewardship » ou « d’intendance des données » peuvent être exécutés et orchestrés au sein du hub.

Hub en co-existence

Similaire au hub de consolidation, ce modèle ajoute une boucle de réacheminement des Golden Data vers les applications sources. Si cette approche est non intrusive du point de vue de l’utilisateur final, elle implique un certain nombre de défis organisationnels et techniques liés à l’approbation et à la mise en place de cette boucle.

Le fait que cette boucle soit créée, non au niveau de chaque data record, mais au niveau de l’interface utilisateur (UI) de l’application permet de résoudre ces difficultés. Il devient possible d’inclure des portlets au sein de l’application de l’utilisateur final qui montrent par exemple une image des clients au sein d’autres systèmes ou les Golden Data qui correspondent à l’enregistrement de l’application source qui est encours de visualisation ou d’édition.

Hub centralisé ou transactionnel

Dans cette approche, les Master Data sont entièrement migrées et nettoyées au sein du hub de MDM. Celui-ci devient l’unique fournisseur de données « maîtres » et celles-ci sont exclusivement créées dans le hub via des flux de travail de saisie de données.
Ainsi, toutes les applications se réfèrent au hub pour les Master Data.

Ce modèle permet de garantir la meilleure qualité de Master Data, mais demeure néanmoins extrêmement intrusif pour les processus métier et techniques existantes, car ceux-ci doivent être repensés en fonction du hub de MDM.
Il permet de créer des Master et des Golden Data lorsque celles-ci n’existent sur aucun emplacement formel au niveau opérationnel, au risque toutefois de complexifier et de ralentir fortement les processus en place.

Quelle est la meilleure approche à adopter ?

Il n’y a pas de modèle miracle ou magique afin de stocker, de transformer et de distribuer les Master ou Golden Data.
En effet, une approche peut se révéler plus pertinente en fonction des applications source, du domaine ou des Master Data qui doivent être stockées dans le hub. C’est pourquoi une solution plus mature consiste à créer un hub dit « de convergence » entre ces différents styles pour répondre à tous les besoins de la manière la plus efficace et adaptée possible.

Ce type de hub par convergence des approches peut notamment permettre de :

  • Gérer les données client selon une approche en co-existence en agrégeant les données issues des CRM, des sites Internet, et en créant une boucle retour vers le système CRM ;
  • Gérer les données produit selon une approche par consolidation avec certains processus qui dépendraient d’une approche plus transactionnelle ;
  • Gérer les données essentielles via une approche sous forme de registre pour la conformité réglementaire ;
  • Gérer les données financières selon un modèle transactionnel pour éviter les tableurs Excel et faciliter la création de Master Data et la validation des flux de travail.

Cette décision doit être prise en fonction des besoins métier spécifiques à l’entreprise et aux différentes parties prenantes. C’est pourquoi il est toujours préférable de faire appel à un éditeur de solution spécialisé, capable de proposer des solutions, des services et des conseils sur la formule la plus efficace à adopter. Au nombre de ces éditeurs, Semarchy prône notamment une approche hybride qui se fonde sur la possibilité de choisir le comportement souhaité pour chaque Master Data gérée au sein de sa solution de MDM. Cette approche permet de mener des projets en mode hybride qui prennent en charge des entités consolidées ou coexistantes, mais également de manière centralisée grâce à des mécanismes d’override.

Dans une prochaine version de cet article, nous nous intéresserons également aux différentes plateformes que les entreprises peuvent choisir pour mettre en place un projet de MDM, qu’il s’agisse d’architectures dans le Cloud, sur plusieurs clouds, sur site ou hybrides. Nous aborderons la question de la confidentialité, de la sécurité et de la protection des données personnelles qui permettent de garantir la conformité avec le Règlement général sur la protection des données (RGPD).