↓
Introduction
Le Modèle d'évaluation des capacités de gestion des données (DCAM®) définit le périmètre des compétences nécessaires pour établir, mettre en œuvre et pérenniser une gestion des données (GD) mature. Elle aborde les stratégies, les structures organisationnelles, les technologies et les meilleures pratiques opérationnelles indispensables à la réussite de la GD. Elle présente les principes de la GD, fondés sur une compréhension de la valeur ajoutée pour l'entreprise et des réalités de la mise en œuvre opérationnelle.
Aperçu
Le concept de données comme fondement des opérations commerciales est désormais bien établi. Il est largement reconnu comme un facteur essentiel alimentant l'ensemble des processus métiers et organisationnels. Une organisation qui utilise efficacement ses données est celle qui met en œuvre et gère un environnement de contrôle des données. Cet environnement offre de nombreux avantages concrets, notamment la réduction des coûts opérationnels, l'automatisation des processus manuels, la consolidation des systèmes redondants, la simplification des rapprochements et l'amélioration des opportunités commerciales. Une organisation met en place un environnement de contrôle des données afin de garantir la fiabilité des données sur lesquelles elle s'appuie pour ses activités et ses prises de décision. Cela élimine le besoin de rapprochements manuels et la dépendance à des sources de données non fiables. transformation des données processus.
Le concept d'environnement de contrôle des données garantit que les données sont précisément définies et décrites à l'aide de métadonnées, alignées sur le sens et gérées sur l'ensemble du processus cycle de vie des données. La clé de la mise en place d'un environnement de contrôle des données réside dans l'obtention d'une signification partagée et sans ambiguïté au sein de l'organisation, ainsi que dans la gouvernance nécessaire pour garantir des définitions précises. Les données doivent être systématiquement définies par ce qu'elles représentent réellement, comme des produits, des clients, etc., clients, entités juridiques, transactions, événements et bien plus encore. Tous les autres processus reposent sur cette base.
Dans un environnement de données fragmenté, à l'opposé d'un environnement de contrôle des données, le développement d'applications peut engendrer des modèles de données ad hoc qui aggravent le problème des termes courants aux significations différentes, des significations courantes utilisant des termes différents et des définitions vagues ne saisissant pas les nuances essentielles. Pour de nombreuses organisations, ce défi peut s'avérer paralysant, car des milliers d'éléments de données, provenant de centaines de sources internes et externes, sont stockés dans des dizaines de bases de données non connectées. Cette fragmentation engendre un défi constant de cartographie, de référencement croisé et de réconciliation manuelle. Pour parvenir à un environnement de contrôle des données, chaque attribut de données Il est essentiel de comprendre, au niveau atomique, les données comme des faits alignés sur une signification métier spécifique et durable, sans duplication ni ambiguïté. La gestion des données en tant que signification est la clé de l'alignement des référentiels de données, de l'harmonisation des glossaires métiers et de la comparabilité des dictionnaires de données applicatifs.
Parvenir à un alignement des objectifs commerciaux, y compris le processus Définir et maintenir une terminologie cohérente peut s'avérer complexe. Il n'est pas rare de rencontrer des résistances de la part des utilisateurs internes, notamment en présence de plusieurs systèmes liés à des applications critiques. Dans un environnement fragmenté, la meilleure stratégie consiste à harmoniser la terminologie en se basant sur les définitions juridiques, contractuelles ou métiers, plutôt que d'imposer une convention de nommage unique à tous les systèmes. La nomenclature reflète la structure des données ; analyser en profondeur les structures et les modèles de données est coûteux et inutile. Il est préférable de se concentrer sur la définition précise des concepts métiers, la documentation des processus de transformation et la capture des relations réelles entre les données. Une fois cette terminologie établie, les systèmes, glossaires, dictionnaires, référentiels, etc., existants peuvent être mis en correspondance avec la définition commune.
Les données en tant que signification doivent être gérées en même temps que leur définition métadonnées pour assurer cohérence et la comparabilité au sein de l'organisation. Signification et gestion des métadonnées doit être compris comme le cœur de votre infrastructure de contenu et la base de référence pour processus Automatisation, intégration d'applications et harmonisation des processus liés. Quelques types courants de métadonnées inclure les aspects commerciaux, opérationnels, techniques, descriptifs, structurels et administratifs.
La mise en œuvre et la gestion d'un environnement de contrôle des données sont régies par des politiques, des normes, des processus et des procédures de données. Ces mécanismes sont essentiels pour établir une initiative de gestion des données durable et garantir la conformité à un environnement de contrôle des données malgré la complexité organisationnelle. La gestion du sens est la clé d'une gestion des données efficace. Ce sens est atteint grâce à l'adoption de normes sémantiques. Ces normes sont régies par politique. Le politique Elle est établie par la direction générale, soutenue par les propriétaires des données et appliquée par l'audit interne.
Défis liés à la création d'un environnement de contrôle des données

Diagramme 0.1 : Défis liés à l’environnement de contrôle des données
La mise en place d'un environnement de contrôle des données exige que l'organisation surmonte les défis suivants.
- Comprendre les environnements de données existants, notamment l'inventaire des données, les liens point à point, les définitions incohérentes, etc.
- Simplifier, organiser et catégoriser l'environnement disparate en domaines de données définis, avec des éléments de données clairement identifiés et des flux de données documentés.
- Aligner les éléments de données sur une signification partagée et sans ambiguïté au sein de l'organisation grâce à la mise en œuvre de contrôles., politique, et la gouvernance.
- Mesurer et suivre les données pour garantir la qualité et cohérence avec une réconciliation minimale.
- Harmoniser les technologies afin de garantir que les principes et les meilleures pratiques établis soient mis en œuvre dans l'ensemble de l'infrastructure technologique de l'organisation.
C’est ce parcours qu’il faut entreprendre pour parvenir à un environnement de contrôle des données nécessaire pour garantir la fourniture de données de la plus haute qualité aux processus critiques de toute l’organisation.
De nombreuses organisations ont commis l'erreur de tenter de résoudre le problème de la gestion des données en commençant par la technologie. DCAM, Cette pratique, considérée comme une bonne pratique, préconise de commencer par l'entreprise. processus qui définit les exigences en matière de données. Ensuite, l'entreprise processus et les données peuvent être automatisées par la technologie.
Niveaux opérationnels de gestion des données
Le DCAM Le cadre définit les composantes et les capacités nécessaires à la mise en place d'un environnement de contrôle des données au sein de l'organisation. Toutefois, il ne prescrit pas la manière dont ces capacités sont déployées aux différents niveaux opérationnels de l'organisation. Chaque organisation devra donc adapter son cadre. modèle opérationnel pour tenir compte de la taille, de la complexité, de la situation géographique et de la culture de l'organisation.

Diagramme 0.2 : Niveaux opérationnels de gestion des données
Lors de l'utilisation du DCAM Pour évaluer les capacités de l'organisation, il est plus instructif d'évaluer chaque niveau tel que défini dans le DM. modèle opérationnel cible de l'organisation.
Parties prenantes de la gestion des données
Le DM Partie prenante La matrice de responsabilité illustrée ci-dessous est une construction pour identifier le partie prenante Les types de données au sein de l'écosystème, les rôles clés et les relations entre les parties prenantes. Comprendre partie prenante Les types constituent un fondement important pour l'application de DCAM Cadre dans un DM modèle opérationnel cible pour l'organisation. Cela définit également le public cible de l'utilisation de DCAM comme outil d'évaluation des capacités de l'organisation. Au sein de la matrice, architecture de données Il constitue le pont essentiel dans la relation entre les acteurs commerciaux et technologiques.

Diagramme 0.3 : Gestion des données Partie prenante Matrice de responsabilité
Questions émergentes
La pratique de la gestion des données (GD) continue d'évoluer. Les nouvelles technologies et les problématiques introduites dans les organisations et ayant un impact sur les données ou la GD créent des exigences supplémentaires pour l'initiative de GD. CDO Même s'ils ne sont pas directement responsables de la mise en œuvre de ces technologies ou de la résolution des problèmes, ils doivent participer activement à l'orientation de l'organisation.
Notre mission est de continuer à évoluer DCAM afin de rester à la pointe et d'aider les professionnels du traitement des données à réussir dans leurs fonctions au sein de leurs organisations. D'après les retours de nos membres, deux sujets – l'essor de l'apprentissage automatique (ML) et de l'intelligence artificielle (IA) dans l'analyse de données, et la question de l'éthique des données – sont apparus comme des considérations importantes pour la prise de décision en matière de traitement des données. Le travail des membres groupe soutenir la nouvelle version de DCAM Nous avons impliqué des experts clés sur ces sujets. Grâce à leurs contributions, nous avons intégré des considérations relatives à ces sujets dans les sous-capacités existantes. DCAM et a introduit de nouvelles fonctionnalités et sous-fonctionnalités là où cela s'avérait nécessaire.
Analyse et apprentissage automatique
De nombreuses organisations sont à différents stades de développement et de mise en œuvre d'applications d'analyse et d'apprentissage automatique plus avancées au sein de leurs opérations. Bien que ces applications ne modifient pas fondamentalement les structures requises pour une bonne gestion des données, elles nécessitent divers changements au niveau de plusieurs de ses éléments. Ces changements sont détaillés dans la section consacrée aux composants et fonctionnalités concernés. Toutefois, il est utile de présenter brièvement les fonctions d'analyse et d'apprentissage automatique au sein d'une organisation afin de contextualiser ses exigences.
De manière générale, deux principaux types d'activités d'analyse de données auront lieu au sein d'une organisation :
- Statistiques descriptives et inférentielles (SDI) – Il s'agit d'un résumé des indicateurs clés d'une organisation. Ces indicateurs comprennent le chiffre d'affaires, le débit, les ventes et les dépenses. Les SDI peuvent également fournir des estimations de ces indicateurs lorsqu'ils ne sont pas directement observables. Ces résumés peuvent être présentés sous forme numérique ou graphique, par exemple sous forme de tableaux de bord, et peuvent être générés périodiquement ou en temps réel. Ce type d'analyse fait généralement partie de la veille stratégique (BI) ou du renseignement d'affaires (RA). fonction d'une organisation.
-
Apprentissage automatique / Intelligence artificielle – Contrairement aux statistiques descriptives et inférentielles, qui visent à présenter les caractéristiques saillantes d'un ensemble de données par un résumé direct de celles-ci, ce type d'analyse utilise des algorithmes pour discerner des tendances utiles et pertinentes dans les données, avec peu ou pas d'intervention humaine, hormis la configuration de l'algorithme d'apprentissage. Ces tendances peuvent être extraites de données structurées et non structurées. Les tendances ainsi mises en évidence sont souvent plus précieuses que celles discernées par l'humain pour plusieurs raisons, notamment :
- Ces types d'algorithmes peuvent prendre en compte beaucoup plus de dimensions de données et leurs interactions que les humains. Ils peuvent également considérer simultanément beaucoup plus d'exemples d'un phénomène qu'un humain ; et
- Les machines ne souffrent pas de nombreux biais cognitifs qui entraînent de mauvais résultats en matière de reconnaissance de formes chez l'humain.
Une conséquence de la complexité des motifs reconnus par ces types d'algorithmes est que, malgré la précision Parmi les schémas reconnus, le schéma sous-jacent est souvent trop complexe pour être compris par l'humain et fonctionne de fait comme une boîte noire. Cela peut s'avérer inacceptable, selon l'application de l'algorithme.
L'informatique de données et l'apprentissage automatique peuvent tous deux servir de base à d'autres types d'analyses et d'activités de prévision.
Concernant le flux de données qu'il s'agisse d'activités analytiques, les deux catégories d'activités analytiques suivent approximativement les mêmes étapes :
- Les données brutes d'entrée proviennent de bases de données de référence et sont intégrées dans un espace de travail de traitement unique ;
- Les données brutes sont manipulées et transformées en un format nécessaire aux activités analytiques ;
-
Les activités analytiques se déroulent :
- Dans le cas de D/IS, il s'agirait de la génération de métriques de synthèse ;
- Dans le cas de l'apprentissage automatique/de l'intelligence artificielle, il s'agirait de l'entraînement des algorithmes à reconnaître les modèles requis ;
-
Les résultats de l'étape d'analyse sont mis à la disposition des utilisateurs autorisés dans le format de sortie souhaité :
- Dans le cas de D/IS, il s'agirait du résultat de mesures de synthèse sous la forme d'un rapport numérique ou graphique ou d'un tableau de bord ;
- Dans le cas de l'apprentissage automatique/de l'intelligence artificielle, cela consisterait en la publication d'algorithmes entraînés et testés aux utilisateurs autorisés à les utiliser, ou en la publication des résultats des algorithmes entraînés appliqués aux données actuelles.
Les nouvelles technologies telles que l'apprentissage automatique et l'intelligence artificielle soulèvent des questions inédites en matière de gestion des données. Cela dit, la mise en œuvre réussie de toutes les fonctionnalités de gestion des données reste la meilleure solution pour répondre à ces nouvelles exigences. DCAM La version V2 intègre désormais ces considérations à l'ensemble des capacités et sous-capacités, afin de guider le développement d'analyses avancées.
Éthique des données
L'apprentissage automatique, l'intelligence artificielle et d'autres innovations technologiques ont considérablement accru le volume de données disponibles pour les organisations et creusé le fossé entre le jugement humain et la prise de décision automatisée. L'une des problématiques soulevées par ces innovations technologiques concerne l'éthique des données. Lors de nos échanges avec des experts en gestion des données du monde entier, cette question s'est imposée comme une préoccupation majeure, notamment au vu des amendes record infligées aux organisations qui commercialisent des données à caractère abusif. données personnelles et ne parviennent pas à protéger la vie privée des utilisateurs, ainsi que le rythme rapide auquel les entreprises développent des produits et des services qui tirent parti de l'internet des objets, notamment les systèmes de sécurité à reconnaissance faciale et les voitures autonomes. DCAM V2 répond proactivement à cette préoccupation afin d'aider les professionnels du DM à instaurer une culture organisationnelle alignée sur un code de déontologie qui énonce les valeurs et les priorités de leur organisation et fournit des lignes directrices pour sa mise en œuvre.
La prise de décision automatisée – qui utilise des algorithmes pour classifier les données et prendre des décisions en fonction de ces classifications – a le potentiel de révolutionner les processus de prise de décision qui étaient auparavant fastidieux, coûteux, voire impossibles à réaliser par l'humain. Par exemple, les réseaux neuronaux convolutifs – la technique d'apprentissage automatique la plus couramment utilisée en imagerie médicale – sont employés pour la détection des tumeurs en radiologie diagnostique. Cependant, leur fiabilité et précision Le succès de ces algorithmes dépend de nombreux facteurs, notamment la qualité des données d'entraînement, le volume et la représentativité du corpus. Les meilleurs algorithmes fonctionnent car ils sont entraînés sur des données précises et généralisables, évitant ainsi que de nouvelles informations ne soient intégrées à des classifications inappropriées.
En matière d'éthique des données, cela signifie que la complexité des algorithmes utilisés par une organisation doit être étayée par des données d'entraînement richement annotées et un corpus de données très vaste et représentatif. De plus, les responsables de l'éthique des données au sein de l'organisation doivent comprendre comment les algorithmes classent les données et quelles conséquences imprévues cette classification peut avoir. Dans certaines organisations, la responsabilité de l'éthique des données est confiée à un CDO (Centre de données), tandis que d'autres nomment un responsable de l'éthique. Quelle que soit l'approche adoptée, les organisations qui font de l'éthique des données une priorité impliquent des responsabilités et des exigences en matière de données et de gestion des données.
La capacité des algorithmes à traiter des données différentes de leurs données d'entraînement dépend des hypothèses formulées par les programmeurs lorsqu'ils envisagent l'éventail des résultats possibles. Bien que les progrès de l'apprentissage automatique aient mis en lumière l'éthique des données, ce problème ne se limite pas au domaine de l'intelligence artificielle. Les efforts déployés pour garantir le respect de la vie privée des personnes représentées par les données sont souvent compromis par de simples erreurs humaines ou des protocoles système obsolètes. Si la conformité aux exigences légales en matière de gestion des données est utile, elle ne constitue pas une protection suffisante de la vie privée. Même les professionnels des données les plus consciencieux, travaillant avec les ensembles de données les plus fiables, peuvent causer des préjudices involontairement, surtout s'ils ignorent comment les algorithmes reproduisent les inégalités sociales. En d'autres termes, “ de bonnes données peuvent engendrer de mauvais résultats ”.”
De même, les responsables de l'éthique des données au sein d'une organisation doivent être prêts à examiner comment les décisions, automatisées ou humaines, peuvent affecter les parties prenantes, qu'il s'agisse d'entités connues ou de populations inconnues susceptibles d'être affectées involontairement par les activités de l'organisation. Par exemple, Amazon a fait l'objet d'un examen minutieux lors du lancement de son service de livraison Prime le jour même dans les zones métropolitaines des États-Unis. À première vue, la décision, fondée sur les données, de privilégier la livraison le jour même… clients Vivre dans des zones à forte concentration d'abonnés Prime et étendre progressivement le service à d'autres zones postales semble logique en termes de coûts et d'efficacité. Cependant, étant donné que… clients Les abonnés Prime étant majoritairement concentrés dans des quartiers à prédominance blanche, les zones de livraison le jour même d'Amazon ont fini par renforcer une inégalité chronique et systémique d'accès aux services de vente au détail. Depuis que l'affaire a éclaté concernant cette disparité raciale dans les zones de livraison Prime d'Amazon, l'entreprise a revu sa stratégie. Cependant, les dégâts causés à sa réputation mettront plus de temps à se résorber.
Intégrer l'éthique des données dans le DCAM Ce cadre est conçu pour aider les organisations à établir des politiques et des procédures qui augmentent la probabilité que les décisions fondées sur les données et susceptibles d'entraîner de tels effets indésirables soient identifiées et modifiées en conséquence. Bien entendu, il est difficile d'anticiper comment classification des données L'utilisation des données aura des répercussions sur les individus dans des contextes dynamiques. Une culture organisationnelle qui intègre l'éthique des données contribue grandement à minimiser la vulnérabilité aux violations de données et à compenser les biais inhérents aux hypothèses de programmation. Chaque membre de l'organisation interagissant avec des données et/ou des systèmes de données peut contribuer à une culture d'éthique des données.
DCAM : Un cadre pour une gestion durable des données
Pour obtenir un environnement de contrôle, un ensemble complexe de capacités de gestion des données est nécessaire. Modèle d'évaluation des capacités de gestion des données est un cadre pour la mise en œuvre d'une gestion des données robuste et durable fonction. Il s'agit également de l'outil essentiel pour l'évaluation et l'analyse comparative continues des capacités de gestion des données d'une organisation.

Diagramme 0.4 : DCAM Cadre
Le DCAM Le cadre comprend sept composantes. La première composante est la stratégie et l'analyse de rentabilité de la gestion des données, et la deuxième composante est le programme et le financement de la gestion des données. Modèle, sont fondement aux cinq autres composants.
Les quatre composantes suivantes de DCAM cadre, affaires et Architecture des données, Données & Architecture technologique, Qualité des données La gestion et la gouvernance des données sont les exécution composants.
Le dernier élément est le collaboration activité – Environnement de contrôle des données. C’est ici que les composants d’exécution sont mis en service par le producteur de données afin de maîtriser un ensemble défini de données et de les mettre à la disposition des consommateurs de données à un moment précis, soit en temps réel, soit à la fin d'une période.
Les sept composantes comprennent 31 capacités et un total de 106 sous-capacités. La définition et la portée de chaque composante sont présentées ci-dessous.
DCAM : Portée des sept composants
1.0 Stratégie de gestion des données et analyse de rentabilité
Le volet Stratégie de gestion des données (SGD) et analyse de rentabilité est un ensemble de capacités permettant de définir, prioriser, organiser, financer et gouverner la gestion des données et son intégration dans les opérations de l'organisation, conformément aux objectifs et priorités de cette dernière. entreprise et les unités opérationnelles. L'analyse de rentabilité de la gestion des données justifie la création et le financement d'une initiative de gestion des données. Elle expose les principaux enjeux liés aux données auxquels une organisation ou une unité opérationnelle est confrontée et décrit les résultats et les avantages attendus grâce à la mise en œuvre réussie d'une telle initiative.
- Mettre en place un système de gestion des données (SGBD) fonction au sein du Bureau de gestion des données (ODM).
- Travailler avec DM Bureau de gestion de programme (PMO) concevoir et mettre en œuvre des processus et des outils durables pour les activités courantes du DMS fonction.
- Alignez le système de gestion des données (DMS) avec la stratégie, les objectifs et les priorités de l'entreprise, notamment en hiérarchisant les données en fonction de leur importance pour l'activité.
- Définir la justification et l'analyse de rentabilité de la gestion des données en tant qu'actif dans le cadre de l'initiative de gestion des données à l'échelle de l'organisation.
- S'assurer que le système de gestion documentaire est aligné sur la stratégie globale de l'organisation. Entreprise Principes de gestion des données.
- Décrivez précisément la cible et l'état actuel du DM. Ensuite, en utilisant DCAM En tant qu'outil d'évaluation pour l'analyse des écarts et la réduction prioritaire de ces écarts, créez un plan d'exécution cohérent.
- Définir la feuille de route d'exécution de haut niveau.
- Définir les risques liés à la mise en œuvre de la stratégie et les mesures d'atténuation.
- Définir les indicateurs de performance DM.
- Documentez le système de gestion des données (SGD) en présentant de manière convaincante la valeur d'une initiative de SGD à l'échelle de l'organisation.
- Veillez à ce que la gouvernance du DMS soit intégrée à la structure de gouvernance des données (DG).
2.0 Programme de gestion des données et modèle de financement
Le Programme de gestion des données (PGD) et financement Modèle Ce composant est un ensemble de capacités permettant de gérer le Bureau de gestion des données (ODM). Ces structures organisationnelles comprennent les besoins en ressources et une gamme complète de Bureau de gestion de programme (PMO) activité telle que l'exécution de la gestion de programmes, partie prenante Gestion, gestion des financements, communications, formation, mesure de la performance. Le financement du DM modèle Le plan de gestion de la gestion (PGG) vise à garantir l'allocation des capitaux nécessaires à la mise en œuvre du programme. Il définit et décrit également les méthodologies utilisées pour mesurer les coûts et les bénéfices, à l'échelle de l'organisation, découlant de l'initiative de gestion de la gestion.
- Mettre en place un plan de gestion des données fonction mettre en œuvre le Bureau de gestion de programme (PMO) capacités au sein de l'ODM.
- Faciliter la conception et la mise en œuvre de processus et d'outils de gestion des données durables pour les activités courantes, à travers les composantes et leurs capacités.
- Définir les rôles et les responsabilités liés aux capacités de gestion des données, en accord avec une structure organisationnelle, et les mettre en œuvre dans un modèle de gestion des données organisationnelles (ODM).
- Définir le financement Modèle, sécuriser et contrôler le financement, et mettre en place un suivi des coûts et des avantages aligné sur l'analyse de rentabilité.
- Établir la feuille de route d'exécution de la gestion des données avec des plans de projet de soutien pour s'appuyer sur la feuille de route de la stratégie de gestion des données (DMS) de haut niveau.
- Engagez chacun partie prenante dans l’ensemble de l’écosystème des données, en fonction de leurs rôles respectifs en matière d’alignement des ressources, de financement, de communication, de formation et de développement des compétences.
- Gérer l'initiative de marketing direct en surveillant et en communiquant les indicateurs de performance.
- S’assurer que la gouvernance du DMP est intégrée à la gouvernance des données (DG).
3.0 Architecture métier et de données
Le Affaires et Architecture des données (DA) Un composant est un ensemble de fonctionnalités visant à assurer l'intégration entre les activités de l'entreprise. processus exigences et exécution de l'accord de développement fonction. L'entreprise processus est défini par le architecture d'entreprise fonction. L'analyse de données (DA) définit des modèles de données tels que les taxonomies et les ontologies, ainsi que des domaines de données., métadonnées, et des données critiques pour l'entreprise afin d'exécuter des processus dans l'environnement de contrôle des données. fonction garantit le contrôle du contenu des données, que leur signification soit précise et sans ambiguïté et que leur utilisation soit cohérente et transparente.
- Établir un DA fonction au sein du Bureau de gestion des données (ODM).
- Collaborer avec le bureau de gestion de projet DM (PMO) concevoir et mettre en œuvre des processus et des outils durables pour les activités courantes de DA, y compris l'intégration requise avec architecture d'entreprise.
- Identifier et établir les domaines de données, les sources faisant autorité et les points d'approvisionnement.
- Identifier et inventorier les données nécessaires pour répondre aux besoins de l'entreprise, y compris toutes les données requises. métadonnées y compris glossaire, dictionnaire, classification, lignée, etc.
- Définir et attribuer des définitions métier, liées à l'inventaire des données.
- Veillez à ce que la gouvernance DA soit intégrée à la gouvernance des données (DG) et alignée sur les activités de gouvernance à la fois commerciales et technologiques.
4.0 Architecture des données et des technologies
Le Données & Architecture technologique (TA) Un composant est un ensemble de fonctionnalités permettant d'aligner les exigences architecturales de l'entreprise, des données et de la technologie au sein de l'organisation afin de soutenir les objectifs commerciaux souhaités. processus résultats. Ces résultats comprennent les processus de gestion des données et l'infrastructure technologique requise.
- Collaborer avec le bureau de gestion de projet DM (PMO) concevoir et mettre en œuvre des processus et des outils durables pour l'intégration des activités et des opérations courantes. architecture technologique avec architecture de données.
- Assurez-vous que le DM fonction alignement avec les objectifs commerciaux, les données et architecture technologique et stratégie.
- Veillez à ce que la gouvernance des données soit alignée sur les activités de gouvernance métier et technologique.
5.0 Gestion de la qualité des données
Le Qualité des données Gestion (DQM) un composant est un ensemble de capacités à définir profilage des données, Mesure de la qualité des données, gestion des anomalies, analyse des causes profondes et correction des données : ces capacités permettent à l’organisation de mettre en œuvre des processus au sein de l’environnement de contrôle des données, garantissant ainsi que les données sont adaptées à leur usage prévu.
- Mettre en place un système de gestion de la qualité des données (DQM) fonction au sein du Bureau de gestion des données (ODM).
- Travailler avec la gestion des données (GD) Bureau de gestion de programme (PMO) concevoir et mettre en œuvre des processus et des outils durables pour la gestion de la qualité des données (DQM).
- Exécuter les processus DQM sur les données critiques de l'entreprise. Les processus DQM comprennent profilage et classement, mesure, gestion des défauts, correction des causes profondes, remédiation.
- Mettre en place des indicateurs de qualité des données et des procédures de reporting.
- S’assurer que la gouvernance DQM est intégrée à la gouvernance des données (DG).
6.0 Gouvernance des données
Le Gouvernance des données (DG) Un composant est un ensemble de fonctionnalités permettant de codifier la structure, les lignes d'autorité, les rôles et responsabilités, le protocole d'escalade, politique Des normes, des procédures de conformité et des routines permettent d'exécuter les processus au sein de l'environnement de contrôle des données. Ceci garantit une prise de décision éclairée à tous les niveaux de l'organisation.
- Établir un fonction de gouvernance des données au sein du Bureau de gestion des données (ODM).
- Travailler avec DM Bureau de gestion de programme (PMO) concevoir et mettre en œuvre des processus et des outils durables pour la gouvernance des données, dans le cadre des activités courantes.
- Définir clairement les rôles, les responsabilités et les obligations des ressources de gestion des données, y compris celles exigées par la direction. politique.
- Définir et mettre en œuvre la structure de gouvernance des données avec des lignes d'autorité claires, une responsabilité en matière de prise de décision, des parties prenantes engagées, une supervision adéquate, des voies d'escalade des problèmes et un suivi des activités correctives.
- Élaborer et superviser le respect de politiques, de normes et de procédures de gestion des données complètes et réalisables, y compris la gestion des réponses aux audits.
- Assurer fonction de gouvernance des données est aligné sur les autres contrôles pertinents fonction politiques, procédures, normes et exigences de gouvernance en matière de sécurité de l'information, de confidentialité, architecture technologique etc.
7.0 Périmètre de l'environnement de contrôle des données
Le Environnement de contrôle des données (DCE) Ce composant est un ensemble de fonctionnalités qui, ensemble, constituent l'environnement de contrôle des données pleinement opérationnel. Opérations sur les données, gestion de la chaîne d'approvisionnement, contrôle transversal fonction alignement et collaboration architecture technologique doivent opérer de manière cohérente pour garantir la réalisation des objectifs de l'initiative DM dans toute l'organisation.
- Travailler avec DM Bureau de gestion de programme (PMO) concevoir et mettre en œuvre des processus et des routines commerciales durables pour permettre un environnement de contrôle des données réussi.
- Rassembler les composants du DM en un écosystème de données cohérent et de bout en bout.
- Suivez les meilleures pratiques actuelles en matière de gestion des données en examinant et en auditant régulièrement les capacités et leurs processus.
- Assurez-vous que tous les aspects de la gestion des données soient pris en compte pour les données critiques de l'entreprise, telles que : cycle de vie des données, de bout en bout lignée des données et les agrégations de données sont pleinement opérationnelles.
- S'assurer que le DM est aligné sur les autres contrôles fonction politiques, procédures, normes et gouvernance.
Cas d'utilisation de DCAM
DCAM possède de multiples usages au sein d'une organisation.
- En tant que cadre de contrôle bien défini
- En tant qu'outil d'évaluation
- En tant que référence du secteur
DCAM en tant que cadre
Lorsqu'une organisation adopte le standard DCAM Ce cadre introduit offre une manière cohérente de comprendre et de décrire la DM. DCAM est un cadre des capacités requises pour une initiative DM complète, présenté comme un paradigme de bonnes pratiques. DCAM contribue à accélérer le développement de l'initiative DM et à la rendre opérationnelle. DCAM Cadre:
- Fournit un cadre de gestion des données commun et mesurable
- Établit un langage commun pour la DM
- Traduit l'expertise sectorielle en normes opérationnelles
- Exigences de capacité de gestion des documents
- Propose des artefacts fondés sur des preuves
DCAM comme outil d'évaluation
Pour utiliser efficacement DCAM L'utilisation d'un outil d'évaluation nécessite la définition des objectifs et de la stratégie d'évaluation, la planification de la gestion de l'évaluation et une formation adéquate des participants afin d'établir une compréhension de base de l'évaluation. DCAM Cadre.
Les résultats de l'évaluation transforment la pratique de la gestion des données en une science quantifiable. Les avantages que l'organisation retire de ces résultats sont les suivants :
- Mesure de référence des capacités de gestion des données au sein de l'organisation par rapport à un secteur d'activité standard
- Mesure quantifiable des progrès réalisés par l'organisation pour opérationnaliser les capacités de gestion des données requises
- Identification des lacunes en matière de gestion des données afin d'établir une feuille de route priorisée pour les développements futurs, en adéquation avec les besoins opérationnels de l'organisation en matière de données et de gestion des données.
- Une attention particulière a été portée aux besoins de financement de l'initiative DM.
Guide de notation DCAM
Le guide de notation utilisé tout au long de la série DCAM Voici comment cela fonctionne. Cet outil vise à évaluer le stade d'acquisition des compétences. Il ne s'agit pas d'une évaluation de la maturité ou de l'étendue de l'application des compétences par une organisation. Le score est volontairement pair afin d'obliger l'évaluateur à faire un choix éclairé et d'éviter la tentation de sélectionner le point médian de l'échelle.
SCORE
CATÉGORIE
DESCRIPTION
CARACTÉRISTIQUES
1
Non initié
Non exécuté
Activités ponctuelles réalisées par des héros
2
Conceptuel
Étapes initiales de planification
Sujets débattus ; séances de brainstorming.
3
Du développement
Engagement en cours
Les principaux acteurs fonctionnels ont été identifiés ; les axes de travail ont été définis ; des réunions sont en cours ; la participation est croissante ; les politiques, les rôles et les procédures opérationnelles sont en cours d’établissement ; financement du projet/annuel.
4
Défini
Défini et vérifié
Utilisateurs métiers actifs ; direction de la LOB responsable du P&L impliquée ; exigences vérifiées ; responsabilités définies et attribuées ; politique Des normes existent ; des procédures sont en place ; le traçage est en cours ; les éléments de données critiques (EDC) ont été identifiés ; le respect des normes est suivi ; un financement pluriannuel et durable est prévu.
5
Réalisé
Adopté et appliqué
Approbation de la direction générale ; engagement proactif des entreprises ; responsabilités coordonnées ; politique et normes mises en œuvre ; traçabilité vérifiée ; données harmonisées entre les référentiels ; conformité auditée ; financement stratégique/d’investissement
6
Amélioré
Intégré
Intégrée pleinement à la culture opérationnelle de l'organisation dans le but d'une amélioration continue
Tableau 0.5 : DCAM Guide de notation
DCAM comme référence du secteur
Le Conseil EDM a mené une étude comparative du secteur du marketing direct en 2015, 2017 et 2020. Cette étude comparative repose sur les capacités définies dans DCAM et peut donc être utilisé dans une analyse comparative pour les organisations menant une DCAM évaluation.
La norme sectorielle ne se limite pas aux organisations qui utilisent DCAM. L’apport d’un plus large éventail de professionnels du secteur du marketing direct permet d’avoir une vision plus complète de l’état de ce secteur.
Résumé des notes de version de DCAM v2.1
Cette version de DCAM est considéré comme un majeur Cette version comporte des changements structurels. L'objectif est qu'il n'y ait pas de changements structurels. DCAM Les mises à jour seront effectuées plus fréquemment que tous les 24 mois, conformément au cycle biennal de mise à jour des données de référence du secteur. Entre deux mises à jour majeures, une mise à jour mineure pourra être déployée au maximum tous les six mois. Une mise à jour mineure pourrait inclure des modifications de langue, des clarifications, l'harmonisation du glossaire et des améliorations de l'introduction aux composants ainsi que des références aux bonnes pratiques EDMC associées. Les fautes d'orthographe et de grammaire mineures seront corrigées dès leur détection.
Le Conseil EDM assurera toujours le support de la version antérieure à la version majeure actuelle (v2.x). Autrement dit, la version 1.3 sera prise en charge jusqu'à la sortie de la version 3.1.
L'objectif de DCAM La mise à jour v2.1 comprend les éléments suivants :
- Modifications apportées aux composants du framework afin de mieux présenter un flux logique des fonctionnalités
- Introduction de nouveaux concepts nécessitant des données et une gestion des données
- Amélioration du contenu pour en accroître la clarté, la facilité d'utilisation et cohérence en matière de langue, de format et de style de présentation
DCAM v1.3 Correspondance avec v2.11 - un modèle est disponible, présentant l'alignement des composants, des capacités et des sous-capacités dans DCAM de la version 1.3 à la version 2.1.
Modifications apportées aux composants du framework
1.0 Stratégie de gestion des données et analyse de rentabilité
- Modifié en une capacité stratégique qui agrège les concepts des six autres composantes en une stratégie de synthèse
- L'idée selon laquelle une stratégie de gestion des données est composée d'une stratégie de contenu des données, d'une stratégie d'utilisation des données et d'une stratégie de déploiement de la gestion des données a été introduite.
- Analyse de rentabilité intégrée à la stratégie de gestion des données – auparavant un composant autonome avec financement Modèle
2.0 Programme de gestion des données et modèle de financement
- Programme intégré de gestion des données avec financement Modèle – auparavant dans un composant autonome avec une analyse de rentabilité
3.0 Architecture métier et de données
- Il a été précisé que la gestion des données commence par l'entreprise. processus exigences en matière de données; tenue à jour Architecture des données portée
4.0 Architecture des données et des technologies
- La responsabilité de la technologie a été clarifiée afin de répondre aux besoins de l'entreprise. processus et exigences en matière de données
5.0 Gestion de la qualité des données
- A clarifié un seul qualité des données processus qui prend en charge tous les types de données
6.0 Gouvernance des données
- L'ensemble des mécanismes de gouvernance utilisés par les autres composantes a été agrégé en une vue unique de la gouvernance.
7.0 Environnement de contrôle des données
- Il a été précisé que l'environnement de contrôle des données est l'exécution opérationnelle qui rassemble les composants de gestion des données en un écosystème de données cohérent et de bout en bout.
- Le risque lié aux données formalisé en tant que sous-capacité
Introduction de nouveaux concepts
Apprentissage automatique et intelligence artificielle – présentation des défis et des opportunités liés à l’utilisation d’outils et de méthodologies analytiques innovants tels que l’apprentissage automatique (ML) et l’intelligence artificielle (IA)
Éthique des données – L’analyse avancée des données expose une organisation à un risque accru d’utilisation abusive ; l’utilisation des données et ses conséquences ne constituent pas seulement une question juridique, mais aussi une question éthique.
Concepts d'éthique des données/d'apprentissage automatique/d'intelligence artificielle mis en correspondance avec DCAM v2.12 - un modèle est disponible un outil qui aligne les concepts d'apprentissage automatique/d'intelligence artificielle et d'éthique des données, ainsi que leurs exigences en matière de données et de gestion des données, sur les sous-capacités connexes de DCAM.
Entreprise Processus Conception – souligner le rôle de l'entreprise processus dans la définition des exigences relatives aux données, à leur gestion et au dépannage (identification et résolution des causes profondes) ; introduire l'exigence de standard de bout en bout DCAM Processus DM
Améliorations du contenu
Standard Langue – a amélioré la cohérence de l'utilisation du langage et la lisibilité
DM Glossaire d'affaires – a appliqué la discipline de l’alignement sur l’utilisation de la terminologie telle que définie dans la gestion des données EDMC Glossaire d'affaires
Guide de notation Standard Langue – Établir un langage cohérent pour décrire les six scores d'évaluation d'une sous-capacité afin de simplifier la notation par le répondant processus
Les directives de notation standard Le langage est destiné à servir de base pour comprendre comment évaluer chaque sous-capacité. Cependant, chaque sous-capacité possède ses propres directives d'évaluation spécifiques à son contexte et qui doivent combiner différents éléments. standard langue plus informations spécifiques pour vous aider à évaluer la sous-capacité.
Comment utiliser ce document - Anatomie du DCAM
Le DCAM est organisé en sept composantes principales. Chaque composante est précédée d'une définition expliquant ce qu'elle est, pourquoi elle est importante et comment elle s'intègre à la gestion globale des données. processus. Ces définitions sont destinées aux dirigeants d'entreprise et opérationnels afin de démystifier la gestion des données. processus. Les composants sont organisés en 31 capacités et 106 sous-capacités. Ces capacités et sous-capacités constituent l'essence même du système. DCAM Cadre de référence. Il définit les objectifs de la gestion des données de manière concrète et établit les exigences opérationnelles nécessaires à une gestion durable des données. Enfin, chaque sous-capacité est associée à un ensemble de critères de mesure. Ces mesures servent à évaluer votre démarche de gestion des données.
-
Composant - un groupe ensemble de capacités qui, ensemble, constituent un principe fondamental de la gestion des données ; utilisé comme outil de référence par les professionnels des données chargés de mettre en œuvre ce principe.
- Introduction – Contexte général du composant ; utilisé comme base de référence pour permettre aux spécialistes des données de mieux comprendre le composant.
- Définition – Description formelle du composant ; utilisée pour faciliter la compréhension et le langage communs en matière de gestion des données
- Portée – un ensemble d'énoncés visant à définir les limites de ce qui est inclus dans le composant ; utilisé pour comprendre et communiquer des limites raisonnables
- Proposition de valeur – un ensemble d’énoncés visant à identifier la valeur commerciale de la mise en œuvre du composant de gestion des données ; utilisé pour éclairer les différentes analyses de rentabilité du développement de l’initiative de gestion des données
- Aperçu – un contexte et une analyse plus détaillés, à un niveau pratique, afin de comprendre la mise en œuvre opérationnelle requise pour une gestion durable des données ; utilisés comme guide par les spécialistes des données concernés.
- Processus, Outils et constructions – éléments nécessaires au bon fonctionnement du composant ; utilisés comme référence et pour renvoyer vers les ressources de bonnes pratiques disponibles.
- Questions fondamentales – des questions de haut niveau mais approfondies ; utilisées pour orienter l'exploration du composant de gestion des données
-
Capacité - un groupe de sous-capacités qui, ensemble, exécutent des tâches et atteignent les objectifs fixés ; utilisées comme outil de référence par les spécialistes des données responsables de l’exécution
- Description – brève explication globale de quoi est inclus dans les sous-capacités requises pour atteindre la capacité ; utilisé dans l’évaluation processus informer le répondant de la portée de ce qu'il évalue
-
Sous-capacité – activités plus détaillées nécessaires à l’acquisition de cette capacité ; utilisées comme outil de référence par les spécialistes des données responsables de leur mise en œuvre.
- Description – brève explication de quoi est inclus dans la sous-capacité ; utilisé dans l'évaluation processus informer le répondant de la portée de ce qu'il évalue
- Objectif – objectifs ou résultats escomptés de la mise en œuvre de la sous-capacité ; utilisés comme base pour définir les exigences relatives à la gestion des données processus conception
- Conseil – un aperçu plus détaillé mais informel des meilleures pratiques comment exécuter la sous-capacité dans une perspective d'audit ; utilisée par le spécialiste des données
- Questions – Questions visant à interroger l'état actuel de la capacité/sous-capacité ; utilisées par le spécialiste des données pour éclairer l'évaluation du score
- Artefacts – Éléments requis ou preuves de conformité ; utilisés à des fins d’évaluation et d’audit, et pour accéder aux ressources de bonnes pratiques disponibles.
- Guide de notation – Informations permettant de définir un score d'évaluation ; utilisées lors de la réalisation d'un questionnaire d'évaluation
Glossaire d'affaires en gestion des données
Le Conseil EDM a développé un DM Glossaire d'affaires qui contient environ 130 systèmes de gestion de données terme noms et définitions. DCAM La version 2.1 applique ces termes de manière uniforme dans l'ensemble du document. Lorsqu'un terme est défini dans le glossaire, il est indiqué en italique et souligné dans le texte.