« Notre objectif n’est pas d’automatiser pour le plaisir d’automatiser, mais d’exploiter l’automatisation et les données afin d’optimiser le processus et de créer une réelle valeur ajoutée. » – Wouter van Peteghem, Managing Partner chez Alluvion.
Tout le monde s’accorde à le dire : la qualité des données est essentielle. Pourtant, dans de nombreuses organisations, l’amélioration concrète de cette qualité reste au stade des bonnes intentions. La vraie question n’est donc pas de savoir si vous souhaitez de meilleures données, mais si votre organisation est réellement prête à structurer, garantir et maintenir durablement l’ excellence en matière de données de référence.
Dans un récent podcast, nous avons échangé avec Terumo, en tant que client final, et Alluvion, en tant que partenaire d’intégration, au sujet de leur parcours vers le « First Time Right » dans SAP. L’enseignement le plus précieux ne portait pas tant sur la technique que sur l’approche adoptée : commencer modestement, rendre les progrès mesurables, clarifier la responsabilité, puis accélérer.

Pourquoi l’ excellence en matière de données de référence doit devenir une priorité
Dans de nombreuses organisations, les mêmes problèmes reviennent sans cesse : doublons, incohérences, corrections manuelles, processus qui s’enlisent… et des équipes qui travaillent chacune avec leur propre version de la vérité. C’est frustrant. Mais dès que vous commencez à automatiser, la situation devient surtout risquée : au lieu de résoudre ces erreurs, vous les diffusez simplement plus vite.
Chez Terumo, cela s’est traduit très concrètement dans le processus d’onboarding des fournisseurs. Entre les formulaires, les échanges d’e-mails en chaîne et la saisie manuelle, le processus était lent et sujet aux erreurs. L’objectif n’était pas simplement d’obtenir un modèle de données plus élégant, mais de mettre en place un processus plus rapide, plus fiable et plus facile à maîtriser.
Regardez également le webinaire: Du premier coup dans SAP.
Étape 1 : ne pas commencer par les outils, mais par la maturité
Utiliser un outil pour résoudre un problème de données a peu d’impact si l’organisation qui l’entoure ne change pas. C’est pourquoi l’approche a d’abord consisté à évaluer la maturité en matière de données. Non pas pour attribuer une note, mais pour identifier la première étape réellement réalisable.
À qui appartiennent les données de référence ? Comment le business et l’IT collaborent-ils ? Les définitions sont-elles correctes et complètes ? Les goulots d’étranglement peuvent-ils être mesurés, ou tout repose-t-il encore sur l’intuition ? Sans cette base, un système devient rapidement une couche supplémentaire de complexité.
Remarque importante : de nombreuses organisations pensent être déjà avancées simplement parce qu’elles disposent d’un outil MDM. Pourtant, dans la pratique, l’on constate souvent que la propriété des données est bien plus floue qu’elle ne devrait l’être.
Étape 2 : choisir un processus qui fait vraiment mal
La leçon la plus pragmatique ? Commencer là où le problème est tangible. Pas avec une ambition abstraite du type « nous voulons de meilleures données », mais avec un processus concret qui, aujourd’hui, fait perdre du temps ou dégrade la qualité.
Chez Terumo, il s’agissait de l’onboarding des fournisseurs. Un KPI s’est rapidement imposé comme référence : le délai de traitement entre la demande, la création et l’approbation dans SAP. Grâce à la numérisation et à une automatisation accrue, ce délai a été significativement réduit – un gain qui prend tout son sens lorsqu’on le rapporte aux volumes traités.
Il est essentiel de souligner que cette évolution ne s’est pas faite en une seule étape. Les améliorations ont été apportées par itérations, sur plusieurs années. Cela exige de la discipline, une communication claire et une gestion réaliste des attentes.
Étape 3 : concevoir correctement du premier coup, plutôt que corriger après coup
Chez Terumo, la qualité des données est devenue un point de départ, et non une étape de contrôle a posteriori. Concrètement, cela signifie que les données sont vérifiées et enrichies dès leur création ou leur modification, plutôt que corrigées une fois les erreurs déjà présentes dans le système.
Un élément clé de cette approche a été l’identification univoque. Grâce à l’utilisation d’un identifiant unique, les entités pouvaient être reconnues de manière plus fiable, ce qui a permis de réduire fortement les doublons. Une base indispensable pour des processus plus stables et plus cohérents tout au long de la chaîne.
Étape 4 : intégrer des données externes fiables sans sous-estimer la complexité
L’enrichissement à partir de données externes peut sembler simple. En réalité, il faut composer avec des particularités locales : structures d’adresses propres à chaque pays, formats de codes postaux différents, variations dans les styles d’écriture… Dans ce contexte, la cartographie des données a été clairement identifiée comme un point d’attention majeur.
La solution a consisté à ajouter une logique spécifique par pays, afin d’assurer une correspondance correcte entre les données sources et le contexte SAP. Cela illustre bien que l’ excellence en matière de données de référence ne relève pas uniquement de la donnée elle-même, mais aussi de l’intégration et des processus qui l’encadrent.
Et un rappel important reste valable : les données externes ne constituent pas une vérité absolue. Elles représentent souvent la meilleure source disponible, mais c’est votre organisation qui doit définir comment gérer les exceptions, et surtout, qui tranche en cas de doute.
Étape 5 : susciter l’adhésion grâce à une valeur démontrable
L’adhésion ne se crée pas en répétant que la qualité des données est importante. Elle se construit lorsque les équipes constatent concrètement que leur travail devient plus simple, plus rapide ou plus fiable.
C’est pourquoi la valeur a toujours été associée à des résultats tangibles : moins de tâches manuelles, des délais de traitement plus courts, une meilleure visibilité sur les goulets d’étranglement, ainsi qu’une auditabilité et une traçabilité renforcées. Dans le même temps, la question de la propriété reste essentielle au niveau du management. Il ne s’agit pas d’une action ponctuelle, mais d’un véritable parcours qui demande de la continuité.
Étape 6 : construire une solution durable et évolutive
Un piège fréquent consiste à développer rapidement une solution qui fonctionne pour un seul processus. Quelques années plus tard, on se retrouve avec du sur-mesure difficile à maintenir et à faire évoluer. C’est pourquoi un principe clair a été appliqué : conserver un noyau aussi standard que possible, et créer de la valeur grâce à des intégrations autour de celui-ci.
Cette approche permet d’éviter que la solution ne repose sur des personnes clés ou sur des configurations trop spécifiques.
Étape 7 : avancer par étapes et ne pas courir après un objectif final
L’ excellence en matière de données de référence n’est jamais « terminée ». En revanche, elle peut se structurer en phases logiques. D’abord, mettre de l’ordre dans les données de base et stabiliser l’automatisation des processus. Ensuite, intégrer des sources fiables pour réduire le travail manuel. Puis, renforcer progressivement l’approche avec des techniques comme l’IA, par exemple pour détecter les doublons ou repérer les incohérences.
Sans base solide, l’IA ne fait qu’accélérer les erreurs. Avec une base robuste, elle devient un véritable levier pour fiabiliser et renforcer les processus.