Aller au contenu principal
Finance data architecture
BNP Paribas BNP Paribas

Quand la réussite d'une marketplace génère plus de chaos que l'échec qu'elle devait éviter

Avant

15

référentiels désynchronisés, des millions d'artefacts orphelins

Après

2,5 M€

économisés

2,5 M€

économisés

15

référentiels synchronisés

3

continents couverts

En 2016, BNP Paribas CIB lance une marketplace de services IT pour moderniser l'accès aux ressources cloud internes. Le pari est gagné trop vite : face au succès massif, le périmètre s'étend à l'ensemble des métiers, à l'ensemble des services, à l'ensemble des continents. Des milliers de personnes consomment la plateforme depuis Paris, New York, Singapour. Des millions d'artefacts sont générés. Et quelque part dans ce foisonnement, 15 référentiels de données commencent à raconter des histoires différentes

SITUATION AVANT

Baseline operationnel
15 référentiels de données divergeant silencieusement, des millions d'artefacts provisionnés sans gouvernance coordonnée, chaque fournisseur adhérent avec ses propres conventions de nommage et cycles de vie.
Equipes impactees
150 personnes consommant la plateforme depuis Paris, New York et Singapour — toutes travaillant à partir de données potentiellement incohérentes selon leur localisation.
Couts caches
2,5 M€ identifiés en coûts liés à la désynchronisation des référentiels et aux artefacts orphelins non réconciliés.
Pourquoi non resolu avant
La dérive s'est construite progressivement avec le succès de la plateforme — personne ne ment, tout le monde a raison dans son périmètre. La complexité n'est devenue impossible à ignorer qu'une fois atteinte une masse critique d'artefacts et de fournisseurs.

L'HISTOIRE

En 2016, BNP Paribas CIB lance une marketplace de services IT. L’idée est simple, l’ambition modeste : offrir aux équipes internes un catalogue de ressources cloud structuré, un guichet unique pour consommer des services sans passer par des tickets manuels et des délais à rallonge

Le pari est gagné. Trop bien gagné

En quelques mois, le succès déborde les frontières du projet initial. Le périmètre s’étend à tous les métiers, tous les services internes, toutes les entités du groupe. Des milliers de personnes consomment la plateforme depuis Paris, New York, Singapour. Des millions d’artefacts sont provisionnés, modifiés, dépréciés — et enregistrés dans 15 référentiels distincts qui, faute de gouvernance coordonnée, commencent à diverger silencieusement

C’est la rançon du succès : plus une plateforme est adoptée rapidement, plus la dette de qualité de données s’accumule vite. Chaque nouveau fournisseur adhérent apporte ses propres conventions de nommage, ses propres cycles de vie, ses propres définitions des entités partagées. Personne ne ment. Tout le monde a raison dans son périmètre. Et pourtant, les 15 référentiels ne racontent plus la même histoire

Nobori Partners intervient à deux niveaux distincts. D’abord au sein de la direction de l’équipe en charge de définir, implémenter et opérer les produits de la marketplace — au cœur des décisions produit et techniques. Ensuite, quand l’ampleur de la dérive données devient impossible à ignorer, comme maître d’œuvre de l’audit et du plan de remédiation

L’audit commence par un travail d’archéologie. Il ne s’agit pas de lister des anomalies — n’importe quel outil ETL peut le faire. Il s’agit de comprendre pourquoi le système en produit structurellement : cartographier les interactions entre fournisseurs via la méta-orchestration, reconstituer la généalogie de chaque artefact, identifier les points de friction où les référentiels se désynchronisent. La modélisation révèle une architecture de la complexité : des dépendances en cascade, des cycles de vie qui ne se parlent pas, des golden records qui n’existent nulle part

Vient ensuite la phase de remédiation. Pour chaque entité critique, un golden record est défini — une version de référence, unique, vers laquelle tous les référentiels convergent. Un datalake unifié absorbe la complexité multi-sources via S3 et Spark. Des pipelines NiFi et Airflow automatisent les flux de réconciliation. Mais le gain le plus tangible vient de la suppression maîtrisée des artefacts obsolètes : grâce à un processus de décommissionnement en plusieurs étapes — identification, qualification, validation métier, suppression — plusieurs milliers de machines virtuelles sont supprimées en toute sécurité. Sans ce processus rigoureux, personne n’osait toucher à ces artefacts de peur de casser quelque chose

Mais la remédiation n’est qu’une victoire temporaire si personne ne surveille ce qui vient après. La dernière phase industrialise l’observabilité : des dashboards QlikSense couvrent l’ensemble des 15 référentiels, chaque indicateur de qualité est visible à J+1, chaque anomalie de synchronisation est détectée avant qu’elle n’impacte les utilisateurs à Paris, New York ou Singapour

Résultat : plusieurs milliers de machines virtuelles supprimées grâce à un processus maîtrisé, 2,5 M€ de coûts réduits, une gouvernance des données qui tient dans la durée, et des milliers de personnes sur 3 continents qui travaillent enfin à partir de la même vérité

NOTRE APPROCHE

4 étapes pour y arriver

1

Membre du board fournisseur — Marketplace CIB

Intégré au board fournisseur dès la conception, Nobori définit les services à implémenter, participe aux ateliers de spécification et assure la cohérence entre la vision produit et la réalité technique. Chaque service conçu ici devient la brique d'une plateforme consommée par 150 personnes sur 3 continents — chaque décision d'architecture a une portée mondiale

ReactNodeJSPythonQlikSenseElastic
2

Audit complet — cartographie du chaos

Face à 15 référentiels qui divergent silencieusement, Nobori conduit un audit exhaustif : modélisation du service, identification des interactions multi-fournisseurs via méta-orchestration, reconstitution de la généalogie de chaque artefact. L'enjeu n'est pas de trouver des anomalies — c'est de comprendre pourquoi le système en produit structurellement

S3NiFiAirflow
3

Plan de remédiation — remettre les données à la vérité

La cartographie terminée, place à la chirurgie : golden record pour chaque entité critique, datalake unifié pour absorber la complexité multi-sources, flux de remédiation automatisés avec NiFi et Airflow. Le chaos de la croissance laisse place à une donnée de référence — une, fiable, synchronisée sur 3 continents

SparkS3Elastic
4

Industrialisation de l'observabilité — voir avant que ça casse

La remédiation serait vaine sans les yeux pour détecter la prochaine dérive. Nobori déploie des dashboards d'observabilité QlikSense couvrant l'ensemble des 15 référentiels : chaque anomalie de qualité est visible à J+1, chaque indicateur de synchronisation permet de détecter les dérives avant qu'elles n'impactent les utilisateurs à Paris, New York ou Singapour

QlikSenseElastic

L'ETAPE LA PLUS DURE

Réconcilier 15 référentiels sans interrompre une plateforme consommée sur 3 continents

L'audit devait identifier non pas des anomalies isolées, mais comprendre pourquoi le système en produisait structurellement — cartographier les interactions entre fournisseurs via la méta-orchestration, reconstituer la généalogie de chaque artefact.

Ce qu'on a fait

Golden record défini pour chaque entité critique, datalake unifié via S3 et Spark, pipelines NiFi et Airflow automatisant les flux de réconciliation. Déploiement d'une observabilité industrialisée couvrant les 15 référentiels en temps réel.

Ce qui aurait pu echouer

Une remédiation sans observabilité post-déploiement n'aurait été qu'une victoire temporaire — la prochaine dérive aurait été invisible jusqu'à impact utilisateur.

RÉSULTATS

L'impact mesurable

2,5 M€ économisés
15 référentiels synchronisés
3 continents couverts

15 référentiels réconciliés. Plusieurs milliers de machines virtuelles supprimées grâce à un processus maîtrisé de décommissionnement en plusieurs étapes. 2,5 M€ économisés. Observabilité industrialisée à J+1 sur l'ensemble des référentiels

Réserver un appel découverte