Nicolas LAROCHE
Président Jems Datafactory
8 Rue de L’Hôtel de Ville
92200 Neuilly-sur-Seine FRANCE
01 47 89 63 10
Analytique
API
Applications
Dataviz
Infrastructure
Institutionnels
Consultants/SSII
Intégrateurs
RCI Bank and Services déploie une vue client 360° développée inhouse.
1,77 million de dossiers de financement, 4,4 millions de contrats de services vendus, plus de 42 % des véhicules de l’Alliance financés… Le nombre de données clients dont RCI Bank and Services dispose augmente. Début 2016, la décision est donc prise de lancer le programme Big Data pour obtenir une vue consolidée sur ces données… et ainsi pouvoir adresser à chaque client le bon message via le bon canal.
Le challenge
Dans un contexte de transformation des usages des consommateurs, il devenait nécessaire pour RCI Bank and Services d’améliorer la connaissance de ses clients. Son ambition : optimiser la pertinence de ses communications clients en adressant à chacun des messages personnalisés et en leur proposant le service adéquat. Or les études menées en interne mettent en avant le manque de visibilité des données clients dispersés dans plusieurs applications de gestion.
« Nos données étaient décentralisées. Il est devenu alors indispensable de mettre en place une solution de Customer Master Data Management pour déployer une vision consolidée de nos clients », précise Jean-Charles Gemin, Chef de programme Big Data chez RCI Bank and Services. Objectifs : utiliser ces data pour réaliser des campagnes marketing pertinentes et mettre à disposition dans les espaces clients une restitution de l’ensemble de leurs données.
La solution
Le choix se porte alors sur une base de données opérationnelle répondant à des caractéristiques très précises : un haut niveau de sécurité, une accessibilité aux outils de vente en ligne, une disponibilité 24h/24, et une forte évolutivité pour pouvoir ajouter un important volume de données externes dans le strict respect de la règlementation.
À la suite d’un appel d’offres, RCI Bank and Services retient une solution bâtie autour d’un cluster Big Data Cloudera et de la base de données Cassandra de DataStax. « Nous avons donc mis en place des PoC et nous sommes parvenus à ‘’0 échec’’ avec d’excellents temps de réponse. Nous avons alors commencé à déployer le projet début 2017 au sein de DIAC, notre entité en France, qui a été retenue comme pays test pour alimenter le référentiel. » Afin de confirmer le choix de l’infrastructure, RCI Bank and Services fait appel à un cabinet pour auditer ses architectures. Résultat : le cabinet entérine complètement la décision en mettant en lumière la bonne adéquation entre les besoins exprimés par la financière de marques et les possibilités offertes par l’infrastructure Cassandra. « La validation de l’architecture est primordiale pour rendre ensuite les étapes de déploiement plus sereines. Cet audit nous a permis d’être sûrs de notre investissement. C’est un préalable essentiel avant d’entamer un tel projet pour éviter tout retard. »
Une quinzaine de personnes, composée de collaborateurs et de consultants JEMS datafactory sont alors mobilisées sur le projet pendant six mois, une grande attention ayant été portée à la préparation au paramétrage de l’environnement de développement. Une condition sine qua none pour obtenir rapidement de bonnes performances. En mars 2018, RCI Bank and Services a ainsi pu faire la démonstration de la solution déployée au salon Big Data. « La démonstration a parfaitement fonctionné. La solution correspond complètement à nos besoins ! »
Les résultats
En six mois, plusieurs millions de clusters clients sur la France et le Royaume-Uni ont ainsi été intégrés à la base de données qui s’avère d’emblée opérationnelle. Les API temps réel permettent ainsi à chaque pays de la consulter. Les données sont collectées et utilisées en total respect des règles liées à la protection des données personnelles (comme le RGPD en Europe). Une efficacité et robustesse qui ont poussé la filiale allemande à se manifester dès début 2018 pour intégrer ses propres données. « Nous avons donc pu également ajouter les informations des clients allemands dans le système en seulement deux à trois semaines. Aujourd’hui, nous disposons d’un core model dans les processus de gestion des data qui nous permet de dupliquer un pays entier dans le système. Mais chaque filiale dispose d’un système différent spécifique à ses besoins ! »
De plus, grâce à la barre de recherche, il est possible d’indiquer un nom, un email, un numéro de contrat et d’obtenir une réponse en moins d’une seconde ! « Nous avons pu brancher sur notre base de données Cassandra, un dashboard pour obtenir une vue client synthétique. Grâce à celle-ci, nous pouvons leur proposer des services complémentaires qui correspondent à leurs besoins. »
Prochaines étapes : étendre le périmètre pays pour intégrer d’ici fin 2018 les données issues de six filiales et diversifier les sources d’informations.
« L’un des principaux avantages de la solution de DataStax est qu’elle permet d’ajouter facilement et rapidement des données externes émanant des assureurs, des constructeurs, des enquêtes ou des partenaires par exemple. Nous allons également renseigner des informations complémentaires telles que les contacts quotidiens effectués avec le client, le canal de communication employé, l’objet de sa demande, ses paiements… ».
Un second sujet est de travailler à l’intégration de cette base de données opérationnelle dans l’architecture applicative de RCI Bank and Services et notamment les liens avec les systèmes Marketing de campagne, de relation client, de ventes de services ainsi que les espaces client. C’est la consommation par le plus grand nombre de systèmes de la valeur contenue dans cette base de données qui sera en retour génératrice de valeur pour RCI Bank and Services.
Autre sujet de développement futur : la visualisation des données via une technologie de type graphe. Conçue pour prendre en charge les données ayant de nombreuses relations entre elles, cette base permettra à RCI Bank and Services d’identifier et de mettre en exergue les relations cachées entre les données de RCI Bank and Services et du Groupe Renault.
De quoi alimenter de nombreuses campagnes marketing à venir !
Cas métier
Vision client 360°
Déployer une base de données opérationnelle centralisée capable d’intégrer des sources de données clients multiples et externes.
Secteur
Services financiers
Challenges
Nicolas
LAROCHE
CEO
interview
INTERVIEW
La data-centric : avoir une culture Big Data au sein de votre organisation, ça se concrétise comment ?
La data-centric est la capacité à identifier, capter, analyser et surtout percevoir la valeur de la donnée pour l’entreprise. Celle-ci est considérée comme ayant une valeur analytique : on l’utilise pour l’analyser dans un but d’aide à la décision, afin de sortir des indicateurs pertinents.
Historiquement, la BI était l’unique moyen de valoriser la donnée ; toutefois, aujourd’hui, de nouvelles technologies permettent de traiter des volumes plus conséquents, avec plus de détails et avec des historiques plus importants. JEMS datafactory a donc remis en cause les bonnes pratiques liées à la BI pour en définir de nouvelles adaptées aux ruptures technologiques liées au Big Data.
L’autre caractéristique du Data-centric, est la création d’un repository global de la donnée (datalake). On y intègre toutes les données de l’entreprise, celles qui viennent des applications internes de l’entreprise et qui allaient historiquement dans le datawarehouse, mais aussi celles qui viennent des systèmes informatiques, des lignes de production, des capteurs... L’enjeu devient de valoriser ce capital de données pour améliorer les principales fonctions de l’entreprise. Par exemple : la qualité de la chaîne de production, la rentabilité de tel type d’activité…
Le dernier point est à mettre au niveau de la donnée elle-même. Elle n’est plus uniquement considérée comme un capital de l’entreprise, mais devient core business. Elle devient le support du service qui est rendu par l’entreprise, voire même le produit ou le service qui est délivré par l’entreprise. Par exemple, notre intervention dans la création d’une application pouvant prédire le rendement, se fait par l’exploitation de données météo, satellitaires, parcellaires, types de sol… La donnée devient donc dans ce cas une fonction core, mais aussi le business même de l’entreprise.
Les entreprises d’aujourd’hui sont confrontées à une révolution industrielle, avec l’arrivée en masse de nouveaux concurrents où la donnée est au centre de leur business model, chamboulant l’intégralité de l’industrie actuelle. Les entreprises n’ont plus d’autres choix que de se tourner vers une considération data-centric de leur business, au risque de se faire dépasser par des entreprises ayant un « matériel » moins important, mais étant capables de fonctionner avec l’immatériel, c’est-à-dire la donnée pour délivrer des services avec encore plus de valeur ajoutée.
On remarque une montée en puissance de la démocratisation du Big Data auprès des utilisateurs métiers, comment intégrez-vous les métiers dans vos projets de mise en place de datalake et de développement des cas d’usages ?
Comme évoqué précédemment, le datalake devient le repository de la donnée, repository qui a pour objectif d’être au service des métiers et de diminuer le time2market de développement des applications.
Dans notre méthodologie de mise œuvre, les utilisateurs métiers sont intégrés complétement dans le projet et dès le début. Cela se caractérise par :
Même si le choix de la plateforme de stockage et de l’outil de datamanagement sont des choix structurants, nous pensons que les choix des outils front-end (WebApp, Datavisualisation…) sont avant tout des choix utilisateurs et parfois même des choix réalisés en fonction des cas d’usages.
Les données ainsi présentes dans le datalake s’organisent autour de deux couches avec des besoins et des objectifs différents :
Une couche « ingestion de données » devant respecter la neutralité de la donnée (ie sans prise en compte de règles de gestion métier)
Une couche « exposition des données & cas d’usages » prenant en compte les spécificités de chaque métier et dont le stockage doit être adapté à l’usage qui en est fait.
Cela a aussi des répercussions sur les équipes de développement en créant des équipes différentes avec des responsabilités propres :
Une équipe « Core Team » qui doit mettre en place l’ingestion de données en privilégiant l’état de l’art. Elle travaille donc sur des cycles courts avec des périmètres restreints, en respectant les règles sans générer de dette technique.
Une équipe « Feature Team » qui doit permettre de mettre en place les cas d’usages en répondant au plus tôt aux utilisateurs par la mise en place d’un MVP par exemple. Elle travaille donc directement avec les métiers, avec une démarche agile qui prend en compte les retours utilisateurs générés par le besoin d’être démonstratif rapidement.