ACCENTURE analytics

Patrick Darmon

Directeur d’Accenture Analytics France & Benelux

+33 6 81 60 78 11

www.accenture.com/digital-index

Analytique

API

Applications

Dataviz

Infrastructure

Institutionnels

Consultants/SSII

Intégrateurs

CRÉDIT AGRICOLE CONSUMER FINANCE – Mise en Place et Industrialisation
d’un DataLake en « Data Backbone »

 

Contexte et Enjeux

Crédit Agricole Consumer Finance est un acteur majeur du crédit à la consommation en Europe. Ancré au sein du groupe Crédit Agricole S.A., il occupe sur le marché français une position de premier plan sur l’ensemble des métiers du crédit à la consommation.

« CA-CF 3.0 » est son plan de transformation digitale, dont l’une des ambitions est de devenir une entreprise « Data Centric », notamment par l’implémentation d’un Datalake. Cette plateforme vise à répondre aux nouveaux enjeux métiers comme la personnalisation des relations client, en valorisant les données dans l’entreprise, et en facilitant l’implémentation d’usages opérationnels, décisionnels et DataScience.

 

Présentation du Projet

Le projet s’est déroulé en 2 temps.

 

1) Implémentation de la plateforme BigData (infrastructure et logiciels), en collaboration avec SILCA (entité groupe spécialisée).

La plateforme est construite autour d’un cluster MapR (Hadoop), d’HPE Vertica pour BDD Analytics, et d’Elasticsearch pour BDD indexées. Talend complète le dispositif, notamment parce qu’il est déjà utilisé dans les projets BI par les Centres de Services Accenture. Avec ses administrateurs qualifiés et les pratiques standardisées, l’utilisation de Talend dans ce contexte a permis de faciliter la transition des équipes internes issues de la BI traditionnelle vers l’univers BigData, en simplifiant et en accélérant les développements de traitements distribués, déployés industriellement.

 

2) Industrialisation en un « Data Backbone » pour accélérer les projets Métiers. Cette industrialisation a été opérée suivant la méthodologie « SCRUM Agile ». Elle s’est déclinée concrètement en :

1. définition des capacités nécessaires pour remplir les objectifs du « Data Backbone » ;

2. priorisation/planification de celles-ci sur une roadmap ;

3. réalisation des chantiers associés.

 

 

 

 

Le Rôle d’Accenture

A. Priorisation et Réalisation des chantiers d’Industrialisation.

Une équipe SCRUM mixte (architectes internes, exploitants SILCA, experts BigData Accenture), définit l’architecture et accompagne les projets Métiers, mais surtout construit un SOCLE d’assets : normes (nommages, arborescence applicative...)

 • procédures (livraison, déploiement, sauvegarde & restauration…)

 • référentiels (flux données, catalogue données, volumes…)

 • composants applicatifs génériques (ingestion, gestion logs, gestion tables, purge fichiers…)

 

B. Implémentation des projets Métiers.

Pour permettre des délais courts et des coûts maîtrisés, Accenture a proposé un dispositif ambitieux : une équipe d’expertise à Paris, appuyée par nos centres de services de Nantes et de l’île Maurice. En huit mois, les résultats étaient : 8 projets en Production : Monitoring Web, Ingestion données DMP, Segmentation client, Calcul Règles Métiers...
• une vingtaine prévus : Décommissionnement de DWH/Datamarts, souscription par réseaux sociaux, Data Lab...

 

Retour d’expérience

Plusieurs facteurs sont clefs pour la réussite de projets BigData.

 

Investir sur l’Expertise Technique : C’est le prérequis des projets BigData : il faut intégrer très tôt de l’expertise pointue, capable de discuter les options d’architecture, de prototyper rapidement, et de développer les traitements les plus complexes.

L’optimisation des traitements SPARK est ainsi un domaine particulièrement complexe, pour lequel Accenture a développé une expertise spécifique d’identification et d’optimisation des lenteurs. Sur certains traitements, les performances ont été améliorées de 30% à 60%.

 

Un SOCLE industrialisé : Ce type de projet, dans un contexte de relative nouveauté (beaucoup d’Open Source, briques logicielles faiblement intégrées…), souffre généralement d’un manque d’industrialisation. Il est donc important de construire très tôt un SOCLE d’assets qui : assure plusieurs niveaux de cohérence (technique, méthodes, données) entre les différents projets

 • réduit leurs délais et coûts pour rapidement créer de la valeur Métier (au-delà des capacités technologiques).

 • simplifie les activités de maintenance et de supervision.

Crédit Agricole Consumer Finance s’est ainsi appuyé sur des outils comme Talend et sur des équipes de Delivery expertes comme celles d’Accenture.

 

Une équipe Mixte : Le passage aux technologies BigData s’accompagne aussi d’une transformation des compétences internes (nouvelles technologies, méthodes Agile…). L’organisation en équipe mixte, ici CA-CF / Accenture, est un facteur de succès qui :

 • permet la co-construction dans un contexte technologique délicat et évoluant très vite

 • garantit la pérennité en favorisant la montée en compétences des ressources internes

 • fluidifie intégration et administratif par un accès direct aux ressources internes (interlocuteurs clefs, documents legacy, procédures...), car les nouvelles architectures BigData sont souvent sources de blocages (données, flux, règlementation...)

 

Priorisation des Projets Métiers

C’est d’abord par les projets que le couple « Product Owner » /

« Scrum Master » doit prioriser l’ingestion de nouvelles données, suivant une approche « MVP » incrémentale. On évite ainsi l’écueil du Datalake « à tout prix » pour fournir une valeur métier rapide : c’est au fur et à mesure des projets qu’on va ingérer de nouvelles données pour constituer un SOCLE élargi avec des données cohérentes, gouvernées et stockées de manière optimisée.

 

Enfin, les bons résultats des premiers projets en Production permettent de créer une dynamique positive, et incitent de nouvelles directions métiers à se lancer.

ACCENTURE analytics

Jean-François

GUILMARD

Responsable Big Data Analytics France

interview

Les algorithmes de reconnaissance visuelle s’améliorent très vite et l’analyse automatique de ce Big Data vidéo est une spécialité en plein boom. Accenture accélère ainsi l’industrialisation et la commercialisation de son offre Vidéo Analytics Service Platform (VASP)

 

Pourquoi cette accélération sur la Vidéo Analytics ?

Nos centres de R&D, notamment ceux de Sophia Antipolis et Singapour, travaillent depuis plusieurs années sur le développement de cette plateforme, qui rencontre une demande en forte croissance. Une part de cette demande vient d’abord des villes et des services publics qui investissent massivement dans la supervision automatisée des caméras placées dans les lieux publics, afin de lutter contre la criminalité et le terrorisme. Par ailleurs, il est certain que les travaux récents sur le deep learning ont considérablement amélioré les capacités de l’analyse vidéo, aussi bien sur la qualité et la précision des algorithmes que sur l’extension du champ des possibles. Enfin, la démocratisation de l’intelligence artificielle libère la créativité des entreprises qui envisagent désormais le traitement des vidéos par l’IA comme un outil mature, ce qui ouvre de nouveaux cas d’usage, y compris dans des secteurs assez éloignés de la sécurité.

 

Pouvez-vous nous décrire en quelques mots l’offre Accenture « Vidéo Analytics Service Platform » ?

Cette plateforme pré-intègre toutes les briques technologiques nécessaires à la récupération des flux vidéo, leur traitement de façon scalable par des modules spécialisés et évolutifs (par exemple : lecture de plaque, reconnaissance d’objets ou de sons…), le traitement des alertes et métadonnées générées, et enfin la présentation de ces évènements, par exemple sur une carte. Entièrement virtualisées en containers Docker, toutes ces briques peuvent s’installer sur un cloud public, privé, ou directement dans l’environnement de nos clients : les flux vidéo requièrent souvent de rester sur un réseau isolé pour des contraintes de sécurité. Accenture Digital a récemment intégré cette plateforme au sein de son offre « Analytics as a Service » : Accenture Insight Platform (AIP). Elle bénéficie ainsi des standards de scalabilité, supervision, d’un provisionnement automatisé, mais aussi du haut niveau de sécurité que propose AIP.

 

En quoi se différencie-t-elle des produits concurrents qui existent sur le marché ?

Justement ce n’est pas un produit ! Notre conviction, c’est que les modules de traitement de la vidéo s’améliorent tellement vite que seule une plateforme évolutive permet de proposer une solution qui reste à jour. Par exemple, dans deux ans, le meilleur module de reconnaissance de plaque d’immatriculation ne sera sans doute plus celui d’aujourd’hui. Construire un produit à partir d’algorithmes « maison », n’est plus compatible avec la vitesse d’évolution de ce marché. VASP pré-intègre donc des modules open source, des modules commerciaux, voire des modules « maison » lorsqu’il n’existe pas de solution prête à l’emploi. Dans de nombreux cas, nous construisons également des modules spécifiques pour nos clients. L’architecture interne de la plateforme et les différents algorithmes ont également été particulièrement étudiés pour optimiser les performances ce qui en fait une solution assez peu gourmande en CPU/GPU ou mémoire. Un serveur peut par exemple gérer jusqu’à 16 flux vidéo.

 

Et quelle est la part de ces développements spécifiques sur vos projets ?

La plateforme offre un cœur robuste et stable, avec de nombreux algorithmes performants qui ne nécessitent pas de développement spécifique. Néanmoins il faut parfois ré-entrainer les réseaux de neurones pour s’adapter aux configurations spécifiques (lumière, angle, qualité de l’image), ou développer un algorithme particulier pour répondre à une demande qui ne serait pas standard. Certains clients peuvent aussi vouloir développer leur propre réseau de neurones pour un module qui leur serait spécifique : la plateforme peut intégrer ce modèle, simplifiant la mise en œuvre du deep learning qui est encore peu standardisée.

 

Avez-vous déjà quelques références dont vous pourriez parler ?

Le secteur qui a le premier investi dans notre solution est celui de la sécurité des villes et des manifestations, et nous avons plusieurs retours d’expérience publiques dans ce domaine, pour la ville de Singapour ou la police de la ville de Mons en Belgique par exemple. En France, en collaboration avec la Police Nationale, le Service des Technologies de l’Information de la Sécurité Intérieure, ST(SI)² a été parmi les premiers à tester la plateforme lors de la Braderie de Lille. En proposant une nouvelle solution technologique en appui aux policiers, en améliorant son système actuel et en permettant une prise de décision en temps réel, le ST(SI)² a non seulement contribué à améliorer la sécurité publique, mais également avancé dans la construction des dispositifs de sécurité publique de demain.

 

Quels sont les différents cas d’usage possibles de cette offre ?

Ils vont bien au-delà de la surveillance des villes. Nous avons plusieurs projets en cours dans des secteurs très différents. Par exemple en grande distribution : la reconnaissance démographique des clients (sexe, âge, etc.) et l’analyse de leurs comportements permettent de revoir l’agencement d’un magasin pour l’optimiser par rapport aux comportements types.

Quatre grands domaines restent à court terme les plus prometteurs pour VASP : la ville intelligente, la distribution (agence, centre commerciaux, boutiques…), les transports (gares, aéroports…), et la sécurité (Police, gestion des frontières, ou des infrastructures critiques.

 

Vous souhaitez en savoir plus ? Vous souhaitez rejoindre notre équipe de Data Scientists, mettre en pratique vos compétences Deep Learning jusqu’à la mise en œuvre de vos algorithmes ? Venez nous voir au Salon Big Data, ou contactez-nous !

 

Jean-François GUILMARD

j.guilmard@accenture.com

+33 6 32 27 70 22