MICROPOLE

David FALA

Directeur Practice Big Data et Data Intelligence

+33(0)1 74 18 74 18

www.micropole.com

Analytique

API

Applications

Dataviz

Infrastructure

Institutionnels

Consultants/SSII

Intégrateurs

LA DATA INTELLIGENCE, LA NOUVELLE VALEUR DU BIG DATA

 

Pour faire face à la suprématie que les champions de la nouvelle économie ont souvent bâtie sur l’exploitation de données massives, beaucoup d’entreprises sont en quête du business model de rupture qui leur permettra de trouver leur salut. Le véritable challenge auquel doivent faire face ces entreprises est clair : innover et se réinventer pour rester compétitives.

 

Cependant, les entreprises sont confrontées à un vrai dilemme face à l’avènement des technologies Big Data qui promettent de rendre intelligibles et intelligents tous types de contenus : faut-il comme le prétendent certains, faire table rase du passé et des dizaines d’années de reporting, de statistiques, de business intelligence et de datawarehouse, pour les remplacer par un SI Hadoop-centric, dopé au machine learning et nourri sans discernement de n’importe quelles données ?

 

La réponse des équipes Big Data de Micropole est sans appel : la valeur n’est pas dans l’accumulation de technologies et de données mais dans le traitement raisonné, légal et éthique de toutes les données utiles.  A l’ère de la gouvernance nouvelle entre les métiers et l’informatique, qui rend l’entreprise agile dans la valorisation de son patrimoine, et alors même que la technologie ambiante rend presque tout envisageable, la clé de la performance réside dans une démarche globale de DATA INTELLIGENCE, et il faut que chaque entreprise en pose les fondations.

Pour ce faire, Micropole :

  • Sensibilise et accompagne ses clients sur la mise en œuvre de cette nouvelle gouvernance (Data Office, outils, méthodes, utilisation des techniques collaboratives).
  • Aide à construire les organisations de test-and-learn dotées de moyens techniques, comme les Datalabs, pour permettre la découverte de nouvelle valeur au traitement de la donnée.
  • Encourage et supporte les intégrations de Datalake dans les infrastructures.
  • Forme et organise les nouvelles équipes de DataScience en fonction des besoins réels et des compétences évaluées.
  • Assiste à la découverte et l’incorporation dans le SI de données très volumineuses internes (logs, IoT, …) et externes (opendata, clouds divers, fournisseurs de data services divers …).
  • Étend la performance souvent critiquée de la BI en mettant en œuvre tous les nouveaux concepts d’Analytics nécessaires à une organisation en fonction de sa maturité et de ses objectifs.

 

ET VOUS, OÙ EN ÊTES-VOUS DANS VOTRE TRANSFORMATION DATA INTELLIGENTE ?

PARLEZ-EN A NOS #DATA ADDICTS !

 

 

BNP Paribas Wealth Management

Christian

Blanc

Directeur des Systèmes d’Information

interview

« Nous sommes poussés par les métiers à fournir des solutions en 3-4 mois, là où on met d’habitude 16 – 20 mois. Alors, pour garantir la mise à disposition de données propres cohérentes et de qualité, on s’appuie sur des notions de DataLake et de traitement au sens BigData de la donnée. »

 

Christian Blanc, vous êtes le Directeur des Systèmes d’Information de BNP Paribas Wealth Management, une des premières Banques de Gestion Privée du marché. Pouvez-vous nous parler de vos enjeux et projets BIG DATA?

 

Notre système d’information est complexe et s’est construit au cours du temps par couches successives. Notre maîtrise des données doit répondre à deux exigences principales : le contrôle financier et la conformité règlementaire d’une part ; la performance analytique et le time-to-market pour nos métiers, d’autre part.

Dans le cadre du plan stratégique de transformation du groupe mené par la Direction de BNP Paribas, nous avons entamé avec Micropole un indispensable chantier de cohérence autour de nos référentiels d’entreprise, et de notre référentiel clients en particulier. Lorsque la vague de la mode Big Data a commencé à déferler sur les métiers du marketing, les directions fonctionnelles ont immédiatement poussé à investir massivement sur ces nouvelles technologies, avec un objectif : connaitre toujours mieux nos clients. Passés les premiers POC technologiques avec notre partenaire Micropole et la DSI, les métiers ont tout d’abord peiné à déterminer des pistes de développement concrètes. Faute d’urgence, nous avons décidé de nous consacrer au sujet DATA en global afin de tirer parti du périmètre de données déjà riche et hétérogène du Customer Journey Analysis. Même si cela ne représentait pas des volumes phénoménaux, ce projet nous a permis d’envisager une analyse systématique et sémantique de tous types de données grâce justement aux méthodes et techniques issues de la recherche Big Data.

 

Pour ce faire, le concept de Data Lake proposé par Micropole, permettait d’homogénéiser les données et d’offrir un point de concentration pour toutes les données et contenus « chauds et froids » du périmètre client. Les techniques analytiques du monde Big Data ont ainsi permis d’envisager d’autres moyens pour tirer plus de valeur des données que la classique BI que nous utilisons depuis 30 ans.

 

 

Vous avez donc décidé de rationaliser les projets en mutualisant les captures des différents systèmes ciblés au sein d’un gisement de données unique. Comment vous y prenez-vous ?

 

Il y a 3 niveaux de réponse à cette question : la technique, la méthodologie, l’organisation. Nous avons ainsi classiquement utilisé la méthode du Data Lake. L’opération a été technique mais pas si compliquée lorsque l’on s’appuie sur les bonnes compétences d’équipes bien organisées. La méthodologie employée a été guidée par deux principes que sont : Agilité et Gouvernance.

Le Data Lake a été créé sur un périmètre fonctionnel qui couvre les besoins actuels autour du Customer Journey, et prévu pour augmenter au fur et à mesure des nouveaux périmètres à couvrir. L’exigence d’agilité demande de procéder par itérations continues.

 

Ce périmètre, actuel et futur, a été défini avec les métiers sur la base des sources de données qu’il importe de concentrer pour répondre à leur besoin. Tout ce qui aujourd’hui entre dans le Data Lake est documenté techniquement. Les métiers sont donc sollicités en permanence pour documenter les données et leurs usages.

C’est un véritable travail de gouvernance, crucial pour la capitalisation autour du « patrimoine des données ». Enfin, au niveau de l’organisation, le Chief Data Officer et le Data Custodian ont dirigé les travaux avec leurs correspondants, l’un du côté fonctionnel et l’autre en contrepartie technique.

 

 Au niveau opérationnel, l’organisation d’ateliers de valorisation rapide des données, dans des modèles collaboratifs de type « Pizza Team », est très efficace dès lors que les données nécessaires sont immédiatement disponibles. On fait alors évoluer le rapport classique MOA/MOE, avec un modèle plus adapté à l’implication multipartite, -business, compliance, juridique, informatique, … -, et au résultat rapide, qui remet en question fortement nos méthodes de travail classiques. Avoir sous la main les données, les outils analytiques et les bonnes ressources internes et externes, nous permet d’atteindre en permanence nos deux objectifs clés.