SYNALTIC GROUP

Robert BOUNHENG

Directeur du développement

+33(0)1 55 28 89 40

www.synaltic.fr

Analytique

API

Applications

Dataviz

Infrastructure

Institutionnels

Consultants/SSII

Intégrateurs

Synaltic met à disposition un outil géo-décisionnel personnalisé et performant pour Bouygues Immobilier : MyGeoMarket.

 

Bouygues Immobilier, filiale du Groupe Bouygues, développe en France, en Europe et au Maroc des projets de logements, d’immeubles de bureaux ou de commerces et aménage des quartiers durables. Publicis Média, nouvelle entité de Publicis, est l’agence média et conseil en communication locale et digitale
de Bouygues Immobilier. Synaltic est spécialiste du data management, expert en open source, en SIG
et en développement d’applications à façon et de plateformes data.

 

Le projet a été proposé à Bouygues Immobilier par Marien Lavoir, directeur commercial au sein de Publicis Media, à partir d’une conviction simple et largement partagée chez Bouygues Immobilier : une analyse précise de la géographie des ventes de Bouygues Immobilier permettrait d’améliorer significativement
la précision et la qualité des recommandations de communication locale et donc in fine d’améliorer le ROI des actions media.

 

Ce dernier, également co-enseignant aux côtés de Meriadeg Jaouen, expert cartographie et SIG de Synaltic, au sein du Master Géomatique G2M de Paris 8, se tourne alors naturellement vers Synaltic. « Je cherchais un partenaire suffisamment agile pour travailler en design thinking avec une cellule marketing, ayant
une connaissance poussée des systèmes d’information géographique et proposant des performances suffisantes pour une expérience utilisateur optimale ».

Fort de son expérience dans la mise en place de Data Platform, Synaltic a accepté le challenge
et développé, en quelques mois et en collaboration avec les équipes métiers de Bouygues Immobilier, MyGeoMarket, une application géo-décisionnelle, simple d’utilisation et intuitive.

L’outil permet de sélectionner une zone géographique précise et d’y faire apparaître instantanément un certain nombre de critères issus des données ouvertes de l’INSEE (lieu, CSP des habitants, tranches d’âge, composition des ménages, etc.) et de les croiser aux données propres à Bouygues Immobilier, extraites
de son système d’information (prospects/réservataires), ainsi qu’à des données consolidées fournies
par Publicis Media.

 

Données géographiques, open data, CRM, données consolidées, toutes dans le data lake !

 

MyGeoMarket repose sur une base de données PostgreSQL – choisie pour sa robustesse et sa puissance – ainsi que son extension de traitement de données géographiques PostGIS et un backend Node.JS.
Du côté de l’interface utilisateur, AngularJS et l’API Google Maps lui confèrent une simplicité d’utilisation
et un rendu visuel optimal.

 

L’utilisateur peut accéder aux informations soit en sélectionnant une commune soit en entrant le numéro d’un programme. La carte d’implantation des programmes de Bouygues Immobilier apparait automatiquement sur la droite. Une fois la commune ou le programme sélectionné, un système de
« cross-filter » permet de cumuler des critères - chiffres clés (données INSEE), indicateurs thématiques
et informations sur les programmes – mettant à jour automatiquement les indicateurs positionnés sur
la carte.

 

Pour Solène Touret, Responsable stratégie et innovation commerciale et pilote du projet MyGeoMarket
chez Bouygues Immobilier, « cet outil nous aide à l’élaboration de notre communication commerciale
et représente un gain de temps considérable en valorisant des données que nous sous-exploitions ». Lorsqu’auparavant le marketing n’avait accès qu’à de la connaissance partielle, avec des données réparties dans diverses bases, MyGeoMarket réunit en une seule plateforme données commerciales, géographiques et clientèle, et permet de baser les prises de décision sur des éléments factuels et à jour.

« MyGeoMarket permet une double approche intéressante pour nos métiers. Nous pouvons mieux appréhender notre cible dans ses habitudes de vie mais aussi effectuer une meilleure analyse
des réservataires », souligne Alice Bartaux, Responsable Marketing.

 

La première version de MyGeoMarket a été mise à disposition des collaborateurs de Bouygues Immobilier en mai 2016. Une seconde version est d’ores et déjà envisagée, avec l’ajout d’autres sources de données. MyGeoMarket marque la rencontre de trois expertises, mises en synergie, pour créer un outil performant, et le début d’un partenariat fort entre Synaltic, Publicis Media et Bouygues Immobilier.

Synaltic

Charly

Clairmont

CTO

 

interview

Comment voyez-vous l’évolution du Big Data ? Va-t-on vers plus de Smart que de Big Data ?

 

Pour moi, le Big Data évolue actuellement dans trois directions :

 

La complexité de l’infrastructure

Le Big Data réclame un certain investissement en nouvelles connaissances et compréhensions. Si des éléments restent encore flous, les nouveaux prérequis tels que la scalabilité, l’élasticité, la tolérance à la panne, la haute disponibilité et bien sûr la sécurité semblent être de plus en plus maîtrisés, surtout par
les DSI. Et ce n’est qu’une automatisation d’architecture qu’elles connaissaient déjà. La complexité qui en découle profite clairement aux offres directement érigées dans le cloud. Seules les entreprises dont le métier réclame une maîtrise complète de l’infrastructure et du réseau résisteront au cloud. Le dernier Hadoop Summit à San Francisco, que nous avons relaté sur notre blog, montrait à quel point cela devenait un des plus grands enjeux de notre secteur.

 

Le morcellement de l’offre

Les problématiques de gestion de données sont très larges et l’on voit ainsi des solutions de plus en plus focalisées sur des sujets très précis. C’est, d’ailleurs, un des soucis de l’écosystème Hadoop par exemple : les entreprises utilisatrice se sentent perdues et démunies face à une offre de plus en plus morcelée. Synaltic se plonge régulièrement dans ces méandres pour fournir les architectures les mieux adaptées
aux besoins de ces clients.

 

Le Self-Service

Nous avons rédigé un livre blanc sur la Data Preparation, qui devient une discipline à part entière au sein de la chaîne de valeur de la BI. Tableau avait déjà bouleversé ce marché avec la Data-Visualisation. La Data Préparation, couplée au référentiel des jeux de données qui s’inscrivent dans la gouvernance collaborative de la donnée, sont doucement en train de transformer le marché de l’informatique décisionnelle.
Et ce même en Big Data.

 

Quelle est la maturité des entreprises françaises ? Y a-t-il des secteurs plus avancés ?

Nous rencontrons de nombreuses entreprises : des grandes, des petites... De la volumétrie, des données
de toutes sortes, des données en flux continu, elles en ont. Mais leurs architectures ne semblent plus suffire. En effet, nombreuses sont les entreprises qui font appel à nous pour les guider dans ce domaine : elles ont déjà mis en place elles-mêmes leurs architectures dédiées au BIg Data mais rencontrent malheureusement des difficultés.

 

Globalement, Hadoop et les technologies NoSQL ont une dizaine d’années aujourd’hui. Plus aucun pan
de l’informatique ignore ces technologies, pas même le plus petit acteur ! Et nos clients non plus !
Ils savent au moins ce que c’est. Et s’ils ne les ont pas encore intégrées, ces technologies font partie
de leur feuille de route, à moyen ou à long terme.

 

Il existe diverses manières d’adopter ces technologies, via un data lake, dans une démarche de digitalisation ou plutôt de mise en données de son organisation (datafication), dans la construction d’applications plus réactives, dans une démarche de self-service en informatique décisionnelle couplée
à une réelle démarche de gouvernance des données. Où qu’elles en soient dans leur démarche, quels que soient leurs objectifs, nous accompagnons les entreprises de toutes tailles pour effectuer les choix les plus éclairés avec les technologies les plus adaptées.

 

Votre cellule R&D est en veille sur les dernières tendances technologiques, pouvez-vous nous dévoiler quelques exclusivités ?

Il y a une véritable tendance de fond, orientée vers la création de plateformes qui géreraient la donnée
de bout en bout. D’autant plus si l’on se place au niveau de l’agrégation de données en temps réel. Il y a une grande volonté de réduire la complexité des modes de traitement de la donnée avec une vision plus réactive, tant pour fournir des indicateurs, que dans la maintenance elle-même (développement et capacité à les faire évoluer rapidement, pour les livrer tout aussi rapidement).

 

On ne parle plus que de logs, désormais. Mais attention, il ne s’agit pas en fait de traces d’erreurs, mais simplement d’une information granulaire, unitaire. Celle-ci, récoltée régulièrement, s’agglomère de manière continue pour délivrer les chiffres les plus à jour.

 

Pour aider nos clients dans cette logique, nous avons mis au point une solution pour mieux gérer
les échanges de données et les monitorer. Bien sûr nous avons veillé à prendre en compte les outils
de Big Data pour répondre à ces contraintes.