SAS INSTITUTE S.A.S

Serge BOULET

Directeur marketing

+33(0)1 60 62 11 11

www.sas.com/france

Analytique

API

Applications

Dataviz

Infrastructure

Institutionnels

Consultants/SSII

Intégrateurs

SNCF Gares & Connexions - Le Big Data entre en gare

 

SNCF Gares & Connexions analyse les flux de voyageurs dans les gares afin d’améliorer
la qualité du service rendu aux visiteurs. La gare du futur se redéfinit avec le big data
et avec SAS !

 

SNCF Gares & Connexions est la branche du groupe SNCF chargée de l’exploitation, de la maintenance et du développement des 3000 gares ferroviaires du réseau français. « 10 millions de visiteurs transitent par les gares chaque jour, » explique Marie-Caroline Bénézet, directrice digital. Dans ce flux colossal, des gens arrivent, partent, attendent, se restaurent, cherchent une correspondance... Et certains ne prennent pas le train : ils accompagnent un proche, utilisent des services en gare ou font des achats dans les galeries commerciales. La gestion des gares n’est plus seulement un métier ferroviaire !

 

La « connaissance client » entre en gare

Pendant des années, SNCF Gares & Connexions ne disposait pour piloter son activité que des données de trafic transmises par les transporteurs – auxquelles s’ajoutaient ponctuellement des comptages aux entrées des gares et des enquêtes menées auprès des usagers, par exemple en amont de travaux de rénovation ou de développement.

Depuis plusieurs années, la branche développe une position plus neutre par rapport aux transporteurs. « La connaissance client devient un enjeu de SNCF Gares & Connexions, » souligne Marie-Caroline Bénézet. « Avec le potentiel qu’offre le digital, nous travaillons à développer un lien avec le client le plus fin possible, pour apporter une réponse adaptée à chaque visiteur – qu’il soit voyageur ou non, occasionnel ou régulier, pour le loisir ou professionnel... »

Cette parfaite connaissance des flux, c’est tout l’enjeu de DATA & Connexions.

 

Un portail pour partager la connaissance client

Développé depuis 2015, le portail DATA & Connexions vise à fournir l’information la plus riche et la plus précise possible sur tout ce qui concerne les flux de visiteurs dans leur gare.

Outre les données « traditionnelles » (trafic, enquêtes), la nouveauté concerne l’exploitation des « données wifi » des visiteurs, ainsi que les informations provenant de multiples capteurs connectés : autant de sources qui fournissent des indicateurs agrégés (ex. nombre moyen de personnes, temps moyens passés en gare) et qui peuvent servir à l’ensemble des métiers : programmation des travaux, gestion des espaces commerciaux, information des usagers...

« L’important, c’est que les métiers puissent exploiter les données pour leur activité ! » insiste  la directrice digital. Après une étude approfondie des besoins et une première phase de test, la solution peut maintenant être déployée en mode industriel, en commençant par deux piliers : l’analyse des flux
de visiteurs, et l’affichage en gare.

 

Pilier 1 : analyse des flux de visiteurs

Dans les grandes gares, l’exploitation des données wifi donne aujourd’hui une connaissance précise des flux, avec des indicateurs pour les quantifier et les caractériser. Il est ainsi possible d’analyser la répartition du temps passé dans la gare, de mesurer la densité sur une zone donnée tout au long de la journée, et de suivre les flux en distinguant ceux qui arrivent, ceux qui partent, les voyageurs en transit ou les non-voyageurs.

Cette connaissance nouvelle permet notamment d’analyser le comportement des visiteurs, en situation normale ou en situation « perturbée » : retard, travaux, ou encore afflux de voyageurs en raison d’un événement particulier –Euro2016- ou saisonnier –départ en vacances-.

A terme, elle doit naturellement contribuer à optimiser l’aménagement des gares, y compris la signalétique, mais aussi de comparer les données d’une gare à l’autre, ce qui était naguère impossible.

 

Pilier 2 : optimisation de l’affichage en gare

Le deuxième pilier concerne toutes les informations données aux voyageurs en gare, notamment via les grands panneaux d’information. « Les données permettront de voir où nous sommes performants et où nous le sommes moins, selon l’horaire, le type de train ou le type de gare », explique Marie-Caroline Bénézet.

Un exemple concret : l’affichage du quai d’un train. Il est habituellement donné vingt minutes avant
le départ. Que se passe-t-il si l’information est donnée plus tôt ? Cela éviterait peut-être certains effets d’agglutination sous les panneaux... avec un risque accru de changement de quai – donc de nouveaux flux importants de voyageurs... Avec DATA & Connexions, différentes formules pourront être testées, avec une analyse en temps réel de leur impact !

 

Vers une logique de Test & learn

L’analytique rend en effet possible une nouvelle logique de type Test & learn, où l’on peut expérimenter
de nouveaux aménagements dans une gare et observer rapidement les résultats, pour corriger, affiner,
et éventuellement généraliser.

Cette logique a déjà été appliquée dans le cadre de l’installation de portiques de sécurité : différentes formules ont ainsi été testées, pour voir laquelle présentait le « meilleur » effet possible sur les flux. Elle permettra aussi d’évaluer divers dispositifs d’information en cas de travaux : l’examen des flux permettra de voir rapidement si les messages sont bien compris par les visiteurs, pour corriger rapidement si besoin, et essaimer les bonnes pratiques dans d’autres gares et situations comparables.

 

SAS Inside : manipulation et partage des données

Le portail s’appuie sur une infrastructure big data sur Hadoop au sein de la « Big Data Fab » du Groupe SNCF. Le choix de la solution technique s’est porté sur SAS® Visual Analytics pour la visualisation des données, les tableaux de bord et les indicateurs, avec SAS®  Enterprise Guide® en complément des outils traditionnels du Big Data (HIVE, R, Spark) pour le traitement préalable des données brutes. L’avantage ? La capacité de traiter de très gros volumes de données, mais aussi la possibilité d’agréger ces données dans des rapports qui peuvent être aisément diffusés aux cadres comme aux agents opérationnels en gare.

Au siège de SNCF Gares & Connexions, une petite équipe peut aussi explorer la base pour répondre à des questions précises provenant du terrain.

 

Perspectives : vers toujours plus de temps réel

L’outil étant encore jeune, le premier enjeu pour les équipes de DATA & Connexions consiste à poursuivre l’alimentation du portail en exploitant les multiples sources de données issues des gares.

Un autre chantier concerne l’ergonomie du portail, pour en démocratiser largement l’usage. Sur le plan technique, enfin, Marie-Caroline Bénézet insiste sur le pilotage de la qualité des données : « Nous voulons développer une architecture data qui aille encore plus loin dans le temps réel – et du temps réel
de qualité », conclut-elle.

 

 

                      

SAS

Andrew

Pease

Principal Business Solution Manager

interview

L’analytique en tant que fonction stratégique : l’essor du métier de data scientist

Les entreprises n’ont jamais eu accès à autant de données et la plupart admettent que l’analytique peut avoir des effets positifs. À cet égard, Amazon est toujours cité en exemple. Pionnière de l’analyse des données, la société a en effet lancé la fonctionnalité « Les clients ayant acheté cet article ont également acheté… ». Aujourd’hui, les recommandations d’Amazon sont basées sur la liste d’envies de l’utilisateur,
les articles vus et les articles achetés par d’autres clients ayant un comportement d’achat similaire.
L’analyse prédictive gagne ainsi en précision.

 

La récente étude mondiale de McKinsey, « The need to lead in data and analytics », souligne également
la nécessité d’ouvrir la voie dans le domaine des données et de l’analytique. La majorité des personnes interrogées pensent que, dans les années à venir, leurs activités analytiques auront un impact positif sur
le chiffre d’affaires, ses marges et son efficacité opérationnelle. Il n’est pourtant pas si facile de tirer
des enseignements utiles de gigantesques quantités de données, puis de prendre des mesures précises.
De plus en plus d’entreprises placent tous leurs espoirs dans les data scientists.

 

Encore un concept à la mode ?

Aujourd’hui la Silicon Valley regorge de data scientists et les entreprises se bousculent pour recruter les professionnels avec le bon profil, ce qui témoigne de l’engouement actuel pour l’analytique. Alors, qu’est-ce qui fait que les data scientists sont si recherchés ? « À mon avis, la science des données va plus loin que
la simple analyse », répond Andrew Pease, Principal Business Solutions Manager chez SAS.

« Un data scientist utilise des techniques plus avancées pour identifier les enjeux commerciaux, recueillir
les données pertinentes et publier des informations exploitables. Il est capable de découvrir des tendances dans les données et de formuler des prévisions significatives. »

Outre des connaissances en statistiques, le data scientist doit posséder des compétences diverses.
« Les data scientists doivent avoir une forte envie d’apprendre, d’innover et d’améliorer les choses. Bien sûr, ils doivent trouver les données, les analyser, les interpréter et partager les résultats, mais s’ils ne posent pas
les bonnes questions dès le départ, toutes ces données et le meilleur bagage statistique au monde ne leur seront d’aucun secours », fait observer Andrew Pease.

 

Rôle des décideurs

Bien que l’analytique arrive en tête des priorités des dirigeants, nombre d’entre eux ne font pas suffisamment bien passer le message dans l’entreprise. Selon l’étude de McKinsey, 38 % des PDG affirment piloter le programme analytique de leur entreprise, ce qui n’est confirmé que par seulement 9 % des autres cadres supérieurs. Ces personnes citent plus volontiers les DSI, directeurs marketing ou chefs de divisions opérationnelles comme responsables des initiatives en matière d’analytique.

 

« Peu importe le décideur aux commandes, du moment que l’analytique constitue une fonction métier stratégique. Jusqu’à présent, l’analytique a néanmoins été souvent perçue comme une fonction secondaire des services informatiques. Promouvoir l’analytique au rang de fonction stratégique est donc la première des bonnes pratiques à mettre en œuvre. Toutefois il faudra du temps pour définir des profils analytiques, et les personnes concernées devront sans doute commencer par prouver qu’elles peuvent réussir avant d’accéder à un poste de plus haut niveau. »

L’analyse des données étant stratégique, il est primordial d’internaliser les processus analytiques
à un moment ou un autre », affirme Andrew Pease.

 

Analytique exploitable

La plupart des grandes entreprises recrutent déjà des data scientists. À l’ère des big data et de la convergence des secteurs d’activité, les entreprises réalisent que les informations contenues dans une transaction sont encore plus précieuses que la transaction proprement dite. « À ce jour, le secteur financier compte déjà un grand nombre de data scientists. La grande distribution suit et, cette année, la demande
de data scientists devrait également exploser dans le secteur industriel. Avec la révolution de l’Internet des objets (IoT), l’analyse de grandes quantités de données relevées par les capteurs va revêtir une importance capitale ». Le succès de la science des données en entreprise ne repose pas seulement sur des algorithmes, conclut Andrew Pease.

 

Selon l’étude de McKinsey, l’un des principaux obstacles à un programme analytique efficace est le manque de communication. Et Andrew Pease confirme : « Les data scientists doivent être à la fois capables d’interpréter les données et de communiquer leurs découvertes aux décideurs de leur entreprise. Ils doivent également rendre les mécanismes analytiques assimilables par les personnes concernées dans l’entreprise. Les techniques de visualisation sont par exemple d’une aide précieuse, sachant qu’une image vaut mieux qu’un long discours - ou que les lignes d’une feuille Excel, en l’occurrence. »