Christophe

Montagnon

DOSI

RANDSTAD

RH & BIG DATA : Des outils au service de la fluidification

du marché de l’emploi

 

retour au sommaire

Quelles convictions et quelle évolution du métier de RH ?

 

Nous avons une conviction extrêmement forte, que résume notre baseline « Tech & Touch » : l’alliance de la technologie et de l’humain. Nous sommes convaincus que notre métier va intégrer la technologie à la fois au travers des interfaces digitales, des plateformes numériques, mais aussi de la data pour fonder les décisions. La technologie ne va cependant pas faire disparaitre la relation humaine, c’est pour cela que nous maintenons ces deux dimensions, avec chacune le même poids. Nous pensons que la technologie va venir s’intégrer à la fois dans la manière dont nous produisons nos services et dont nous interagissons avec les gens. Nous aurons toujours besoin d’interactions humains-humains. Nous voyons l’évolution de notre métier qui bouge vers ce Tech & Touch.

 

 

Quel engagement de la présidence ?

 

Au sein de Randstad, l’engagement de la présidence sur ce sujet est entier.  C’est vrai du digital de manière générale, mais la data est un engagement particulier de notre président. François Béharel a en effet la très forte conviction que la data changera notre métier. Pour ne pas subir cette conviction et en être un acteur, il s’y investit et nous donne les moyens pour être actif sur ce segment. Notre métier n’est initialement pas d’une grande transparence : quand vous êtes un chercheur d’emploi, vous n’avez pas forcément une vue claire de ce qui se passe dans le métier, et quand vous êtes une entreprise et que vous recherchez un candidat, vous ne disposez pas non plus d’une vue claire sur les compétences et le succès que vous allez avoir dans le sourcing d’un candidat. Le fait de collecter des informations et de les rendre tangibles par des données concrètes, que nous avons collectées ou produites, aide énormément, même si ce n’est qu’une approche de la vérité. L’un des éléments d’engagement de François Béharel est de rendre les décisions mieux éclairées, plus transparentes et plus réfléchies.

 

 

Quels sont les projets principaux dans lesquels vous avez souhaité introduire du Big Data ?

 

Quand je suis arrivé dans le scope Big Data, les enjeux étaient clairs et essentiellement métiers. Je n’étais bien sûr pas seul à construire le projet Big Data, le socle opérationnel et métier était très fort.

 

L’appareillement entre les besoins de compétences et les besoins d’emploi est un des premiers domaines dans lequel nous avons souhaité inclure du Big Data. Dans chacun des territoires, nous regardons comment se situent l’offre et la demande pour avoir une idée plus précise et transparente des ressources disponibles, des besoins des différentes entreprises. Nous souhaitions permettre aux acteurs qui recherchent des compétences de savoir si elles sont présentes sur le territoire, d’avoir une meilleure idée de comment les sourcer, s’il y a des entreprises en recherche des mêmes profils, des entreprises en compétition, etc. Si l’on se place dans la position d’une personne en recherche d’emploi, il s’agit de leur fournir l’information sur les entreprises en recherche des compétences dont elle dispose. Ce besoin d’appareillement correspond à une demande récurrente, car notre métier consiste à produire pour les entreprises de la recherche de compétences, et pour les gens qui recherchent un emploi une passerelle vers les métiers. Nous mesurons l’offre et la demande dans chacun des territoires pour cartographier les besoins.

 

Nous avons intégré des processus Big Data dans le domaine des mobilités de métier à métier, nous avons regardé comment nous pouvions faciliter un mouvement d’un métier vers un autre métier, par ce que nous appelons des passerelles de compétences. Nous avons notamment travaillé sur des data visualisations, pour rendre graphique et simple cette logique de proximité de métiers à métiers au travers d’une taxonomie de compétences, récupérée à l’intérieur du Big Data. Nous avons donc commencé par le projet Big Data autour des appareillements entre la compétence et les besoins des entreprises et en second nous avons développé les algorithmes de matching. Ce sont les deux sujets clefs sur lesquels nous avons le plus d’avance car ils produisent du service au client.

 

 

Quid de l’interne ?

 

Lorsque vous décidez de devenir une entreprise « Data-driven », ce qui signifie prendre des décisions fondées sur des données, des chiffres, il ne s’agit pas uniquement d’appliquer le Big Data dans le champ du service rendu au client, il faut également l’introduire dans le champ interne et notamment dans le CRM pour les décisions de segmentation, de pricing et les algorithmes de matching pour aider les candidats à cibler les bonnes entreprises et les bons postes. Dès lors que vous décidez que c’est en étant data-driven que vous serez plus efficient, il n’y a aucun segment de l’entreprise qui y échappe. Nous avons fait pas mal de travaux d’analytique interne, les sujets CRM sont relativement bien couverts. La donnée ne réside pas que dans les services mais aussi dans l’efficacité interne.

 

 

Quels sont les cas d’usage et les types d’acteurs concernés ?

 

Nous utilisons le Big Data pour répondre à des questionnements RH. Nous adressons, tout d’abord, les chercheurs d’emploi, pour répondre à la question suivante : est-ce que dans tel bassin, avec mon métier, j’ai une chance de trouver un emploi ? Mais cette question peut être scénarisée, par exemple si j’accepte de faire plus de déplacements dans la journée ou si j’acquière des compétences complémentaires pour évoluer d’un métier A vers un métier D. Si tel est le cas, est-ce que cela change mes opportunités ?

 

D’autre part, nous fournissons aux entreprises des réponses à des questions telles que : si je m’installe dans tel bassin d’emploi et que je recherche tel type de compétences, est-ce que j’ai une chance de les trouver ? Si oui avec qui suis-je en compétition sur cette compétence ? Est-ce que je suis représenté, visible sur ce marché ? Si je source ailleurs, est-ce que j’augmente mes chances ? Quels leviers je peux actionner ? Nous leur fournissons des réponses sur les facteurs géographiques, les types de compétences, les types d’emploi et la compétition sur le marché de leur recherche.

 

Enfin, nous avons des cas d’usage institutionnels, nous pouvons par exemple orienter une politique de formation vers l’emploi, en fournissant des données qui permettent d’être certain de cibler les bonnes populations et les bonnes compétences à acquérir par celles-ci. Nous travaillons également avec les CCI, les Agences de développement économique et les acteurs qui s’intéressent au replacement de personnes en chômage de longue durée, comme les maisons de l’emploi par exemple.

 

Dans le cadre du Big Data, nous allons interroger la plateforme sur ces questions et essayer de créer des scénarios types, sur lesquels nous n’avions pas de réponse immédiate jusqu’ici.

 

La temporalité est une notion complémentaire intégrée sur la plateforme. Nous avons de la donnée stockée depuis longtemps, qui nous permet de déduire des tendances et de les projeter pour faire ressortir des saisonnalités, chercher des récurrences, des corrélations. Le volume d’informations stockées nous permet d’imaginer, non pas des cas d’usage et des questions à un instant T, mais des cas d’usage dans un temps projeté et de faire des prédictions.

 

 

Quels types de données récoltez  vous ?

 

Une grande partie de nos data sont des données structurées internes, mais nous disposons également de données non structurées sémantiques, liées à tout ce qui est récolté via notre portail ainsi que via les CVs. Nous récupérons des données externes d’open source ou d’open data. Nous achetons par ailleurs des données essentiellement de Crowling et obtenons des données gratuites officielles, de type INSEE et Pôle Emploi. Nous n’utilisons pas encore les données de réseaux sociaux, mais sommes en réflexion pour les intégrer.

 

 

Quelle est l’infrastructure choisie ?

 

Nous avons une infrastructure de recette basée sur du Hadoop traditionnel en clusters et une infrastructure de production, qui fonctionne sur une Appliance Oracle. A l’intérieur de nos outillages, nous avions déjà des algorithmes construits par Randstad. Nous travaillons sur le prédictif avec l’aide d’experts, qui nous aident à structurer la démarche mais nous construisons aussi nos propres algorithmes. Nous utilisons également des algorithmes existants, qui sont déjà établis et validés par la communauté.

 

 

Quelle est la constitution de l’équipe ?

 

En interne, nous disposons d’une équipe étude, spécialiste des données, d’une équipe IT plutôt spécialiste du développement et nous avons fait émerger un pôle Big Data au sein du pôle Analytique. Nous avons des collaborateurs aux études qui sont plutôt des statisticiens, orientés mathématiques, et des personnes issues de l’IT. Nous avons fait le choix de ne pas de fusionner les équipes.

Nous faisons également appel à des profils externes. Quand nous avons besoin, dans notre roadmap, de monter en charge sur les fonctionnalités à créer, nous nous appuyons notamment sur des ressources de Capgemini.

 

 

Pensez-vous que le Big Data soit la véritable solution à la pénurie de ressources notamment dans les métiers techniques, tels que les Data Scientist ?

 

Ce qu’aide à faire le Big Data, c’est de ne pas rester cloisonné dans une recherche standard. Par exemple, lorsque l’on parle de Big Data ou de Data Scientists, il y a de nombreux métiers recouverts.  Il est très difficile de regrouper tous les métiers. La problématique de nos clients est que les demandes sont très formatées. L’un des apports du Big Data, c’est justement d’arriver en questionnement par rapport à ce format, par rapport aux usages, aux recherches, au sourcing et essayer de trouver des solutions éclairées par de l’information et de la donnée, pour arriver à contourner la problématique de la pénurie. Parce que l’on va scénariser la recherche, on va pouvoir prendre en considération une personne un peu éloignée du poste recherché mais que l’on va former, à qui l’on va faire du mentoring. On va également pouvoir envisager de réorganiser l’équipe.

Le Big Data dans le secteur de la recherche apporte des réponses à des problématiques que vous pouvez itérer, mais il n’est pas une solution magique.

 

L’approche par les données aide également à remettre en cause les convictions internes. C’est particulièrement important dans les ressources humaines, car les idées préconçues sont très présentes. Un éclairage par la donnée permet d’arriver à ouvrir un dialogue. L’approche française des profils est extrêmement standardisée. Quand vous recherchez quelqu’un, vous recherchez un parcours, une école type. C’est moins le cas dans d’autres pays d’Europe, en Hollande par exemple un niveau d’étude dans n’importe quel domaine démontre une capacité d’ouverture, d’apprentissage, d’investissement et ouvre des portes sur une multitude de postes. La donnée peut là aussi être intéressante, en rapprochant des succès, en montrant qu’un certain nombre de savoir-faire ou de savoir-être sont fondamentaux pour un poste. Cela permet de repenser la manière dont on recrute, dont on fait le sourcing et pense les profils.

 

 

Quelle roadmap et quelles pistes de développement ?

 

Nous souhaitons introduire du prédictif dans de notre solution. A court terme, nous travaillons sur l’intégration des données de salaire, à l’intérieur de la plateforme pour permettre d’inclure dans les trajectoires métiers les trajectoires de rémunération. Nous voulons enrichir notre plateforme avec de nouveaux jeux de données.

La Formation nous intéresse également, car souvent quand on débouche sur une recommandation d’évolution d’un métier A vers un métier B, on constate des écarts de savoir-faire. On pourrait ainsi faire une proposition de type de formation pour pouvoir la compléter.

Nous avons créé un comité autour du Big Data, dans lequel nous récupérons des besoins pour créer notre roadmap, dans laquelle les métiers ont une part extrêmement importante.

Enfin en interne, d’autres entités européennes Randstad exprime un intérêt pour les cas d’usage que nous avons développés. Nous élargissons donc la plateforme en Europe.  Augmenter le volume de données va nous permettre d’améliorer la pertinence des réponses aux questions et nous donner une vision plus globale à l’échelle des territoires.

 

 

Que recommanderiez-vous aux personnes qui souhaitent mettre en place un Projet Big Data ?

 

Nous sommes partis de cas métiers robustes. Sans cas métiers robustes, il n’est pas possible de réussir. La question par laquelle on en vient à s’interroger sur l’utilisation et la mise en place d’une solution Big Data doit impérativement être liée à un cas métier, qui apporte de la valeur à l’utilisateur.

Des cas d’attrition de client, d’efficacité commerciale, de prédiction des prochains prospects à approcher par les commerciaux font sens par exemple. Dans certains cas, le Big Data peut ne même pas être utile, il peut être juste suffisant de mettre en place de l’analytique.

Nous avons commencé par des cas business extrêmement robustes, qui ont donc trouvé du sponsorship fort au sein de l’entreprise.

 

Il y a quelques années, les technologies étaient très mouvantes. Aujourd’hui, on dispose de plus de profondeur d’historique, les solutions Big Data sont matures et il est relativement facile de se faire accompagner sur cette problématique.

 

Christophe Montagnon a rejoint Randstad il y a plus de 20 ans. Il a rejoint le secteur des ressources humaines (RH) comme directeur d’agences avant de poursuivre un parcours opérationnel en élargissant ses responsabilités géographiques. En 2003, il commence à travailler au sein des réseaux Randstad de spécialité, appelés centres experts (CXP). Lorsque Randstad fait l’acquisition de Védior, il devient directeur de l’Organisation France pour diffuser au sein du nouvel ensemble les principes organisationnels de Randstad. Il y a 5 ans, François Béharel, président du groupe Randstad France, lui confie par ailleurs l’organisation des Systèmes d’Information de l’entreprise.