PENTAHO

Leonard L’ecaros

Territory Sales Manager

+ 44 (0) 785 481 5035

www.pentaho.com/fr

Analytique

API

Applications

Dataviz

Infrastructure

Institutionnels

Consultants/SSII

Intégrateurs

Avec Pentaho, la Sacem a pour objectif d’offrir à ses utilisateurs métiers des services d’analyse de Big Data à la demande

 

A propos de la Sacem

La Société des auteurs, compositeurs et éditeurs de musique (Sacem) a pour vocation de représenter et défendre les intérêts de ses membres en vue de promouvoir la création musicale sous toutes ses formes (de la musique contemporaine au jazz, rap, hip-hop, chanson française, musique de films, musique à l’image, œuvres dédiées au jeune public…) mais également d’autres répertoires (humour, poésie, doublage-sous titrage…)

 

Sa mission essentielle est de collecter les droits d’auteur et de les répartir aux auteurs, compositeurs et éditeurs dont les oeuvres ont été diffusées ou reproduites. Organisme privé, la Sacem est une société à but non lucratif gérée par les créateurs et les éditeurs de musique qui composent son Conseil d’administration.

 

Elle compte 161 170 membres dont 19 650 créateurs étrangers issus de 166 nationalités (4 206 nouveaux membres en 2016) et représente plus de 118 millions d’oeuvres du répertoire mondial.

La Sacem compte 500 000 clients qui diffusent de la musique en public : commerces, bars, discothèques, organisateurs de concerts ou d’événements en musique.

 

Challenges

L’écoute musicale massive sur internet et la globalisation ont complexifié le processus de la gestion collective des œuvres musicales par la Sacem et ses partenaires à l’étranger. Il devient alors indispensable d’optimiser ce processus, afin d’éviter la répétition des tâches et de faciliter la collecte de droits. Pour garder une compréhension d’un marché en constante évolution, obtenir une corrélation juste entre la collecte et la répartition des droits, la Sacem a besoin d’analyses de plus en plus précises sur des volumes de données de plus en plus grands. Al’issue de la collecte de tous les droits qu’elle effectue, la Sacem cherche à réduire les délais de traitement, et par conséquent à accélérer le paiement aux artistes, en simplifiant les processus de consolidation. L’ensemble de ces problématiques nécessite un outil d’intégration et d’analyse de données dans un environnement Big data existant.

 

La solution

La Sacem a choisi la plateforme Pentaho Data Integration and Business Analytics qui assure à la fois l’intégration et l’analyse de son environnement Big Data. La technologie ouverte de Pentaho permet d’accéder à d’importants volumes de données hétérogènes et sa facilité d’utilisation donne aux utilisateurs métier l’autonomie nécessaire pour faire leurs propres analyses. Pentaho peut être intégré aux applications métier opérationnelles telles qu’elles existent, ce qui permet de gagner en délais de mise en œuvre et de réduire les coûts d’intégration des analyses au sein des applications métiers.

 

« L’ouverture de l’outil pour l’utilisation d’algorithmes de statistiques avancés est un atout différenciant. Il permet de les embarquer tels qu’on les a pensés en phase de projet exploratoire et de minimiser les coûts lorsque l’on souhaite les industrialiser. » se réjouit Frédéric Falkoff, Directeur Web, Data et Ressources à la Sacem.

Pentaho fournit une cartographie macro regroupant en entrée les données de collecte, en sortie celles des feuillets de répartition des droits d’auteur, et entre les deux des référentiels par type d’utilisation, par famille d’œuvres et de répertoires. A titre d’exemple, on répertorie environ 5,1 milliards de lignes associées à un provider tel que Youtube pour un an. Et 1,5 millions de lignes représentent les données de répartition des droits pour un an (1,4 Milliard de lignes pour dix ans de droits), y compris ceux que la Sacem se charge de collecter et répartir pour les répertoires des membres étrangers exploités en France. La plateforme permet aussi de croiser les données des 161 170 membres de la Sacem avec les œuvres représentées par la Sacem en perspective d’analyses d’usage sur lesquelles repose un nouveau service offert aux sociétaires sur le portail internet.

 

« Avec Pentaho, nous avons comme objectif de mettre en place un dispositif de données à la demande selon le périmètre et la profondeur d’historique souhaités, afin de rendre nos utilisateurs autonomes dans leur exploration et croisement de diverses sources Big Data, désormais prêtes pour des analyses détaillées et la consolidation automatisée de la collecte et redistribution des droits d’auteur, » déclare F. Falkoff

 

Les bénéfices

Pentaho crée le lien qu’il manquait pour consolider un environnement Big Data hétérogène, puis se connecter et interroger aisément des bases de données telles que Cassandra, MariaDB, Oracle, MySQL, Vertica ou Elasticsearch. Sa simplification et automatisation des processus accélèrent les analyses sur la collecte et la préparation de diverses sources de données de façon exhaustive et non pas sous forme d’échantillons. Sa gestion automatisée des droits d’authentification donne aux utilisateurs métier en fonction de leur profil un accès sécurisé à une diversité de données qu’ils peuvent désormais croiser à la volée une fois qu’elles sont à disposition sur un portail externe.

 

Sans besoin de déployer un client lourd sur les postes utilisateurs les données sont disponibles en « libre-service » avec une gestion des droits d’accès pour des analyses détaillées, telles que la répartition des droits d’auteur en cohérence avec les analyses d’usage. Les utilisateurs métier accèdent et croisent à la volée des volumes de données plus importants. Ils bénéficient dans les meilleurs délais de mises en forme graphiques ou de tableaux de bord clairs et automatisés. Les utilisateurs gagnent ainsi en autonomie et la DSI peut se recentrer sur son cœur de métier.

 

« Il est simple d’embarquer Pentaho au sein d’une application opérationnelle, puis de naviguer dans un environnement analytique sans devoir changer d’outil et se reconnecter. Dans un futur proche, ce dispositif permettra également de mettre des tableaux de bord à disposition sur la tablette des 700 collaborateurs Sacem, présents en région, » conclut F. Falkoff.

Hitachi Vantara

Naser

Ali

Head of Solutions Marketing

interview

Quel constat faites-vous de l’évolution de l’écosystème Big Data ?

Des niveaux d’innovation très élevés, par exemple, un flux constant de nouveaux projets Apache sur Big Data combinés avec aucun acteur ne possédant une partie significative de l’écosystème. Bien que cela signifie une fragmentation, il existe des normes et des protocoles avec des API complémentaires qui génèrent de la valeur. L’intégration de Pentaho Data Integration consiste à supprimer certaines des frontières les plus difficiles entre différentes technologies. De cette façon, vous pouvez protéger vos investissements et vos compétences existants tout en profitant des nouvelles idées au fur et à mesure.

 

Quels sont, selon vous, les nouveaux challenges technologiques et de gouvernance du Big Data ?

Pour la technologie, le principal défi est de suivre le rythme du changement. Notre couche d’exécution adaptative (AEL) permet à un utilisateur de créer une tâche ETL en une seule fois, dans une interface graphique auto-documentée et de l’appliquer à un moteur d’exécution de son choix, Apache Spark ou autre, protégeant ainsi l’utilisateur des changements technologiques. Pour la gouvernance, la capacité à calculer la dispersion des données pour identifier les master data, la maintenance d’un modèle de sécurité de la source à la cible pour les données combinées contribuent toutes à la gouvernance. Les compétences sont l’un des enjeux clés du marché du Big Data. L’AEL permet d’économiser beaucoup de réécriture de code, et l’utilisation de l’interface graphique de PDI contribue fortement à ne pas avoir à écrire des map reduce scripts pour faire des travaux ETL.

 

Du prédictif au prescriptif : une réalité business ?

De l’origine des données à l’analyse et à l’analyse prédictive, Pentaho associe étroitement l’intégration de données à l’analytique dans une solution Big Data continue pour éliminer la complexité et réduire le temps nécessaire à la création de valeur. Au-delà de la visualisation interactive et de l’exploration de données, Pentaho propose des algorithmes de machine learning et des outils de traitement de données performants et à la pointe de la technologie. Les spécialistes des données et les analystes peuvent découvrir des modèles significatifs et des corrélations autrement cachées avec l’analyse et les rapports standard. Des analyses sophistiquées et avancées, telles que la prévision de séries chronologiques, aident à planifier les résultats futurs en fonction d’une meilleure compréhension de l’histoire antérieure.

 

Quelle est la mission de Pentaho sur le marché Big Data ?

Au sein d’une plate-forme unique, notre solution fournit des outils Big Data pour extraire, préparer et fusionner vos données, ainsi que des visualisations et des analyses qui changeront la façon dont vous dirigez votre entreprise. De Hadoop et Spark à NoSQL, Pentaho vous permet de transformer rapidement vos Big Data en connaissances.

 

Quelles sont les nouveautés de vos offres Data ?

 • Facilité d’utilisation - pour les ingénieurs de données, les spécialistes des données et les analystes de données

 • Data Agnostic - intégrer n’importe quelle source de données

 • 100 des étapes prêtes à l’emploi avec la modélisation et la visualisation

 • Automatisation pilotée par les métadonnées - intégration de données évolutives, lignage

 • Extensibilité linéaire - intégration native de Hadoop, résultats de référence

 • Machine Learning - apportez votre propre outil de modélisation prédictive et parcourez facilement

 • Data Delivery - livrer des données physiquement ou virtuellement

 • Extensibilité - ouverte, architecture pluggable

 • Full Suite Analytics - tableaux de bord, rapports, analyses interactives

 • Mise à disposition de Cloud et échelle élastique dans le cloud

 

Dans la dernière édition du guide du Big Data, l’IoT était au cœur de votre business et stratégie, est-ce toujours le cas ?

Tout à fait, comme l’augmentation des volumes, de la variété et de la vélocité des données provenant des capteurs, des machines et d’autres périphériques connectés, entraînent d’importants problèmes d’intégration des données. Pentaho aide les organisations à préparer et fusionner facilement les données des machines et des capteurs avec d’autres actifs, tels que les données de vos systèmes ERP ou CRM, afin de fournir le contexte nécessaire pour générer des résultats commerciaux transformateurs.

 

La dernière version de Pentaho est compatible à 100% avec Spark, pourquoi ce choix ?

Pour un traitement encore plus rapide du process ETL des Big Data. L’avantage potentiel pour les concepteurs ETL est la possibilité de concevoir, tester et régler les travaux ETL dans l’environnement de conception graphique facile à utiliser de PDI, puis de les exécuter à grande échelle sur Spark. Cela réduit considérablement les compétences requises, augmente la productivité et réduit les coûts de maintenance lorsque vous utilisez Spark pour l’intégration Big Data. En intégrant également Pentaho Data Integration à Spark et MLlib, les Data Scientists bénéficieront d’un environnement facile à utiliser (PDI) pour préparer les données à utiliser dans les solutions MLlib. De plus, cette intégration facilitera l’opérationnalisation du travail de l’équipe Data Science en orchestrant l’intégralité du flux de bout en bout, de l’acquisition des données à la préparation des données en passant par l’exécution des tâches MLlib et le partage des résultats, dans un flux de travail PDI simple. AEL mettra votre application à l’épreuve des moteurs émergents. Aujourd’hui, vous pouvez développer visuellement une application pour le moteur Kettle de Pentaho et un cluster Spark. Au fur et à mesure que de nouvelles technologies émergent, l’AEL sera implémenté pour d’autres moteurs afin que les développeurs n’aient pas besoin de réécrire leur application. En résumé, Pentaho Data Integration avec Apache Spark permet aux utilisateurs du moteur de traitement open source d’atteindre plus d’utilisateurs en simplifiant l’orchestration des jobs Spark. Le support natif de PDI pour Spark fournit une interface intuitive pour exécuter des tâches de traitement de données à haute vitesse.