SAS INSTITUTE S.A.S

Serge BOULET

Directeur marketing

01 60 62 11 11

www.sas.com/france

Analytique

API

Applications

Dataviz

Infrastructure

Institutionnels

Consultants/SSII

Intégrateurs

Munich Re met en place une plate-forme big data avec SAS et Hortonworks

 

Le plus grand réassureur mondial, a retenu SAS® Analytics et Hortonworks Data Platform pour déployer une plate-forme innovante capable d’analyser des volumes gigantesques de données.

 

Pour Munich Re, la donnée est une composante essentielle de sa stratégie pour prendre en compte activement l’évolution mondiale du risque. Lancée en février 2016, la plate-forme permet aux différents départements d’explorer de nouvelles idées, de développer de nouveaux domaines commerciaux et d’améliorer le service à la clientèle.

L’analyse des données semi-structurées et non structurées, de données météorologiques ou de capteurs sur des véhicules, machines et autres dispositifs en réseau, font émerger des idées de produits, services et de nouveaux processus.

 

La plate-forme basée sur une approche ouverte fournit aux data scientists de Munich Re le plus haut degré de liberté et de créativité. Un lab leur permet de tester les idées sans affecter les opérations quotidiennes. Environ 500 utilisateurs travaillent déjà avec le système, qui est en cours d’extension par étapes.

 

 

SAS

Helge

rosebø

Architecte et Responsable Visualisation des Données

interview

Le feu a décuplé l’intelligence humaine. Comment s’en inspirer ?

Nous consacrons une grande part de notre existence à faire des choix. En essayant de faire les meilleurs possibles. Baser les décisions sur des faits importe plus que le type et la qualité des données qui l’alimentent. En ancrant cette approche dans votre culture d’entreprise, vous saurez tirer parti du vaste potentiel qu’offrent les données. Par Helge Rosebø, Architecte et responsable visualisation des données, SAS Norvège.

 

La ressemblance entre cet état d’esprit et l’évolution de l’intelligence humaine me paraît frappante. En utilisant le feu comme technologie, nous avons décuplé notre intelligence. De quelle manière votre entreprise pourrait-elle développer la sienne ?

 

Le feu nous a rendus plus intelligents

Le feu a eu un énorme impact sur le mode de vie de nos ancêtres, en leur apportant du confort et en leur permettant de cuire leurs aliments. La viande est plus digeste cuite que crue. L’organisme utilise donc moins d’énergie à assimiler un steak qu’un morceau de viande crue. Moins d’énergie pour digérer signifie également plus de vitalité pour d’autres fonctions corporelles. Autrement dit, la cuisson a contribué à développer notre intelligence, et le reste appartient à l’histoire. Nous sommes aujourd’hui arrivés à un stade où les nouvelles technologies pourraient bien surpasser nos capacités cognitives. Auparavant, le feu était la technologie charnière et la viande était une source d’énergie. La combinaison de la viande (données), du feu (technologie) et de la cuisson (processus) a dopé notre intelligence.

 

Dans le paysage numérique actuel, comment devenir plus intelligent que nos concurrents ?

….Grâce à la science des données !

Les applications de la data science ont pour finalité de traduire les nouvelles connaissances en croissance économique. Le diagramme de Brendan Tierney offre un aperçu des compétences et du processus qui composent cette science. Il me sert d’aide-mémoire, et vous pouvez vous aussi l’utiliser pour replacer ce phénomène ultra-médiatisé dans le contexte de vos tâches et compétences actuelles.

 

S’il n’existe encore aucune technique d’intelligence artificielle ou de machine learning capable de faire disparaître tous nos problèmes d’un coup de baguette magique, elles sauront en revanche augmenter votre efficacité. Et celle-ci atteint son apogée lorsque l’on associe un panel de compétences pour répondre à des problématiques métier en constante évolution. Si l’on sait quelles compétences appliquer à une problématique donnée, c’est gagné !

 

« Faire des concessions sur la technologie impacterait l’efficacité du processus. »

 

L’application de la science des données peut impliquer différentes fonctions (développeur, statisticien, analyste métier, expert en entrepôts de données, chef de projet, etc.), ce qui rend l’accès à la réussite plus complexe. L’équipe de data science doit être réactive, souple et rapide, et ses travaux doivent pouvoir être aisément partagés à d’autres branches de l’entreprise. Elle a besoin d’une technologie qui valorise efficacement ses différentes contributions et compétences, et qui combinerait par exemple des solutions Open Source et propriétaires. Quoi qu’il en soit, les équipes ont besoin d’un environnement technique propice au bon déroulement du processus, du développement à la production, en passant par les tests et l’évaluation qualité. Faire des concessions sur la technologie impacterait l’efficacité du processus. Mais comme toujours, une excellente technologie ne peut que libérer le potentiel, le reste relève de notre responsabilité et de nos processus.

 

L’intelligence artificielle comprend de nombreux sous-domaines :

 

L’apprentissage automatique (machine learning) automatise le modèle analytique. Il utilise des méthodes à partir de réseaux de neurones, de statistiques, de recherche opérationnelle et de physique pour trouver des informations cachées dans les données, sans être programmé pour savoir où chercher et quoi conclure.

 

Un réseau neuronal est une sorte de machine learning inspiré du fonctionnement du cerveau humain. C’est un système informatique composé d’unités interconnectées (comme les neurones) qui traite l’information en répondant aux entrées externes, en relayant l’information entre chaque unité. Le processus nécessite plusieurs passages aux données pour trouver des connexions et dériver des données non définies.

 

L’apprentissage profond (deep learning) utilise d’énormes réseaux de neurones avec de nombreuses couches de traitement, profitant des progrès de la puissance de calcul et de l’amélioration des techniques pour l’apprentissage de modèles complexes sur de grandes quantités de données. Les applications courantes incluent la reconnaissance de l’image et de la parole.

 

La vision par ordinateur repose sur la reconnaissance des formes et l’apprentissage profond pour reconnaître ce qui se trouve dans une image ou une vidéo. Lorsque les machines peuvent traiter, analyser et comprendre des images, elles peuvent capturer des images ou des vidéos en temps réel et interpréter leur environnement.

 

Le traitement du langage naturel est la capacité des ordinateurs à analyser, à comprendre et à générer du langage humain. La prochaine étape de cette science est l’interaction du langage naturel, qui permet aux humains de communiquer avec les ordinateurs en utilisant une langue normale et quotidienne pour effectuer des tâches.