MATHWORKS

Gilles GUILLEMAIN

Directeur Commercial

+33(0)1 41 14 87 00

www.mathworks.fr

Analytique

API

Applications

Dataviz

Infrastructure

Institutionnels

Consultants/SSII

Intégrateurs

STIWA augmente le rendement de production de ses machines d’automatisation

 

Le Groupe STIWA, un des leaders de l’automatisation haute performance, fournit des systèmes automatisés d’emballage, de transport, d’assemblage et de fabrication. Les ingénieurs STIWA utilisent MATLAB® pour analyser de gros volumes de données de production collectés par le système de gestion de leur atelier (AMS ZPoint-CI), en temps réel. Cette approche permet d’optimiser le calcul des trajectoires des machines et de réduire la durée des cycles des systèmes de production (bras robotisés), tout en augmentant leur rendement.

 

Toutes les 8 secondes, un système standard STIWA collecte plus de 9 méga-octets de mesures de production brutes. Ces données doivent être filtrées et traitées pour identifier les tolérances appropriées, calculer les pistes d’optimisation de temps pour les robots ou les systèmes de transfert flexibles ou pour modifier le processus. Du fait de la complexité croissante des algorithmes nécessaires à leurs analyses, le besoin de s’équiper d’un environnement de développement comprenant des fonctions intégrées pour l’analyse des données est devenu évident, afin que les ingénieurs puissent se concentrer sur la résolution des problèmes et non sur des détails d’implémentation de bas niveau. Cet environnement devait permettre d’intégrer facilement les algorithmes au sein de leur système de production existant tout en tirant profit de l’infrastructure matérielle multi-cœurs disponible.

 

En utilisant l’environnement MATLAB, les ingénieurs ont réussi à automatiser l’analyse des données, ainsi que la planification des trajectoires des bras robotisés. Leurs algorithmes d’optimisation de trajectoire tirent profit de l’Optimization Toolbox™, les calculs sont accélérés avec la Parallel Computing Toolbox™ et les techniques implicites de ‘vectorisation’ de MATLAB. MATLAB Profiler leur permet d’identifier les fonctions les plus chronophages, puis de les valider via des frameworks de tests unitaires. Le passage en production se fait via MATLAB Compiler™ et Compiler SDK™ pour transformer leurs algorithmes en composants .NET qui, après une 2ème phase de test, sont intégrés au système de gestion de l’atelier. Toutes les 10 secondes ces algorithmes sont invoqués pour analyser les données collectées et calibrer les machines. Résultat :

 

  • « MATLAB nous a permis de réduire de 30% la durée totale du cycle pour les processus de machinerie, résultant en une augmentation significative du rendement de la production », selon Alexander Meisinger CEO.

 

  • « Avec MATLAB Compiler SDK pour intégrer nos algorithmes MATLAB dans un système de production .NET, nous pouvons facilement déployer l’algorithme sur plusieurs machines » conclut Robert Schoßleitner, Responsable de l’unité du logiciel de fabrication chez STIWA

 

 

Mondi implémente un système de maintenance prédictive de ses processus de fabrication grâce au Machine Learning

 

Mondi Gronau est un leader mondial de la fabrication d’emballages et de produits à base de papier. Les 900 employés de son usine de production de plastique exploitent une soixantaine de machines d’extrusion, impression, collage et de bobinage, 24h/24, 365 jours par an. Mondi a développé un outil interne de suivi de fonctionnement et maintenance prédictive basée sur des statistiques avancées et le Machine Learning, le but étant de permettre aux employés de mettre en place des actions correctives et prévenir de sérieux problèmes.

 

Les machines utilisées par Mondi sont larges et complexes et sont chacune contrôlées par plusieurs contrôleurs logiques programmables, qui consignent des mesures telles la température, pression et autres paramètres de performance provenant des capteurs. Chaque machine enregistre 300 à 400 valeurs par minute pour chaque paramètre, générant 7 Giga-octets de données quotidiennement. Les ingénieurs devaient développer une application permettant de présenter les résultats de ce type d’analyse, de manière claire et immédiate, aux opérateurs des machines. Et à des fins d’utilisation en continu en environnement de production, il fallait la structurer de manière adéquate, le tout avec peu d’expérience en analyse statistique et Machine Learning.

 

Avec l’aide du Consulting MathWorks, Mondi a développé une application MATLAB pour effectuer des requêtes vers leur base de données volumineuse, nettoyer les signaux et reporter graphiquement les résultats. L’application a ensuite été améliorée, en y intégrant des fonctionnalités de contrôle de processus statistique (SPC) alertant les opérateurs d’éventuelles valeurs hors normes.

 

En utilisant la Statistics & Machine Learning Toolbox™ et la Neural Network Toolbox™, et plusieurs algorithmes de Machine Learning (réseaux de neurones, k-means, les arbres de décision, SVM…), l’équipe a pu tester rapidement différents modèles de prédiction, puis incorporer le meilleur à l’application. Ces prédictions permettent aux opérateurs de recevoir des alertes sur de potentielles pannes. Mondi a ensuite utilisé MATLAB Compiler™ pour déployer ces applications en production dans l’usine. Résultat :

 

  • « Plus de 50000€ économisés chaque année grâce à la maintenance prédictive avec MATLAB » déclare Dr. Kohlert, Head of information management and process automation chez Mondi

 

  • « Nous avons eu les premiers tests en deux mois et un prototype opérationnel en six mois. Le code MATLAB est facile à comprendre, de sorte que nous pouvons faire des changements rapidement si besoin »

 

MathWorks

Amine

El Helou

Consultant Data Analytics

 

interview

Où en est, d’après vous, l’adoption des technologies dites ‘Big Data’ ?

 

On croise 2 profils d’entreprises : celles connues comme ‘early adopters’ bien avancées dans les projets ‘Big Data’, et les ‘early majority’, plus prudents. Ces derniers, sont plutôt en attente de résultats prouvés dans leur domaine avant de se lancer, surveillent de près les évolutions, et investissent prudemment dans des PoC.

De nombreuses entreprises ont conscience de pouvoir accéder à des données à partir de sources multiples et utiliser des outils sophistiqués d’analyse prédictive, comme le machine learning, pour prendre rapidement des décisions plus efficaces. Nous le constatons dans presque toutes les disciplines de l’ingénierie, que ce soit dans le secteur médical ou l’aéronautique. Dans le secteur automobile, les entreprises acquièrent des données sur les passagers et les véhicules pour que leurs ingénieurs puissent optimiser la consommation de carburant de véhicules hybrides. Ceci est révélateur de la multiplicité des sources dont sont issues les données collectées, et où la construction de modèles complexes permet de mieux comprendre comment un système fonctionne dans le monde réel. L’utilisation de ces modèles de conception de système est un gain de temps et d’argent car il influe directement sur l’optimisation des performances opérationnelles. Cependant, les résultats sont encore timides. Des études, comme celle menée par Cap Gemini et Informatica qui révèle que ‘moins d’un tiers des projets sont rentables’, montrent que les entreprises ont devant elles une grande marge de progression. L’accompagnement des clients est donc clé pour inverser la tendance.

 

Quels sont les éléments bloquants ou défis techniques pouvant expliquer ces faibles résultats ?

 

Nous pouvons scinder les défis en deux catégories principales. Tout d’abord, les défis d’ordre organisationnels : difficultés de communication entre différentes équipes, business vs analytique. S’ajoute à cela l’aspect gouvernance pour éviter les recouvrements de tâches entre DSI et départements analytiques/digitaux (généralement créés pour prendre le relai sur ces problématiques). D’ailleurs, l’étude Cap Gemini-Informatica stipule qu’un projet aurait deux fois plus de chances d’aboutir si orchestré par une unité ‘digitale’ (vs DSI). D’autre part, d’un point de vue technique :

la qualité de la donnée elle-même (‘clean data’) est capitale, mais surtout la ‘mise en production’ ou passage au monde réel. Cela se traduit par la difficulté à intégrer ces nouvelles couches applicatives développées (ingestion de donnée brute en temps réel, algorithme de prédiction, scoring, …) aux environnements existants. Un autre type de défi tient à la préférence des entreprises d’avoir leurs propres experts du domaine capables d’effectuer les tâches Data Analytics requises - comme le prétraitement des données, le développement de modèles prédictifs, etc. - plutôt que d’embaucher des data scientists qui ont certes les compétences techniques mais pas l’expertise du domaine. Et c’est ce que nous permettons, notamment grâce à l’ensemble du support technique disponible à travers la formation, les séminaires et notre communauté d’utilisateurs en ligne MATLAB Central.

 

En termes de type d’outillage, où se positionnent vos solutions ? (« Plateforme vs. Code »)

 

Les solutions se résumant exclusivement soit au code soit à l’interface utilisateur ont toutes deux leurs limites. MATLAB trouve l’équilibre qui permet aux experts du domaine de développer le Data Analytics et de travailler avec des Big Data. Nous proposons de nombreuses Apps qui offrent une expérience interactive pour accéder, visualiser, prétraiter, et modéliser des données – qu’elles soient numériques, de signal, ou encore provenant d’images ou de vidéos. Un exemple est la Classification Learner App, qui vous permet d’explorer vos données, sélectionner les fonctionnalités, spécifier la validation de schémas, choisir parmi un certain nombre d’algorithmes de machine learning, d’entrainer des modèles, et d’évaluer les résultats, le tout de manière interactive. Cette App MATLAB et d’autres génèrent également du code MATLAB, ce qui est important puisque la programmation haut niveau permet l’automatisation de tâches répétitives qui peuvent être fastidieuses avec une solution centrée sur l’interface utilisateur.

 

Comment votre offre permet-elle d’adresser les différents problèmes cités ? Et comment évolue-t-elle ?

 

Pour ce qui est de la qualité de la donnée, dans le monde de l’ingénierie et des objets connectés, une des solutions consiste aujourd’hui à embarquer des algorithmes de traitement à la source (le capteur lui-même), cela réduit considérablement la volumétrie de données transmises et coûts associés. Nos outils de génération automatique de code embarqué sont très utiles dans ce contexte. Quant à la mise en production, rapide, si je rebondis sur le constat établi par rapport au pilotage des projets par les DSI : ces derniers utilisant des langages et environnements différents des équipes analytiques (experts métier, data scientists…), la communication est implicitement rendue difficile. A cela, nos solutions permettent de réduire ce fossé entre métiers et DSI en automatisant le déploiement et la mise à l’échelle d’analytique MATLAB vers tout type d’environnement. Quant à l’évolution de notre offre, il est vrai que dans ce monde-là les versions applicatives changent très vite. Il n’en demeure pas moins que pouvoir en tirer profit n’est pas à la portée de tous. Notre approche de développement consiste à proposer, à un rythme réfléchi et prudent, des API facilitant l’interfaçage avec ces différentes technologies et une implémentation simplifiée des nouveaux frameworks tels que MapReduce et Spark. Car en tant qu’éditeur de logiciel avec des exigences qualité strictes, il serait coûteux et risqué de livrer des API sur des versions non-stables au prétexte de vouloir à tout prix supporter toutes les nouveautés technologiques du marché.

 

Référence : «The Big Data Payoff: Turning Big Data into Business Value» © Capgemini – Informatica 2016