Défi
Saisir les opportunités offertes par un environnement de fabrication riche en données signifie également faire face à ses défis. Chez Marelli, il s'agissait de surmonter les obstacles à l'accès aux données et de trouver un moyen d'approfondir la collaboration entre les experts en matière de données et de domaines.
Solution
Les responsables techniques de Marelli recherchaient un outil d'analyse capable d'offrir à la fois une analyse statistique sophistiquée et un moyen de rationaliser l'ensemble du flux de données de fabrication. En regroupant plusieurs étapes en un seul outil, le logiciel de recherche statistique JMP® "offrait une suite d'outils très puissants... tant du point de vue statistique que du point de vue de la visualisation", explique Simone Cianchini, responsable mondial de l'innovation et de l'amélioration de la qualité pour Electronic Systems.
Résultats
Depuis sa mise en œuvre, JMP a fait de l'exploration des données une pratique exemplaire au sein des flux de travail analytiques de Marelli, permettant aux experts du domaine d'extraire rapidement plus de valeur - et en fin de compte plus d'informations - de leurs données. En outre, selon M. Cianchini, ce flux de travail a même contribué à changer la culture en permettant aux experts en données et en domaines d'aborder les données avec un esprit de curiosité.
Marelli est l'un des principaux fournisseurs mondiaux indépendants du secteur automobile, employant près de 54 000 personnes dans le monde. Forte d'une solide expérience en matière d'innovation et d'excellence de fabrication, l'entreprise fournit des technologies pour plusieurs domaines de produits automobiles, notamment l'électronique et les intérieurs avancés, l'éclairage automobile et les technologies de détection, la chaîne de traction électrique et les solutions de gestion thermique pour l'électrification des véhicules, les technologies vertes pour les systèmes d'échappement, les solutions pour la chaîne de traction à combustion interne et les systèmes de suspension, ainsi que pour le sport automobile.
La vision technologique unique de l'entreprise, particulièrement évidente dans ses cycles de développement rapides sur la mobilité électrique connectée, autonome et partagée, est profondément alignée sur une culture analytique mature que les dirigeants de Marelli considèrent comme primordiale pour l'innovation. "L'utilisation des données est essentielle pour accélérer les décisions et les étayer par des arguments plus solides. Pour augmenter la rentabilité, la clé est de maximiser le rendement de la formule : (vitesse x efficacité)/coût. La collecte, la visualisation et l'analyse des données y contribuent", explique Simone Cianchini, responsable mondial de l'innovation et de l'amélioration de la qualité pour les systèmes électroniques chez Marelli.
Six Sigma Master Black Belt avec plus de 25 ans d'expérience dans les opérations de fabrication, l'innovation en ingénierie, l'intégration, la R&D et la science des données, Cianchini est arrivé chez Marelli après avoir travaillé pour le géant des semi-conducteurs Vishay, où il a occupé le poste de directeur principal de l'ingénierie et de l'intégration. Au cours de sa carrière, il a constaté que l'agilité en matière d'analyse est la valeur déterminante des organisations qui favorisent l'innovation.
"Dans notre environnement moderne, la science des données est essentielle. Nous ne pouvons plus prendre de décisions basées sur l'intuition ou des idées abstraites", dit-il ; si les organisations veulent rester compétitives, elles doivent investir dans la mise en œuvre d'analyses stratégiques.

Un flux de données rationalisé et stratégique est la pierre angulaire d'une mise en œuvre réussie de l'analyse.
Conformément à cette philosophie, Marelli a mis en place un programme actif de prise de décision fondée sur les données (3DM) dans l'ensemble de son secteur d'activité électronique. 3DM a normalisé une série d'initiatives séquentielles en matière de données, explique M. Cianchini, en fournissant un flux de travail rationalisé qui commence par la gestion des big data et se poursuit par l'analyse, le contrôle des données, la prévention et la prédiction.
"Les données seules ne suffisent pas à faire bouger les choses ; en tant qu'experts du domaine, nous devons prendre des décisions basées sur les informations que nous extrayons de nos données", explique M. Cianchini. "Notre objectif est d'exploiter ces informations de toutes les manières possibles afin de créer des opportunités, d'éviter les erreurs et d'accélérer les processus de prise de décision".
Pour tenir les promesses d'optimisation du 3DM, M. Cianchini estime qu'il faut d'abord s'assurer que les données collectées sont adaptées à l'objectif visé. Pour ce faire, il pose trois questions clés : Qui est le client pour une utilisation donnée des données ? Quelles sont les attentes du client en ce qui concerne l'utilisation des données ? Et quelle est la meilleure méthode pour communiquer avec le client ?
"Nous devons d'abord penser à l'utilisateur final, qu'il s'agisse de l'ingénierie, des opérations, des ressources humaines ou même du PDG et du directeur technique", explique-t-il. "Chacun a des besoins différents en matière de gestion des données, c'est pourquoi la voix du client est absolument essentielle. En outre, ajoute-t-il, la complexité n'apporte pas toujours une valeur ajoutée. "Même une simple visualisation de données peut donner lieu à une discussion très intéressante. Les données racontent une histoire, chaque histoire peut avoir différents points de vue, et chaque point de vue peut vous donner des informations différentes". Travailler plus intelligemment, dit-il, signifie souvent travailler plus simplement.

Les visualisations dynamiques éliminent les obstacles et la complexité
La visualisation des données permet de démêler rapidement toute complexité inutile et est donc devenue de plus en plus importante pour Marelli, où M. Cianchini affirme qu'elle approfondit la collaboration et rend les données plus accessibles aux experts du domaine qui comprennent le mieux le processus, le produit ou le service. "Si nous travaillons de manière isolée entre ces deux fonctions et compétences, nous perdons en rapidité - ou nous risquons d'arriver à une conclusion erronée", ajoute-t-il.
Selon lui, il y a deux façons d'utiliser les données. La première est une approche structurée et méthodique : la méthode scientifique traditionnelle qui va de l'hypothèse à l'analyse et aux résultats. La deuxième est une approche non structurée qui valorise l'exploration collaborative. "Ces conversations ne commencent pas nécessairement par une hypothèse, mais simplement par de la curiosité", explique-t-il, soulignant qu'il n'existe pas d'approche parfaite, car la seule façon d'optimiser la prise de décision est de trouver le bon équilibre entre les méthodes structurées et non structurées.
"D'après mon expérience, il est toujours préférable de jouer avec les données avant de procéder à une analyse plus approfondie. À ce stade, il est particulièrement utile de faire appel à un regard extérieur, à quelqu'un qui peut poser des questions dérangeantes qui aident les experts du domaine à acquérir une nouvelle perspective et à s'éloigner des idées toutes faites".
Selon lui, l'analyse et la visualisation des données exploratoires sont parmi les aspects les plus sous-estimés d'un flux de travail analytique robuste. Un outil d'analyse qui fait de l'exploration une étape standard ou une meilleure pratique dans le cadre de ce flux de travail peut avoir un effet transformateur. "Lorsque je m'adresse à mon équipe, je leur dis de toujours jouer avec le déclic, d'être curieux et d'oser. C'est là qu'intervient le logiciel de découverte statistique JMP®.
Un flux de travail analytique consolidé dans JMP® permet d'améliorer rapidement les performances en matière d'uniformité des produits.
L'agilité que JMP apporte à l'équipe de M. Cianchini est peut-être mieux illustrée par un cas où les ingénieurs ont utilisé l'outil pour améliorer rapidement le niveau de performance et l'uniformité du produit. Après avoir observé les performances réelles du produit sur la ligne de production, l'équipe a d'abord mesuré la planéité du produit dans différentes positions (X-Y), recueilli les données de sortie du processus à partir du système de mesure de la ligne et évalué les informations d'entrée pour chaque pièce.
"Nous avons ensuite utilisé une jointure de table JMP pour fusionner l'entrée et la sortie du processus en une seule", explique-t-il. "Il s'agit d'une fonction JMP très puissante que nous avons utilisée dans de nombreuses situations, en particulier lorsqu'il existe un fichier de sortie similaire provenant des machines automatisées de l'usine. Le résultat, ajoute-t-il, est un tableau dynamique qui visualise à la fois les données d'entrée et de sortie.
"Avec un peu d'exploration, nous avons pu déterminer si l'apport du processus serait pertinent", explique-t-il. "La vitesse de saisie de ces informations était absolument essentielle - peut-être l'illustration parfaite de la fusion entre ce que signifie être un expert en données et un expert en processus chez Marelli".

Un modèle montrant comment l'équipe de Marelli mesure la planéité des objets.

Le tableau fusionné qui en résulte présente à la fois les données d'entrée et de sortie du processus.

Les distributions de données classiques n'ont pas permis de comprendre comment le problème de la planéité pouvait être résolu.

L'équipe part d'un tableau de variabilité pour une seule pièce en fonction de son emplacement.

Il est évident que toutes les pièces présentent une répartition similaire de la planéité de l'emplacement.

Une carte de contour dans Graph Builder permet à l'équipe de filtrer une seule pièce.
Au-delà de la facilitation des collaborations pour la résolution des problèmes, une visualisation de données relativement simple, affirme M. Cianchini, fait la différence entre les questions et la solution. "Lorsque notre point de départ était une distribution de données classique, l'équipe n'a vu que le degré de dispersion de l'aplatissement, ce qui rendait la question impossible à résoudre avec des preuves limitées", explique-t-il. Mais en expérimentant les graphiques de variabilité et d'attributs, les cartes de contour et les cartes thermiques de Graph Builder, l'équipe a pu brosser un tableau beaucoup plus nuancé du problème en question.
La visualisation a immédiatement mis en évidence que certains des emplacements de pièces dédiés présentaient des niveaux de planéité très différents. "La question qui se posait alors était de savoir dans quelle mesure cette différence de planéité était la même pour toutes les pièces", ajoute-t-il.
D'un problème non spécifié à une description détaillée, juste comme ça".
La poursuite de l'exploration des données a permis de trouver une autre solution. En quelques clics - et en quelques secondes - une visualisation de suivi a fourni davantage d'informations, permettant à l'équipe de constater que les zones plates étaient cohérentes en termes de degré et d'emplacement sur toutes les pièces. "Cette carte en courbes de niveau a été très utile à nos experts techniques qui ont une connaissance approfondie du produit et du processus", explique M. Cianchini. "Et cela n'a même pas nécessité de formules ou de codage.
Grâce à ce flux de travail analytique unique, l'équipe a rapidement appris deux informations essentielles : d'une part, que toutes les pièces présentaient une distribution de planéité similaire et, d'autre part, qu'il existait des régions spécifiques - le bas gauche et le centre supérieur - où les valeurs de planéité étaient systématiquement plus élevées. Grâce à ces informations, l'équipe de M. Cianchini a pu identifier avec précision les endroits où la machine introduisait des variations. "C'est ainsi que nous sommes passés d'un problème non spécifié à une description détaillée et, en fin de compte, à la solution de notre problème.
Après une série d'analyses, l'équipe est parvenue à des conclusions qui ont permis d'identifier la manière dont le processus pouvait être amélioré. En ajustant deux paramètres spécifiques et en introduisant des éléments nouvellement conçus dans leur outil, l'équipe de M. Cianchini a amélioré l'uniformité et réduit les défauts liés à la planéité. JMP, dit-il, "nous offre une suite d'outils très puissants pour ce type d'enquête, tant du point de vue statistique que du point de vue de la visualisation".
"C'est un excellent exemple de l'importance de la culture de l'analyse et de la nécessité d'être curieux de ses données", conclut M. Cianchini. "Posez des questions sans contraintes et soyez prêts à jouer avec le déclic. C'est la seule façon d'être sûr de donner la bonne réponse au bon client de la bonne façon. La curiosité permet d'innover et de s'améliorer en permanence".

Un diagramme de dispersion dynamique permet d'extraire visuellement des informations.

Pour chaque pièce produite, l'équipe enregistre la valeur des intrants du processus (1-2-3-4) et la planéité relative de la production. Ces informations sont utilisées pour déterminer s'il existe une corrélation entre l'intrant et la production et s'il existe des intrants ayant une pertinence spécifique par rapport à la variation de la production. Un graphique unique contient une multitude d'informations, complétées par des couleurs personnalisables et d'autres fonctions de visualisation. Ce graphique montre les distributions d'entrée et de sortie (diagonale de la matrice descendante) ; la corrélation entre les variables (mode graphique) (matrice descendante gauche) ; la corrélation entre les variables (avec indice statistique) (matrice supérieure droite) ; et la corrélation entre les variables (avec échelle de couleurs) (matrice supérieure droite).

Une analyse visuelle avec une carte de couleurs fusionnée avec les valeurs de corrélation permet de tirer rapidement un certain nombre de conclusions, notamment que la sortie (planéité) et l'entrée 1 ont une forte corrélation positive ; la sortie (planéité) et l'entrée 4 ont une forte corrélation négative ; les entrées 2 et 3 ne sont pas significatives pour la modification de la sortie ; et les entrées 1 et 4 ont une forte corrélation négative et ne seraient donc pas faciles à modifier de manière indépendante.

Les tableaux de jauge de variabilité ont permis à l'équipe de tirer plusieurs conclusions importantes. Grâce à la nouvelle configuration et aux nouveaux réglages, ils ont observé une diminution de la planéité et une meilleure uniformité sur l'ensemble du plateau.

"C'est un excellent exemple de l'importance de la culture de l'analyse et de la nécessité d'être curieux de ses données", conclut M. Cianchini. "Posez des questions sans contraintes et soyez prêts à jouer avec le déclic. C'est la seule façon d'être sûr de donner la bonne réponse au bon client de la bonne façon. La curiosité permet d'innover et de s'améliorer en permanence".
Il s'agit d'un conseil clé qui, selon lui, peut transformer la culture d'une organisation : ". Il suffit de jouer avec le clic."
Les résultats illustrés dans cet article sont spécifiques aux situations particulières, aux modèles d'entreprise, aux données saisies et aux environnements informatiques décrits ici. L'expérience de chaque client de JMP est unique, basée sur des variables commerciales et techniques, et toutes les déclarations doivent être considérées comme atypiques. Les économies réelles, les résultats et les caractéristiques de performance varieront en fonction des configurations et des conditions propres à chaque client. JMP ne garantit pas que tous les clients obtiendront des résultats similaires. Les seules garanties relatives aux produits et services de JMP sont celles qui sont énoncées dans les déclarations de garantie expresse figurant dans l'accord écrit relatif à ces produits et services. Rien dans le présent document ne doit être interprété comme constituant une garantie supplémentaire. Les clients ont partagé leurs succès avec JMP dans le cadre d'un échange contractuel convenu ou d'un résumé du succès du projet après une mise en œuvre réussie du logiciel JMP.