Herausforderung
Um die Chancen einer datenreichen Fertigungsumgebung zu nutzen, muss man sich auch ihren Herausforderungen stellen. Bei Marelli bedeutete dies, Barrieren beim Datenzugriff zu überwinden und einen Weg zu finden, die Zusammenarbeit zwischen Daten- und Fachexperten zu vertiefen.
Lösung
Die technische Leitung bei Marelli war auf der Suche nach einem Analysetool, das sowohl anspruchsvolle statistische Analysen als auch die Möglichkeit zur Optimierung des gesamten Fertigungsdaten-Workflows bietet. Durch die Konsolidierung mehrerer Schritte in einem einzigen Tool bietet die Statistik-Ermittlungssoftware JMP® „eine äußerst leistungsstarke Suite an Tools … sowohl aus statistischer als auch aus Visualisierungssicht“, sagt Simone Cianchini, Qualitätsmanager für elektronische Systeme bei Worldwide Innovation and Improvements.
Ergebnisse
Seit seiner Implementierung hat JMP die Datenexploration zu einer Best Practice in den Analyse-Workflows von Marelli gemacht und ermöglicht es Fachexperten, schnell mehr Wert – und letztlich mehr Erkenntnisse – aus ihren Daten zu ziehen. Darüber hinaus, so Cianchini, habe dieser Arbeitsablauf sogar zu einem Kulturwandel beigetragen, indem er Daten- und Fachexperten gleichermaßen befähigt habe, Daten mit Neugier anzugehen.
Marelli ist einer der weltweit führenden unabhängigen Zulieferer der Automobilbranche und beschäftigt weltweit fast 54.000 Mitarbeiter. Mit einer starken, etablierten Erfolgsbilanz in den Bereichen Innovation und Fertigungsqualität bietet das Unternehmen Technologien für mehrere Produktbereiche der Automobilindustrie, darunter Elektronik und moderne Innenausstattung, Fahrzeugbeleuchtungs- und Sensortechnologien, E-Antriebs- und Wärmemanagementlösungen für die Elektrifizierung von Fahrzeugen, umweltfreundliche Technologien für Abgassysteme, Lösungen für Verbrennungsmotoren und Aufhängungssysteme sowie den Motorsport.
Die einzigartige technologische Vision des Unternehmens, die sich am deutlichsten in den schnellen Entwicklungszyklen für vernetzte, autonome und gemeinsam genutzte Elektromobilität zeigt, ist eng mit einer ausgereiften Analysekultur verknüpft, die laut der Marelli-Führung für Innovation von größter Bedeutung ist. „Die Nutzung von Daten ist der Schlüssel zur Beschleunigung von Entscheidungen – und zur Untermauerung dieser Entscheidungen mit stärkeren Argumenten. Der Schlüssel zur Steigerung der Rentabilität liegt in der Maximierung des Ergebnisses dieser Formel: (Geschwindigkeit x Effektivität)/Kosten. „Dies wird durch Datenerfassung, Visualisierung und Analyse unterstützt“, sagt Simone Cianchini, Worldwide Innovation and Improvements Quality Manager für elektronische Systeme bei Marelli.
Cianchini, ein Six Sigma Master Black Belt mit über 25 Jahren Erfahrung in Fertigungsabläufen, technischer Innovation, Integration, F&E und Datenwissenschaft, kam vom Halbleitergiganten Vishay zu Marelli, wo er als Senior Manager für Engineering und Integration tätig war. Im Laufe seiner Karriere habe er erkannt, dass Agilität durch Analytik den entscheidenden Wert von Unternehmen darstellt, die sinnvolle Innovationen vorantreiben, sagt er.
„In unserer modernen Umgebung ist die Datenwissenschaft von entscheidender Bedeutung. „Wir können Entscheidungen nicht länger auf der Grundlage von Intuition oder abstrakten Ideen treffen“, sagt er. Wenn Unternehmen wettbewerbsfähig bleiben wollen, müssen sie in die Ermöglichung strategischer Analysen investieren.

Ein optimierter und strategischer Datenworkflow ist der Grundstein für eine erfolgreiche Analytics-Aktivierung
Im Einklang mit diesem Ethos hat Marelli in seinem gesamten Geschäftsbereich Elektronik ein aktives datengesteuertes Entscheidungsfindungsprogramm (Data-Driven Decision Making, 3DM) eingeführt. 3DM hat sich auf eine Reihe sequentieller Dateninitiativen standardisiert, erklärt Cianchini, und bietet so einen optimierten Workflow, der mit Big Data Management beginnt und sich über Analytik, Datenkontrolle, Prävention und Prognose erstreckt.
„Mit Daten allein lassen sich keine Dinge verwirklichen. Vielmehr müssen wir als Fachexperten Entscheidungen auf Grundlage der Erkenntnisse treffen, die wir aus unseren Daten gewinnen“, sagt Cianchini. „Unser Ziel ist es, diese Informationen bestmöglich zu nutzen, um Chancen zu schaffen, Fehler zu vermeiden und Entscheidungsprozesse zu beschleunigen.“
Um das 3DM-Optimierungsversprechen bestmöglich einzulösen, müsse man laut Cianchini zunächst sicherstellen, dass die gesammelten Daten für den vorgesehenen Zweck geeignet sind. Dazu stellt er drei zentrale Fragen: Wer ist der Kunde einer bestimmten Datennutzung? Welche Erwartungen hat der Kunde in Bezug auf diese Datennutzung? Und wie kommuniziert man am besten mit dem Kunden?
„Zuerst müssen wir an den Endbenutzer denken – sei es die Entwicklung, der Betrieb, die Personalabteilung oder sogar unser CEO und CTO“, überlegt er. „Jeder hat andere Anforderungen an das Datenmanagement, daher ist die Meinung des Kunden absolut entscheidend.“ Darüber hinaus, fügt er hinzu, führt Komplexität nicht immer zu einem Mehrwert. „Selbst eine einfache Datenvisualisierung könnte eine sehr interessante Diskussion auslösen. Die Daten erzählen eine Geschichte. Jede Geschichte kann aus verschiedenen Blickwinkeln erzählt werden und jeder Blickwinkel kann Ihnen andere Informationen liefern.“ Intelligenter zu arbeiten, sagt er, bedeutet oft, einfacher zu arbeiten.

Dynamische Visualisierungen durchbrechen Barrieren und Komplexität
Durch die Datenvisualisierung lässt sich jede unnötige Komplexität schnell auflösen, weshalb sie für Marelli immer wichtiger wird. Cianchini zufolge vertieft sie die Zusammenarbeit und macht Dateneinblicke für Fachexperten leichter zugänglich, die den Prozess, das Produkt oder die Dienstleistung am besten verstehen. „Wenn wir isoliert zwischen diesen beiden Funktionen und Kompetenzen arbeiten, verlieren wir an Geschwindigkeit – oder wir gelangen möglicherweise zu völlig falschen Schlussfolgerungen“, sagt er.
Seiner Ansicht nach gibt es zwei Möglichkeiten, Daten zu nutzen. Erstens gibt es einen strukturierten, methodischen Ansatz: die traditionelle wissenschaftliche Methode, die von der Hypothese über die Analyse zu den Ergebnissen führt. Zweitens gibt es einen unstrukturierten Ansatz, der Wert auf gemeinschaftliche Erkundung legt. „Diese Gespräche beginnen nicht unbedingt mit einer Hypothese – sondern nur mit Neugier“, sagt er und betont, dass es keinen perfekten Ansatz gibt, da die Entscheidungsfindung nur optimiert werden kann, wenn das richtige Gleichgewicht zwischen strukturierten und unstrukturierten Methoden erreicht wird.
„Meiner Erfahrung nach ist es immer am besten, mit den Daten zu spielen, bevor man zu einer tieferen Analyse übergeht. Und in dieser Phase ist es besonders wertvoll, die Perspektive von außen einzubringen, von jemandem, der disruptive Fragen stellen kann, die den Fachexperten helfen, eine neue Perspektive zu gewinnen und sich von vorgefertigten Gedanken zu lösen.“
Explorative Datenanalyse und Visualisierung seien einige der am meisten unterschätzten Aspekte eines robusten Analyse-Workflows, sagt er. Und über ein Analysetool zu verfügen, das die Exploration zu einem Standardschritt oder einer bewährten Methode innerhalb dieses Workflows macht, kann eine bahnbrechende Veränderung darstellen. „Wenn ich mit meinem Team spreche, sage ich ihnen: Spielt immer mit dem Klick, seid neugierig und traut euch.“ Und hier kommt die statistische Datenermittlungssoftware JMP® ins Spiel.
Ein konsolidierter Analyse-Workflow in JMP® trägt dazu bei, die Produkteinheitlichkeitsleistung schnell zu verbessern
Die Agilität, die JMP dem Team von Cianchini verleiht, lässt sich vielleicht am besten durch einen Fall veranschaulichen, in dem Ingenieure das Tool nutzten, um das Leistungsniveau und die Einheitlichkeit des Produkts rasch zu verbessern. Nachdem das Team die tatsächliche Produktleistung in der Produktionslinie beobachtet hatte, maß es zunächst die Ebenheit des Produkts an verschiedenen Positionen (XY), sammelte Prozessausgabedaten vom Messsystem der Linie und wertete die Eingabeinformationen für jedes Teil aus.
„Wir haben dann eine JMP-Tabellenverknüpfung verwendet, um Prozess-Input und -Output zu einem einzigen zusammenzuführen“, erklärt er. „Dies ist eine sehr leistungsstarke JMP-Funktion, die wir in vielen verschiedenen Situationen verwendet haben, insbesondere wenn eine ähnliche Ausgabedatei von den automatisierten Maschinen der Fabrik vorliegt.“ Das Ergebnis, fügt er hinzu, sei eine dynamische Tabelle, die sowohl Eingabe- als auch Ausgabedaten visualisierte.
„Durch einige Untersuchungen konnten wir feststellen, ob der Prozessinput relevant wäre“, erklärt er. „Die Geschwindigkeit, mit der diese Informationen erfasst wurden, war von entscheidender Bedeutung – vielleicht die perfekte Illustration der Verschmelzung dessen, was es bedeutet, bei Marelli ein Datenexperte und ein Prozessexperte zu sein.“

Ein Modell, das zeigt, wie das Team bei Marelli die Ebenheit von Objekten misst.

Die resultierende zusammengeführte Tabelle zeigt sowohl Prozess-Eingabe- als auch -Ausgabedaten.

Klassische Datenverteilungen lieferten nur unzureichende Erkenntnisse darüber, wie das Problem der Flachheit gelöst werden könnte.

Das Team beginnt mit einem Variabilitätsdiagramm für ein einzelnes Teil nach seinem Standort.

Es ist offensichtlich, dass alle Teile eine ähnliche Lageebenheitsverteilung aufweisen.

Eine Konturkarte im Graph Builder ermöglicht dem Team, nach einem einzelnen Teil zu filtern.
Über die Erleichterung der Zusammenarbeit bei der Problemlösung hinaus macht laut Cianchini eine relativ einfache Datenvisualisierung den Unterschied zwischen Fragen und Lösungen aus. „Als unser Ausgangspunkt eine klassische Datenverteilung war, sah das Team nur, in welchem Ausmaß sich die Flachheit ausgebreitet hatte, was es unmöglich machte, sie mit begrenzten Beweisen zu lösen“, sagt er. Doch durch Experimente mit Variabilitäts- und Attributmessdiagrammen, Graph Builder-Konturkarten und Heatmaps gelang es dem Team, ein deutlich differenzierteres Bild des vorliegenden Problems zu zeichnen.
In der Visualisierung fiel sofort auf, dass einige der dedizierten Teilepositionen sehr unterschiedliche Ebenheitswerte aufwiesen. „Die Frage war dann: Inwieweit war dieser Unterschied in der Ebenheit bei allen Teilen gleich?“, fügt er hinzu.
„Vom unspezifischen Problem zur detaillierten Beschreibung, einfach so“
Eine fortgesetzte Datenexploration brachte eine weitere Lösung. Mit nur wenigen Klicks – und in wenigen Sekunden – lieferte eine nachfolgende Visualisierung weitere Informationen und ermöglichte dem Team zu erkennen, dass die flachen Bereiche in allen Teilen hinsichtlich Ausmaß und Lage konsistent waren. „Diese Konturkarte war für unsere technischen Experten, die das Produkt und den Prozess genau kennen, sehr nützlich“, sagt Cianchini. „Und dafür waren nicht einmal Formeln oder Code erforderlich.“
Mithilfe dieses einzelnen Analyse-Workflows erfuhr das Team schnell zwei wichtige Erkenntnisse: Erstens, dass alle Teile eine ähnliche Ebenheitsverteilung aufwiesen und zweitens, dass es bestimmte Bereiche – links unten und oben in der Mitte – gab, in denen die Ebenheitswerte durchweg höher waren. Ausgestattet mit diesen Informationen konnte Cianchinis Team dann genau feststellen, wo die Maschine Abweichungen einführte. „Und so“, sagt er, „kamen wir von einem nicht näher spezifizierten Problem zu einer detaillierten Beschreibung und schließlich zur Lösung unseres Problems.“
Nach einer Reihe von Analysen gelangte das Team zu Schlussfolgerungen, die maßgeblich dazu beitrugen, Möglichkeiten zur Verbesserung des Prozesses aufzuzeigen. Durch die Feinabstimmung zweier spezifischer Parameter und die Einführung neu gestalteter Elemente in ihr Werkzeug verbesserte Cianchinis Team die Gleichmäßigkeit umfassend und reduzierte Ebenheitsfehler. JMP, sagt er, „bietet uns eine sehr leistungsstarke Suite an Tools für diese Art von Untersuchung, sowohl aus statistischer Sicht als auch aus Sicht der Visualisierung.“
„Es ist ein hervorragendes Beispiel für die Bedeutung einer Analysekultur – und dafür, warum es unerlässlich ist, neugierig auf die eigenen Daten zu sein“, so Cianchini abschließend. „Stellen Sie ohne Hemmungen Fragen und seien Sie bereit, mit dem Klick zu spielen. Nur so können Sie sicher sein, dem richtigen Kunden die richtige Antwort auf die richtige Weise zu geben. Neugier bedeutet, ständig innovativ sein und sich verbessern zu können.“

Ein dynamisches Streudiagramm bietet Möglichkeiten, Informationen visuell zu extrahieren.

Für jedes produzierte Teil zeichnet das Team den Wert der Prozess-Inputs (1-2-3-4) und die relative Output-Gleichmäßigkeit auf. Anhand dieser Informationen lässt sich ermitteln, ob eine Korrelation zwischen Input und Output besteht und ob es Inputs gibt, die für die Veränderung des Outputs von besonderer Relevanz sind. Eine einzigartige Grafik enthält eine Fülle von Informationen, ergänzt durch anpassbare Farben und andere Visualisierungsfunktionen. In dieser Grafik sehen wir Eingabe- und Ausgabeverteilungen (Matrixdiagonale von oben nach unten); Korrelation zwischen den Variablen (Grafikmodus) (Matrix unten links); Korrelation zwischen den Variablen (mit statistischem Index) (Matrix oben rechts); und Korrelation zwischen den Variablen (mit Farbskala) (Matrix oben rechts).

Eine visuelle Analyse mit einer Farbkarte, die mit Korrelationswerten kombiniert wurde, liefert schnell eine Reihe von Schlussfolgerungen, darunter, dass die Ausgabe (Flachheit) und die Eingabe 1 eine starke positive Korrelation aufweisen; die Ausgabe (Flachheit) und die Eingabe 4 eine starke negative Korrelation aufweisen; die Eingaben 2 und 3 für die Änderung der Ausgabe nicht signifikant sind; und die Eingaben 1 und 4 eine starke negative Korrelation aufweisen und daher nicht leicht unabhängig voneinander geändert werden könnten.

Anhand der Variabilitätsmessdiagramme konnte das Team mehrere wichtige Schlussfolgerungen ziehen. Als Ergebnis der neuen Konfiguration und Einstellungen stellten sie auf der ganzen Linie weniger Flachheit und eine bessere Gleichmäßigkeit fest.

„Es ist ein hervorragendes Beispiel für die Bedeutung einer Analysekultur – und dafür, warum es unerlässlich ist, neugierig auf die eigenen Daten zu sein“, so Cianchini abschließend. „Stellen Sie ohne Hemmungen Fragen und seien Sie bereit, mit dem Klick zu spielen. Nur so können Sie sicher sein, dem richtigen Kunden die richtige Antwort auf die richtige Weise zu geben. Neugier bedeutet, ständig innovativ sein und sich verbessern zu können.“
Seiner Meinung nach ist dies ein wichtiger Ratschlag, der die Unternehmenskultur verändern kann: „Spielen Sie einfach mit dem Klick.“
Die in diesem Artikel beschriebenen Ergebnisse beziehen sich auf die Situation, das Geschäftsmodell, die Dateneingabe und die Rechenumgebungen, die hier beschrieben werden. Die Erfahrungen jedes SAS-Kunden sind einzigartig und basieren auf betrieblichen und technischen Variablen. Alle Aussagen sind als unspezifisch aufzufassen. Tatsächliche Einsparungen, Ergebnisse und Leistungseigenschaften variieren je nach den Konfigurationen und Umgebungsbedingungen des Kunden. SAS gewährleistet und behauptet nicht, dass jeder Kunde ähnliche Ergebnisse erreichen wird. SAS bietet ausschließlich jene Gewährleistungen für Produkte und Dienstleistungen, die in den ausdrücklichen Gewährleistungserklärungen im schriftlichen Vertrag für diese Produkte und Dienstleistungen enthalten sind. In diesem Dokument werden keinerlei zusätzliche Gewährleistungen abgegeben. Kunden haben SAS ihre Erfolge im Rahmen eines vertraglich vereinbarten Austauschs oder einer Zusammenfassung eines erfolgreichen Projekts nach erfolgreicher Einrichtung von SAS-Software bekanntgegeben.