Kundenerfahrungen
Volle Kraft Richtung Zukunft
mit Silizium – und JMP®
Polar Semiconductor entwickelt und produziert innovative Wafer für in der Automobilindustrie eingesetzte Computerchips. JMP® hilft dem Unternehmen, Zeit zu sparen, Kosten zu reduzieren und in einem wettbewerbsintensiven Markt kontinuierlich stärker zu werden.
Polar Semiconductor
Herausforderung | Effizienzwerte optimieren, Kosten kontrollieren, Geräte und Daten optimal nutzen und die Produktion innovativer Wafer-Lösungen fortlaufend verbessern. |
---|---|
Lösung | Mithilfe von JMP die Erfassung, Vorbereitung, Analyse und Berichterstellung von technischen und Prozessdaten sowie die zugehörigen Arbeitsabläufe automatisieren und optimieren. |
Ergebnisse | JMP-Skripterstellung, Datenvisualisierung und Dashboards bieten Polar die Erkenntnisse aus Daten und die Genauigkeit, die das Unternehmen braucht, damit die Anlagen reibungslos laufen sowie effiziente Prozesse eingerichtet, hervorragende Produktqualität sichergestellt und neue Innovationen geliefert werden können. |
In der digitalen Wirtschaft wird die Rolle der Informationstechnologie zur Erweiterung der Möglichkeiten immer wichtiger. Dies gilt insbesondere in der Automobilindustrie, wo integrierte Schaltkreise in praktisch jeder Komponente enthalten sind – und zukünftige Funktionen, wie etwa autonomes Fahren, ermöglichen werden.
Die Grundlage vieler automobiler Computerchips ist die von Polar Semiconductor entwickelte und umgesetzte moderne Wafer-Technologie. Polar hat seinen Sitz in Bloomington, MN, und ist die Wafer-Produktionsabteilung von Allegro MicroSystems, einem Entwickler integrierter Schaltungen, und ein Tochterunternehmen des japanischen Halbleiterherstellers Sanken Electric. Die hochqualifizierten Ingenieure von Polar nutzen modernste Anlagen und einen 13.000 Quadratmeter großen Reinraum, wo sie mehr als 3.000 Wafer pro Woche für automobile und andere komplexe industrielle Anwendungen produzieren.
Die Herstellung von Halbleitern ist eine wettbewerbsintensive Branche mit hauchdünnen Gewinnspannen und ständig steigenden Anforderungen an Qualität und Kapazitäten. Um in diesem Umfeld erfolgreich mithalten zu können, muss Polar seine Effizienzwerte optimieren, die Kosten niedrig halten, seine Daten und Anlagen in vollem Umfang nutzen und laufend innovativ sein. Zum Erreichen dieser Ziele verlässt sich das Unternehmen auf modernste Analyseverfahren.
Größere Nachfrage, größere Herausforderungen
Die Nachfrage nach den mit der Wafer-Technologie von Polar hergestellten Computerchips für den Automobilbereich und andere Branchen könnte nicht größer sein. „Die größten Antriebsfaktoren in der Industrie sind derzeit die Automobilindustrie und das Internet der Dinge“, sagt Jim Gillard, der Operations Master Black Belt für Polar. „Wenn Sie sich Ihr Auto ansehen und wie viele seiner elektronischen Komponenten von integrierten Schaltkreisen gesteuert werden, dann sehen Sie schnell, wie rasch das Wachstum voranschreitet.“
Eine riesige Nachfrage ist jedoch nicht gleichbedeutend mit kleinen Herausforderungen. Wie viele andere Unternehmen auch muss Polar seine Innovationsanstrengungen steigern, die Qualität verbessern und die Produktionsmenge erhöhen – und bei all dem die Kosten niedrig halten. Anlagen zur Wafer-Fertigung sind teuer, und Foundrys können es sich nicht leisten, jedes Mal, wenn sie technologische Fortschritte liefern müssen, riesige Investitionen in neue Betriebsmittel zu tätigen. Stattdessen sind Optimierungsmöglichkeiten gefragt, die es erlauben, neue Wettbewerbsvorteile zu erzielen.
„Wir sind ein 200-mm-Werk und im Moment sind 200-mm-Werke überall voll ausgelastet“, erklärt Gillard. „Daher stehen wie unter großem Druck, mehr aus unseren bestehenden Anlagen herauszuholen und die richtigen Werkzeuge zum richtigen Zeitpunkt mit den richtigen neuen Funktionalitäten auszustatten.“
Wenn man zum Beispiel Wafer mit Hochfrequenzplasma ätzt, muss man sicherstellen, dass das Ergebnis konstant ist, unabhängig davon, welche Anlage verwendet wird. Evan Ngo, ein Senior Electrical Test Engineer bei Polar, sagt: „Es wird erheblicher technischer Aufwand in die Werkzeuganpassung und die Reduzierung von Schwankungen gesteckt.“
Das Angleichen der Prozessergebnisse und die Reduzierung der Schwankungsquellen erfordert das Erfassen und Analysieren großer Datenvolumen. Ngo erklärt: „Wir erfassen viele Echtzeit-Werkzeugsignale für Dinge wie Hochfrequenzenergie und ihre entsprechenden Netzwerkparameter, Mikrowellenleistung, Drücke, Temperaturen, Gasströme usw.“ Er und seine Kollegen müssen sicherstellen, dass diese Signale genau überwacht werden und sie Fehler in strengen prozesseingebundenen Steuerungen identifizieren und beheben können, bevor Wafer zu einem Werkzeug geleitet werden, das die Verteilungen der verschiedenen elektrischen Gerätetests am Ende der Fertigungslinie negativ beeinflussen könnte.
Ngo fügt hinzu: „Man darf nicht vergessen, dass ein Wafer während seiner Lebensdauer mit mehreren Hundert Werkzeugen zu tun hat, und mit mehreren Hundert Parametern pro Werkzeug. Wenn Sie 25 Wafer in einer Charge haben, dann sind das eine Menge Daten, die analysiert und korreliert werden müssen. Dafür braucht man ein Statistikprogramm wie JMP.“
Bewältigen von Datenströmen
Sowohl Gillard als auch Ngo besitzen umfassende Erfahrung mit JMP. Gillard, ein Lean Six Sigma Master Black Belt, ist auf Verfahrenstechnik, Versuchsplanung (DOE – Design Of Experiments), Critical to Quality(CTQ)-Merkmale, statistische Prozesssteuerung (SPC) und den Prozessfähigkeitsindex Cpk spezialisiert. Er leitet Schulungen zu Six Sigma und der dafür geeigneten Statistiksoftware – und hier steht JMP im Mittelpunkt.
Gillard nutzt JMP zur Analyse der Prozessdaten von Polar, arbeitet unternehmensweit mit Gruppen zusammen, um potenzielle Problembereiche zu identifizieren und Grenzen, wo erforderlich, weiter oder enger zu setzen. Er hat JMP-Skripte entwickelt, die Daten für CTQ, SPC und Cpk erfassen, vorbereiten, analysieren, und entsprechende Berichte erstellen – und auf diese Weise gleichzeitig SPC-Diagramme um 35 Prozent und den Cpk-Index um 18 Prozent verbessert.
Gillard begann seine Arbeit mit JMP bereits bei einem früheren Arbeitgeber. Er erzählt: „Alle begannen, JMP zu benutzen, da man damit Skripte erstellen und Daten direkt einbeziehen konnte. Als die Leute das sahen, sagten sie nur: ‚Wow, ich markiere das einfach und dann wird dieser Graph hervorgehoben, das ist super!‘ Skripterstellung, Daten einbeziehen, visualisieren – und das alles immer und immer wieder – in Excel oder Minitab geht das nicht.“
Ngo, der an Gillards Six Sigma-Schulung teilgenommen hat, arbeitet im elektrischen Testbereich von Polar. Er analysiert elektrische Daten zur Überwachung von Mustern und Identifikation von Fehlerursachen. Das Ziel besteht darin, sicherzustellen, dass jedes einzelne Produkt von erstklassiger Qualität ist. „Ein Mitarbeiter zeigte mir, wie man in JMP ein Messsystemanalyse-Diagramm erstellt, und ich sagte nur: ‚Perfekt, das ist genau das, wonach ich gesucht habe!‘“
Er setzte JMP noch intensiver ein, als er begann, mit großen Datenmengen zu arbeiten. Er erklärt: „Excel kann etwa 1 Million Zeilen verarbeiten. Und VLOOKUPs in Excel sind ziemlich mühsam, wenn man 10 oder 20 von ihnen macht.“ Ngo arbeitet mit Tabellen, die mehrere Tausend Spalten und mehrere Millionen Zeilen enthalten können. Er sagt: „JMP kann problemlos Tabellen mit Millionen von Zeilen verarbeiten. Zusammen mit schnellen Tabellen-Joins und der Skripterstellung ist JMP damit äußerst hilfreich für wiederholte Korrelationen und Analysen.“
Datenanalyse nach Skriptvorgabe
Sowohl Gillard als auch Ngo erstellen in JMP viele Skripte. Gillard hat beispielsweise Skripte mit parametrischen Modellfunktionen für elektrische Tests und Inline-Funktionen für den Prozess selbst geschrieben. Die Skripte organisieren Daten in einer Graphik und weisen sie einem Anwender zu. Der Anwender kann einfach auf eine Datei klicken und dann schnell entsprechende Diagramme überprüfen. Gillard sagt: „In der Vergangenheit mussten wir ein Diagramm nach dem anderen ansehen, das war nicht effizient.“
Ngo erstellte Anwendungen, die dem elektrischen Testbereich von Polar halfen, Gerätemerkmale wie Widerstände, Kapazitäten, Spannungsschwellen, Durchschlagsspannungen und mehr durch das Korrelieren der entsprechenden Werte mit inline erfassten Daten zu analysieren. Er erklärt: „Nun haben wir die Möglichkeit, schnell zu visualisieren, was bei einem bestimmten Produkt passiert, und wir können mithilfe von Skriptfunktionen genauer analysieren, was wir sehen, und so unsere Hypothesen verifizieren. Wenn Auffälligkeiten vorliegen, können wir die jeweilige Ursache schneller finden und zuverlässigere Ergebnissen erzielen.“
Er erstellte auch das Skript für ein Dashboard, das den Ertrag der Fertigungslinie des Unternehmens überwacht und standardisierte Schlüsselmetriken anzeigt, durch die die Prozessverantwortlichen zu Maßnahmen aufgefordert werden. Er stellt fest: „Ich habe zunächst optimiert, wie wir unsere Ausschussdaten erfassen, denn es ist sinnlos, schlechte Daten in ein Dashboard zu stellen. Nun haben wir eine Datenerfassung, die auf die Prozessverantwortlichen ausgerichtet ist, und wir können Ausschuss über unser gesamtes Werk hinweg verfolgen und in allen Gruppen die Daten auf dieselbe Weise sehen.“ Ngo betont die erheblichen Zeiteinsparung durch JMP-Skripte. „Davor extrahierten Gruppen Daten manuell aus einer SQL-Datenbank und erstellten ihre eigenen Diagramme. Es ist leicht zu sehen, wie zeitaufwendig das ist, wenn das jede Woche gemacht werden muss.“
Sehen wir das Gleiche?
Die Möglichkeit, Daten mit Entscheidungsträgern zu teilen, ist mindestens ebenso wichtig. „Ein Problem, mit dem viele Unternehmen zu kämpfen haben, ist: ‚Wo sind die Informationen?‘“, meint Gillard. „Ein Dashboard zu haben, das kontinuierlich Daten bereitstellt, ist ausgesprochen wertvoll. Statt eine Analyse immer wieder durchzuführen, kann man einfach in sein Dashboard schauen. Oder wenn man eine Aktionsliste hat, dann kann man sie einfach im Dashboard veröffentlichen, und verschiedene Personen können sie verwenden. Diese Dashboards sind eine sehr große Hilfe für uns – und wir erstellen sie in JMP.“
Gillard und Ngo planen auch den Einsatz von JMP Pro für die Analyse von Big Data. „Die Leute reden über Sensordaten und maschinelles Lernen, und alle diese Daten werden jede Sekunde von Maschinen erfasst“, sagt Gillard. „Das ist eine große Datenmenge. Wenn man diese Daten prüfen und Erkenntnisse aus ihnen gewinnen will, sind Werkzeuge wie JMP erforderlich.“