Sprache: Englisch
Der Datenlebenszyklus ist ein mehrstufiger Prozess, der mit der Erfassung und Lagerung von Daten beginnt und mit der Datenentsorgung endet. Durch die ständig größer werdenden Datensätze können Arbeitsabläufe jedoch schnell unstrukturiert oder übermäßig komplex werden. Zur Unterscheidung zwischen verwertbaren Informationen und Rauschen brauchen Analysten bessere Arbeitsabläufe und die richtige Kombination von Analysewerkzeugen, mit denen sie den Prozess optimieren können. Flexibilität, Integration, Standardisierung und Verbesserung statistischer Methoden innerhalb des Datenlebenszyklus helfen dem Endanwender, da sie die Arbeit innerhalb des Datenmanagementsystems optimieren und den Analyseprozess einfacher und wiederholbar machen.
In diesem Seminar lernen Sie Folgendes:
- Verwenden der Datenvisualisierung, um die Datenbereinigung intuitiver zu machen
- Kombinieren einer Desktop-Analysesoftware mit Open-Source-Werkzeugen wie Python und R zur Erstellung einer hochfunktionellen Schnittstelle
- Nutzen benutzerdefinierter Skripte zum Speichern und wiederholten Ausführen graphischer Analysen
- Verpacken gespeicherter Skripte in mausgesteuerten Add-ins, die Erstanwendern als maßgeschneiderte Analyseroutinen bereitgestellt werden können
Sprecher:
Thomas Zelikman ist Senior Consultant bei NNEs Applied Manufacturing Group seit 2015. Er hat 17 Erfahrung mit robusten Designs, Six Sigma Methoden und Kontrollsystem Engineering. Neben seinem Fokus auf Ingenieurwesen arbeitet Thmoas seit 1985 auch als Software Entwickler.