Schwerpunkte

Maschinelles Lernen und Zeitreihen

Von Big Data zu Smart Insights

07. November 2019, 11:36 Uhr   |  Autor: Joe Moser / Redaktion: Diana Künstler


Fortsetzung des Artikels von Teil 1 .

Von deterministischer zu Event-gesteuerter Planung

Deutscher Industrie 4.0 Index 2018
© Deutscher Industrie 4.0 Index 2018, Staufen/Staufen Digital Neonex

Rund 450 Unternehmen wurden gefragt: “Was sind die Motive für Industrie-4.0-/Digitalisierungsmaßnahmen in Ihrem Unternehmen?” Das Ergebnis: Noch dominieren “klassische” Erwartungen.

Dabei ist unzweifelhaft, dass durch prädikative Datenanalysen und Methoden des maschinellen Lernens intelligentere Entscheidungen möglich sind. Rund drei von zehn Unternehmen haben nach den Erkenntnissen von PwC deshalb damit begonnen, die verfügbaren Datenmengen dafür zu verwenden, ihre Prozesse zu optimieren. Die Prognose besagt, dass sich diese Zahl in den nächsten fünf Jahren mehr als verdoppeln wird – auch, weil in der Praxis offensichtlich heutzutage rund zwei Drittel der erfassten Daten nicht zur Erreichung der Ziele verwendet werden. Nur bedarf es zu einer erfolgreichen Implementierung entsprechender Lösungen auch des grundlegenden Verständnisses der Arbeitsweise sowie entsprechender Tools und Infrastrukturen, die eine kosteneffiziente Umsetzung ermöglichen.

Die konventionelle Produktion beruht auf einer deterministischen Planung. Fertigungsaufträge werden über das Enterprise Resource Planning System (ERP) erfasst und gegebenenfalls an die Fertigungssteuerung übergeben. Die folgenden Arbeitsschritte beruhen auf Prozess- und Zeitvorgaben. Dieses Vorgehen funktioniert so lange, bis ein Ereignis eintritt, das den Prozess stört, etwa eine hohe Ausschussrate an einer Maschine bedingt durch die Abnutzung eines Werkzeuges. An dieser Stelle gerät der prädefinierte Prozess ins Stocken und erfordert ein manuelles Eingreifen – mit unabsehbaren Folgen. Das ist ein Grund dafür, dass der prädikativen Wartung heute eine große Aufmerksamkeit zuteil wird.

Eine wesentliche Voraussetzung, um diesem Problem zu begegnen, ist der Paradigmenwechsel von der zeitgesteuerten zur ereignisgetriebenen Steuerung. Im Rahmen dieses Paradigmas reagiert „die Fabrik“ auf Events, entweder sobald sie auftreten oder wenn sie nach den Erkenntnissen der Analyse zu erwarten sind. Die Basis für derartige Analysen bildet eine geeignete Datenbank, die in der Lage ist, massive Datenmengen mit unterschiedlichsten Formaten in Echtzeit zu erfassen und für die Analyse bereitzustellen. Tatsächlich hält der Markt derzeit nur wenige Lösungen parat, die geeignet sind, komplexe Zeitreihendaten von Zehntausenden von Sensoren pro Sekunde über möglicherweise viele geografisch verteilte Produktionsstätten hinweg in Echtzeit zu erfassen und für die Analyse bereitzustellen.
 
Datenbank als Basis
An eben diesem Problem setzt beispielsweise eine distribuierte SQL-Datenbank an, die es ermöglicht, beliebige Mengen an Maschinendaten in Echtzeit aufzunehmen, zu speichern und zu analysieren. Diese Big Data können nun genutzt werden, um mit geeigneten Werkzeugen daraus Smart Data zu generieren. Dazu stehen sowohl kommerzielle als auch Open Source Tools zur Verfügung. Microsoft Azure wie auch Google Cloud oder die Amazon Web Services stellen Plattformen für das Machine Learning bereit. Diese kommerziellen Plattformen können insbesondere in Produktionsumgebungen sinnvoll sein, bergen jedoch immer auch die Gefahr eines Vendor-Lock-ins. Es gilt, die für das Unternehmen passende Infrastruktur sorgfältig zu definieren.

Daneben existieren heute verschiedene Open-Source-Lösungen wie etwa Python, ein umfängliches Ecosystem für das maschinelle Lernen. So lässt sich für die Entwicklung kundenspezifischer Lösungen etwa Python in Verbindung mit anderen Tools des Ecosystems wie Apache Spark, Scikit-learn, Tensorflow oder NumPy nutzen. Daneben kommt Jupyter zum Einsatz, um Daten interaktiv zu testen, zu analysieren und zu visualisieren. Mit der Datenbank für komplexe Zeitreihen und den entsprechenden Tools für das Machine Learning ist die Basis geschaffen, um einen iterativen Prozess aufzusetzen, der die Daten sammelt und aufbereitet, sie analog zu den Vorgaben analysiert und interpretiert und anschließend die Ergebnisse für die Einleitung weiterer Maßnahmen kommuniziert.

So theoretisch dies klingt, so effektiv kann eine derartige Lösung heute in der Praxis funktionieren, etwa bei der präventiven Wartung. Maschinen und Anlagen bedürfen zur Sicherstellung des Produktionsprozesses ohne ungeplante Unterbrechungen einer periodischen Überprüfung und Maintenance. Viele Unternehmen lösen das Problem heute, indem sie Ausfallzeiten für ihre Maschinen einplanen, um mögliche Ursachen für Störungen noch vor dem Auftreten zu beseitigen, zum Beispiel im Rahmen einer turnusgemäßen Wartung. Die prädikative Wartung auf Basis der Erkenntnisse der ML-Analysen geht einen Schritt darüber hinaus, indem sie nicht nur erkennt, was an Verschleiß von Maschinenteilen, Abnutzung von Werkzeugen et cetera zu erwarten ist, sondern auch ermittelt, wann dieser Fall eintreten wird – und so die Downtime und die damit verbundenen Kosten deutlich reduziert. Auch wenn die vollständig datengetriebene Fabrik heute noch Fiktion ist, so zeigt das praktische Beispiel, dass der Einsatz intelligenter Technologien heute sinnvoll und effizient ist, um auf dem Weg zur Digitalen Transformation in der Produktion voranzuschreiten. Die Werkzeuge dazu stehen bereit.

Joe Moser ist Head of Product von Crate.io

Seite 2 von 2

1. Von Big Data zu Smart Insights
2. Von deterministischer zu Event-gesteuerter Planung

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Das könnte Sie auch interessieren

Crate.io stellt IoT-Lösung für Discrete Manufacturing vor
Die Macht der Daten
Geschüttelt, nicht gerührt
Datenwissenschaft als Teamsport
Semantische Graphen: Basis für neue Anwendungen

Verwandte Artikel

funkschau, Crate.io AT GmbH