+49 6764 9022 349

Prozessanalyse und –optimierung – der neue Wert von NOK-Teilen

Verfasst von: Dr. Martin Bleider, Head of Consulting Services, HAHN Digital.

Diese Blogreihe entstand aus einer Kooperation zwischen HAHN Digital und dem Industrie 4.0 Maturity Center der RWTH Aachen.

Mehr und mehr Druck durch Kunden und Regulierungen führen zu steigenden Ansprüchen bei der Rückverfolgbarkeit von Produkten in verschiedenen Industrien. Kurzum: an vielen Stellen entsteht eine erhöhte Datensammlung von Material-, Prozess- und Maschinenparametern. Hat sich ein Unternehmen dann auch schon mit dem Thema Prozessmonitoring auseinandergesetzt, entsteht ein großer Datenpool. Auf Basis der großen medialen Aufbereitung von KI-Themen und Data Analytics, sollte sich hier sofort ein gefühltes Potenzial für datenbasierte Optimierung ergeben. Und so ist es natürlich auch, aber der Teufel steckt im Detail.

Was auch immer auf der IoP-Ebene Raw Data verfügbar ist hat einen sehr großen Einfluss darauf, welche Ansätze der Datenanalyse auf der Ebene Smart Data durchgeführt werden können. Die Vorstellung der Nutzung von vollautomatisierten Algorithmen, die aus den großen Datenmengen lernen, sich also selber trainieren und dann Optimierungspotenziale aufzeigen ist nur in bestimmten Anwendungsfällen einsetzbar. Zunächst mal ist es wieder die Frage des Ziels, die beantwortet werden soll. In vielen Fällen der diskreten Fertigung eignen sich die Daten um in Richtung der Qualitätsrate beziehungsweise der Kennzahl FTY (First Time Yield) zu optimieren. Ausschlaggebend für die Umsetzung ist in diesem Fall weniger die große Menge der Daten, sondern die Güte der Daten, vor allem die Daten der NOK-Teile. Werden diese Daten beispielsweise nicht gespeichert oder überschrieben, da sie für die Rückverfolgbarkeit der OK-Teile nicht notwendig sind, ergibt sich ein großes Problem. Denn das sind genau die Daten (und die Fehler) aus denen man lernen kann.

Vorausgesetzt diese Daten sind verfügbar, ist die Methode zur Auswertung sorgfältig auszuwählen. Gerade in der Inbetriebnahme, wenn Prozesse oft geändert werden oder im Fall einer hohen Produktvielfalt steht man der Herausforderung von geringen Datenmengen gegenüber. Für solche Fälle eignen sich Verfahren mit entsprechender Prozessmodellierung und deterministischen Ansätzen deutlich besser als deep-learning Ansätze, die eine sehr große Datenmenge erfordern.

In der Umsetzung ist also darauf zu achten, dass auf der IoP-Ebene der Smart Data unterschiedliche Auswertungsverfahren für unterschiedliche Produktionsbereiche zum Einsatz kommen könnten. Darüber hinaus ist auf der Smart Expert Ebene wieder zu bestimmen für wen und für welchen Anwendungsfall die Ergebnisse visualisiert werden sollen und für welche Entscheidungen dies zur Unterstützung dienen soll. Einmalige Optimierungsprojekte haben etwa andere Anforderungen an Detailtiefe als Kennzahlen die schnell im täglichen Shopfloor Meeting zur kontinuierlichen Optimierung herangezogen werden. Werden auf Basis der vorher definierten Ziele die Anwendungsfälle der datenbasierten Entscheidungsunterstützung klar definiert, ergeben sich hieraus auch die Anforderungen an Auswertung und Visualisierung.

Wie an den vergangenen drei Anwendungsbeispielen aufgezeigt, ist die systematische Planung und Einführung von Industrie 4.0 Anwendungsfällen innerhalb einer Referenzarchitektur ein wichtiger Erfolgsfaktor. Im nächsten Beitrag zeigen wir wie die Einführung selbst systematisch geplant und vorbereitet werden kann.

Zurück