EN

Erfolgsmodell Data Analytics: Mit Daten zu besseren Prozessen

Mit Hilfe von Industrial Analytics wollen Unternehmen Mehrwert aus Produktionsdaten gewinnen. Intelligente Datenanalyse-Software allein reicht dabei nicht, miteinfließen muss auch (menschliches) Wissen über die konkrete Anwendung und den Prozess.

Dank der digitalen Transformation werden im Produktionskontext immer größere Datenmengen produziert (Stichwort Industrial Big Data). Werte wie Temperatur- und Druckmessungen oder Motoren-Leistungsdaten bergen ein enormes Potential – wenn sie mit Hilfe von Data Analytics ausreichend analysiert und ausgewertet werden.

Definition Industrial Analytics: Oberbegriff für die Auswertung aller in der Industrie anfallenden Daten, sowohl maschinengeneriert als auch aus der Interaktion zwischen Mensch und Maschine.

Hand in Hand mit dem Begriff der Industrial Analytics geht der Begriff Predictive Maintenance (deutsch: „vorausschauende Wartung“): Mess- und Produktionsdaten von Maschinen und Anlagen sollen genutzt werden, um daraus Wartungsinformationen abzuleiten und im besten Fall Ausfallzeiten vorherzusagen, bevor es überhaupt zu Störungen kommt. Ein Beispiel: Der Maschinenbauer Hermle entwickelte zusammen mit dem Smart Data Solution Center Baden-Württemberg eine Methode, um die Maschinenzustände bewerten zu können. Das Team des SDSC-BW griff dabei auf Wartungsdaten eines Maschinentyps für den Zeitraum von zwölf Monaten zurück. Mit Hilfe überwachter Lernverfahren leiteten die Experten daraus einen Ansatz ab, der eine automatisierte Auswertung des Maschinenzustands ermöglicht.

Für die smarte Datenanalyse sind nicht unbedingt riesige Datenberge notwendig, sagt Andreas Wierse, Geschäftsführer der Sicos BW, die das Smart Data Solution Center Baden-Württemberg zusammen mit dem Karlsruher Institut für Technologie (KIT) gegründet hat: „Auch viele kleine Datenmengen können in Kombination mit weiteren externen Informationen gewinnbringend sein. Entscheidend ist, dass man bei der Datenanalyse Muster oder Verbindungen erkennt, die wertvolle Hinweise für mögliche Prozessverbesserungen geben.“

Mit Data Analytics zur Qualitätssicherung in Echtzeit

Neben der vorbeugenden Wartung ist die Qualitätssicherung ein wichtiges Einsatzfeld für industrielle Data Analytics. So nutzt der Maschinenbauer Grenzebach zur Echtzeit-Qualitätssicherung für seine Rührreibschweißsysteme eine Industrial-Analytics-Lösung des Automatisierungsspezialisten Weidmüller. „Die Analytics-Software vergleicht die an den Sensoren erfassten Kräfte während des Schweißprozesses mit einem idealen Referenzdatensatz. Sobald eine Abweichung vorliegt, die sich außerhalb der definierten Parameter befindet, erhält der Maschinenbediener einen Hinweis und weiß sofort, dass etwas nicht in Ordnung ist. Eine manuelle Kontrolle jeder Schweißnaht entfällt somit“, erklärt Weidmüllers Data Scientist Dr. Daniel Kress.

Zur Ermittlung des Referenzmodells hat Weidmüller mit Grenzebach die Datensätze von mehr als 100 Schweißnähten beurteilt und mit intelligenten Datenanalyseverfahren ausgewertet. Das Know-how des Maschinenbauers bildet also einen wesentlichen Bestandteil der Analysen. Denn Analytics-Software kann einen Fehler zwar mit einer bestimmten Wahrscheinlichkeit vorhersagen – Voraussetzung hierfür ist jedoch stets, dass der Fehler zuvor klassifiziert worden ist.

Zusammenspiel aus Analytics und menschlicher Expertise

Wie wichtig das Anwendungs- und Prozess-Knowhow der Experten vor Ort ist, bestätigt auch Deniz Ercan, Leiter Nexeed Data Analytics bei Bosch Connected Industry: „Ein Datenanalyse-Spezialist kann nicht einfach in die Produktion marschieren, Daten aus unterschiedlichen Quellen ziehen und seine Software für sich arbeiten lassen. Der Schlüssel liegt vielmehr im Zusammenspiel aus Daten und menschlichem Wissen.“

Zudem müssen die Daten zunächst aufbereitet werden. „Je nach Maschinentyp und -alter liegen sie häufig in unterschiedlichsten Strukturen und Formaten vor. Entsprechend sind die Sammlung und Vereinheitlichung oftmals der schwierigste und langwierigste Schritt“, so Ercan. Erst danach könne die eigentliche Analyse beginnen. Studien zeigen, dass bis zu 80 Prozent des Aufwands eines Data Analytics-Projekts in die Datensammlung und deren Bereinigung und Aufbereitung investiert werden.

Geringere Ausschuss- und Nacharbeitsquoten dank Data Analytics

Eine Data Analytics-Erfolgsgeschichte kann Bosch-Experte Deniz Ercan erzählen: „Bei einem Hersteller von Partikelsensoren schwankte die Qualität einer Sensorschicht stark. Trotz intensiver Ursachenforschung kam man der Sache aber nicht auf den Grund.“ Die Datenanalyse-Spezialisten verglichen alle verfügbaren Daten – also auch die, die nur indirekt mit dem eigentlichen Problem zu tun hatten – miteinander und fanden heraus, dass eine ganz andere Sensorschicht für die Geringere Ausschuss- und Nacharbeitsquoten dank Data Analytics Qualitätsunterschiede verantwortlich war.

„Das war für unseren Kunden schon überraschend genug. Doch wir konnten zusätzlich noch ein bis dato unbekanntes Problem mit Pseudo-Ausschuss identifizieren“, so Ercan weiter. Aufgrund eines Fehlers in der Maschinensteuerung wurden qualitativ einwandfreie Teile als Ausschuss klassifiziert. „Einmal bekannt, konnte der Fehler umgehend von den Mitarbeitern behoben werden. Allein das brachte dem Kunden Einsparungen von rund 1000 Euro am Tag ein – und die Kosten für die Datenanalyse waren innerhalb einer einzigen Woche amortisiert.“

Auch der südafrikanische Machine-Learning-Spezialist Dataprophet kann von Data-Analytics-Erfolgen bei der Qualitätssicherung berichten, zum Beispiel von einer großen Gießerei, die Motorblöcke für Daimler herstellt. Dataprophet-Geschäftsführer Frans Cronje: „Das Werk kämpfte mit erheblichen Problemen aufgrund von hohen Ausschuss- und Nacharbeitsquoten.“ Gelöst wurde das Problem, indem 15 Monate lang Produktionsdaten unterschiedlicher Formate (von Excel-Dateien bis zu Access-Datenbankdaten) gesammelt wurden. Anschließend ermittelte Dataprophet mit einem Prognosemodell die optimalen Betriebsparameter und identifizierte Motorblöcke, an denen Defekte auftreten würden. So wurde die Ausschussquote im ersten Betriebsmonat um 50 Prozent verringert und die externe Ausschussquote innerhalb der ersten drei Monate auf null Prozent reduziert. Cronje: „Letztlich konnte die Gießerei insgesamt eine Million Dollar jährlich sparen.“