Anzeige
Anzeige
Anzeige
Beitrag drucken

Data Mining für das Qualitätsmanagement

Jede Neuentwicklung birgt das Risiko von Konstruktionsfehlern. Im schlimmsten Fall werden sie erst offenbar, wenn die Modelle auf der Straße rollen. Um frühzeitig gegenzusteuern, überprüft Volvo die Daten aus den Subsystemen seiner Fahrzeugflotte. Gemeinsam mit Daten aus Entwicklung und Produktion können so auftretende Fehler noch in der laufenden Fertigungsserie behoben werden.

Bild: Volvo

Autos werden seit Jahren immer mehr über elektronische Komponenten – vom Antiblockiersystem bis zur Motorensteuerung – geregelt und überwacht. Eingebettete Systeme melden Ausfälle, Fehlfunktionen in der Fahrzeugmechanik oder gefährlichen Verschleiß an Bauteilen. Herkömmlicherweise signalisieren sie dem Fahrer via Armaturenanzeige, er solle eine Werkstatt aufsuchen. Dort geben die angefallenen Daten Aufschluss über den Zustand des Wagens: Diagnosegeräte, die entsprechende Fehler-Codes auslesen, gehören mittlerweile zur Standardausrüstung. Führende Automobilunternehmen gehen an dieser Stelle einen Schritt weiter: Sie lassen die bei den Service-Partnern ausgelesenen Daten übermitteln und sammeln diese systematisch, um sie im Rahmen ihres Qualitätsmanagements auszuwerten. Volvo gibt sich hierbei nicht mit Fehlercodes zufrieden, sondern protokolliert per Datenlogger auch die Leistungsdaten. Insgesamt erfasst der schwedische Autobauer fast 400 Variablen allein aus seinen Standard-Komponenten.

Fahrzeug-Historien im Data Warehouse

Diese Datenfülle erlaubt es, umfassende Fahrzeug-Historien zu erstellen und durch statistische Auswertung tiefergehende Einblicke in mögliche Fehlerursachen zu gewinnen. Um angesichts der gewaltigen Menge höchst heterogener Daten aufwändige Analyseverfahren in vertretbarer Zeit durchführen zu können, bedarf es eines extrem leistungsfähigen Datenmanagements. Deshalb entschied sich Volvo im Jahr 2006 für den Aufbau eines Data Warehouse als dezidierter Analyse-Plattform. Die Wahl hierfür fiel auf Teradata, da sich dessen System einfach skalieren lässt und so bei steigenden Datenmengen stabile Performance gewährleistet. Dies gestattet nicht zuletzt die Integration separater Datenbestände auf einer einzigen Plattform und schuf damit die Voraussetzung für bereichsübergreifende Analysen. So konnte Volvo die Leistungsdaten mit Garantiefällen und Datenbeständen aus der Produktentwicklung zusammenführen – sowohl zu mechanischen Spezifikationen als auch zur Software der On-board-Systeme.

Die vier Quellsysteme wurden von September 2006 bis Juli 2007 auf das neue System migriert. Rund 300 Analysten in Entwicklung, Produktion, Qualitätssicherung und Garantieabwicklung haben Zugriff aufs Data Warehouse, um Ad-hoc-Analysen durchzuführen und Standard-Reports zu erstellen. Neben dem großen Datenfundus profitieren sie auch kurzen Response-Zeiten: Die tägliche Berechnung des Kilometerstands der Volvo-Flotte etwa dauert seit der Einführung des Systems nur fünf Minuten anstelle von zuvor zwei Stunden. Fehler-Codes lassen sich nach Modellen und Jahren binnen 15 Minuten statt in zwei Wochen aufschlüsseln.

Frühes Erkennen von Konstruktionsfehlern senkt Folgekosten: Der Blick auf Werkstatt- und Leistungsdaten im Data Warehouse liefert Erkenntnisse so schnell, dass sie in die laufende Entwicklung und Produktion einfließen. Bild: Volvo

Fehlererkennung in Fertigungsserien

Die Analysten sparen damit nicht nur Zeit: Sie gewinnen neue Handlungsfreiheit. Denn mit der zur Verfügung stehenden Datenbasis kann Volvo die Zusammenhänge zwischen Fahrzeug-Design, Fahreigenschaften und auftretenden Fehlern leichter ergründen. Beispielsweise lässt sich nun erkennen, wenn bestimmte Schäden mit speziellen Fahrstilmustern oder geographischen Besonderheiten korrelieren. Rechenintensives Data Mining kann auch unvermutete Fehlerursachen ans Licht bringen, etwa das Zusammenwirken bestimmter Bauteile, die auf den ersten Blick keinen Bezug zueinander haben. Je früher solche Fehler erkannt werden, desto schneller können sie abgestellt werden. Deshalb haben Volvo und der IT-Anbieter darüber hinaus ein Frühwarnsystem geschaffen, mit dem regelmäßig auftretende Fehler möglichst schnell erkannt werden.

Das Prinzip: Nach besonders aufwändigen Berechnungen lässt sich für jedes Bauteil und jede Fahrzeugvariante prognostizieren, mit welcher Häufigkeit bestimmte Fehler ‚im Normalfall‘ auftreten. Ergeben nun Trendanalysen der aktuellen Werkstattdaten, dass Probleme in der Praxis deutlich öfter auftreten, deutet dies auf einen Fehler in Produktion oder Entwicklung hin. Sind die Fehler erst einmal aufgefallen, lassen sich ihre Ursachen identifizieren und im Idealfall noch während einer laufenden Fertigungsserie beheben. Der durch die systematische Datensammlung und -analyse gewonnene Zeitvorteil schlägt sich in weniger Reparaturen und geringeren Garantiekosten nieder.

google plus


Das könnte Sie auch interessieren:

Vor allem in der Automotive-Branche sind die Anforderungen an die Rückverfolgbarkeit von Produkten hoch. Um diesen Ansprüchen gerecht zu werden, müssen Zulieferer jederzeit Auskunft darüber erteilen können, welchen Werdegang eines ihrer Erzeugnisse genommen hat.‣ weiterlesen

Was im Datensilo abgelegt ist, wird meist selten bis gar nicht genutzt. Das bedeutetet jedoch nicht, dass diese Daten keinen Nutzen hätten, im Gegenteil. Um Informationen aus dem gesamten Datenbestand zu erhalten, müssen die einzelnen Silos verknüpft werden.‣ weiterlesen

Die Personaleinsatzplanung ist integraler Bestandteil eines Manufacturing Execution Systems. Sind die tatsächlich genutzten Arbeitszeitmodelle in der werksnahen Software detailliert hinterlegt, können sowohl Unternehmen als auch Mitarbeiter von höherer Flexibilität profitieren.‣ weiterlesen

Cloud-Infrastrukturen eignen sich sehr gut, um aus den Daten der Automatisierungssysteme nützliche Informationen zu gewinnen. Dafür müssen die Daten aber erst einmal in die Cloud gelangen. Das lässt sich unter anderem am Beispiel Siemens Mindsphere illustrieren.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige