Data Mining für das Qualitätsmanagement

Jede Neuentwicklung birgt das Risiko von Konstruktionsfehlern. Im schlimmsten Fall werden sie erst offenbar, wenn die Modelle auf der Straße rollen. Um frühzeitig gegenzusteuern, überprüft Volvo die Daten aus den Subsystemen seiner Fahrzeugflotte. Gemeinsam mit Daten aus Entwicklung und Produktion können so auftretende Fehler noch in der laufenden Fertigungsserie behoben werden.

Bild: Volvo

Autos werden seit Jahren immer mehr über elektronische Komponenten – vom Antiblockiersystem bis zur Motorensteuerung – geregelt und überwacht. Eingebettete Systeme melden Ausfälle, Fehlfunktionen in der Fahrzeugmechanik oder gefährlichen Verschleiß an Bauteilen. Herkömmlicherweise signalisieren sie dem Fahrer via Armaturenanzeige, er solle eine Werkstatt aufsuchen. Dort geben die angefallenen Daten Aufschluss über den Zustand des Wagens: Diagnosegeräte, die entsprechende Fehler-Codes auslesen, gehören mittlerweile zur Standardausrüstung. Führende Automobilunternehmen gehen an dieser Stelle einen Schritt weiter: Sie lassen die bei den Service-Partnern ausgelesenen Daten übermitteln und sammeln diese systematisch, um sie im Rahmen ihres Qualitätsmanagements auszuwerten. Volvo gibt sich hierbei nicht mit Fehlercodes zufrieden, sondern protokolliert per Datenlogger auch die Leistungsdaten. Insgesamt erfasst der schwedische Autobauer fast 400 Variablen allein aus seinen Standard-Komponenten.

Fahrzeug-Historien im Data Warehouse

Diese Datenfülle erlaubt es, umfassende Fahrzeug-Historien zu erstellen und durch statistische Auswertung tiefergehende Einblicke in mögliche Fehlerursachen zu gewinnen. Um angesichts der gewaltigen Menge höchst heterogener Daten aufwändige Analyseverfahren in vertretbarer Zeit durchführen zu können, bedarf es eines extrem leistungsfähigen Datenmanagements. Deshalb entschied sich Volvo im Jahr 2006 für den Aufbau eines Data Warehouse als dezidierter Analyse-Plattform. Die Wahl hierfür fiel auf Teradata, da sich dessen System einfach skalieren lässt und so bei steigenden Datenmengen stabile Performance gewährleistet. Dies gestattet nicht zuletzt die Integration separater Datenbestände auf einer einzigen Plattform und schuf damit die Voraussetzung für bereichsübergreifende Analysen. So konnte Volvo die Leistungsdaten mit Garantiefällen und Datenbeständen aus der Produktentwicklung zusammenführen – sowohl zu mechanischen Spezifikationen als auch zur Software der On-board-Systeme.

Die vier Quellsysteme wurden von September 2006 bis Juli 2007 auf das neue System migriert. Rund 300 Analysten in Entwicklung, Produktion, Qualitätssicherung und Garantieabwicklung haben Zugriff aufs Data Warehouse, um Ad-hoc-Analysen durchzuführen und Standard-Reports zu erstellen. Neben dem großen Datenfundus profitieren sie auch kurzen Response-Zeiten: Die tägliche Berechnung des Kilometerstands der Volvo-Flotte etwa dauert seit der Einführung des Systems nur fünf Minuten anstelle von zuvor zwei Stunden. Fehler-Codes lassen sich nach Modellen und Jahren binnen 15 Minuten statt in zwei Wochen aufschlüsseln.

Frühes Erkennen von Konstruktionsfehlern senkt Folgekosten: Der Blick auf Werkstatt- und Leistungsdaten im Data Warehouse liefert Erkenntnisse so schnell, dass sie in die laufende Entwicklung und Produktion einfließen. Bild: Volvo

Fehlererkennung in Fertigungsserien

Die Analysten sparen damit nicht nur Zeit: Sie gewinnen neue Handlungsfreiheit. Denn mit der zur Verfügung stehenden Datenbasis kann Volvo die Zusammenhänge zwischen Fahrzeug-Design, Fahreigenschaften und auftretenden Fehlern leichter ergründen. Beispielsweise lässt sich nun erkennen, wenn bestimmte Schäden mit speziellen Fahrstilmustern oder geographischen Besonderheiten korrelieren. Rechenintensives Data Mining kann auch unvermutete Fehlerursachen ans Licht bringen, etwa das Zusammenwirken bestimmter Bauteile, die auf den ersten Blick keinen Bezug zueinander haben. Je früher solche Fehler erkannt werden, desto schneller können sie abgestellt werden. Deshalb haben Volvo und der IT-Anbieter darüber hinaus ein Frühwarnsystem geschaffen, mit dem regelmäßig auftretende Fehler möglichst schnell erkannt werden.

Das Prinzip: Nach besonders aufwändigen Berechnungen lässt sich für jedes Bauteil und jede Fahrzeugvariante prognostizieren, mit welcher Häufigkeit bestimmte Fehler ‚im Normalfall‘ auftreten. Ergeben nun Trendanalysen der aktuellen Werkstattdaten, dass Probleme in der Praxis deutlich öfter auftreten, deutet dies auf einen Fehler in Produktion oder Entwicklung hin. Sind die Fehler erst einmal aufgefallen, lassen sich ihre Ursachen identifizieren und im Idealfall noch während einer laufenden Fertigungsserie beheben. Der durch die systematische Datensammlung und -analyse gewonnene Zeitvorteil schlägt sich in weniger Reparaturen und geringeren Garantiekosten nieder.







  • KI in Fertigungsbranche vorn

    Die neunte Ausgabe von Rockwell Automations „State of Smart Manufacturing“ Report liefert Einblicke in Trends und Herausforderungen für Hersteller. Dazu wurden über…


  • Innovationstreiber Thin[gk]athon: Kollaborative Intelligenz trifft auf Industrie-Expertise

    Der Thin[gk]athon, veranstaltet vom Smart Systems Hub, vereint kollaborative Intelligenz und Industrie-Expertise, um in einem dreitägigen Hackathon innovative Lösungsansätze für komplexe Fragestellungen…


  • Lohnt sich ein Retrofit?

    Oft ist unklar, ob es sich lohnt, ältere Maschinen mit neuen Sensoren auszustatten. Im Projekt ‚DiReProFit‘ wollen Forschende dieses Problem mit künstlicher…


  • MVTec eröffnet Niederlassung in Taiwan

    Bereits seit 2020 unterhält MVTec ein Vertriebsbüro in Taiwan. Dieses wertet der Bildverarbeitungsspezialist nun zu einer eigenen Niederlassung, der MVTec Taiwan, auf.


  • Ein Stück näher am Quanteninternet

    Das Quanteninternet verspricht signifikante Verbesserungen in verschiedenen technologischen Schlüsselbereichen. Um dieses jedoch im bestehenden Glaserfasernetz zu realisieren, sind Quantenfrequenzkonverter nötig, die die…