Anzeige
Anzeige
Anzeige
Beitrag drucken

Data Mining für das Qualitätsmanagement

Jede Neuentwicklung birgt das Risiko von Konstruktionsfehlern. Im schlimmsten Fall werden sie erst offenbar, wenn die Modelle auf der Straße rollen. Um frühzeitig gegenzusteuern, überprüft Volvo die Daten aus den Subsystemen seiner Fahrzeugflotte. Gemeinsam mit Daten aus Entwicklung und Produktion können so auftretende Fehler noch in der laufenden Fertigungsserie behoben werden.

Bild: Volvo

Autos werden seit Jahren immer mehr über elektronische Komponenten – vom Antiblockiersystem bis zur Motorensteuerung – geregelt und überwacht. Eingebettete Systeme melden Ausfälle, Fehlfunktionen in der Fahrzeugmechanik oder gefährlichen Verschleiß an Bauteilen. Herkömmlicherweise signalisieren sie dem Fahrer via Armaturenanzeige, er solle eine Werkstatt aufsuchen. Dort geben die angefallenen Daten Aufschluss über den Zustand des Wagens: Diagnosegeräte, die entsprechende Fehler-Codes auslesen, gehören mittlerweile zur Standardausrüstung. Führende Automobilunternehmen gehen an dieser Stelle einen Schritt weiter: Sie lassen die bei den Service-Partnern ausgelesenen Daten übermitteln und sammeln diese systematisch, um sie im Rahmen ihres Qualitätsmanagements auszuwerten. Volvo gibt sich hierbei nicht mit Fehlercodes zufrieden, sondern protokolliert per Datenlogger auch die Leistungsdaten. Insgesamt erfasst der schwedische Autobauer fast 400 Variablen allein aus seinen Standard-Komponenten.

Fahrzeug-Historien im Data Warehouse

Diese Datenfülle erlaubt es, umfassende Fahrzeug-Historien zu erstellen und durch statistische Auswertung tiefergehende Einblicke in mögliche Fehlerursachen zu gewinnen. Um angesichts der gewaltigen Menge höchst heterogener Daten aufwändige Analyseverfahren in vertretbarer Zeit durchführen zu können, bedarf es eines extrem leistungsfähigen Datenmanagements. Deshalb entschied sich Volvo im Jahr 2006 für den Aufbau eines Data Warehouse als dezidierter Analyse-Plattform. Die Wahl hierfür fiel auf Teradata, da sich dessen System einfach skalieren lässt und so bei steigenden Datenmengen stabile Performance gewährleistet. Dies gestattet nicht zuletzt die Integration separater Datenbestände auf einer einzigen Plattform und schuf damit die Voraussetzung für bereichsübergreifende Analysen. So konnte Volvo die Leistungsdaten mit Garantiefällen und Datenbeständen aus der Produktentwicklung zusammenführen – sowohl zu mechanischen Spezifikationen als auch zur Software der On-board-Systeme.

Die vier Quellsysteme wurden von September 2006 bis Juli 2007 auf das neue System migriert. Rund 300 Analysten in Entwicklung, Produktion, Qualitätssicherung und Garantieabwicklung haben Zugriff aufs Data Warehouse, um Ad-hoc-Analysen durchzuführen und Standard-Reports zu erstellen. Neben dem großen Datenfundus profitieren sie auch kurzen Response-Zeiten: Die tägliche Berechnung des Kilometerstands der Volvo-Flotte etwa dauert seit der Einführung des Systems nur fünf Minuten anstelle von zuvor zwei Stunden. Fehler-Codes lassen sich nach Modellen und Jahren binnen 15 Minuten statt in zwei Wochen aufschlüsseln.

Frühes Erkennen von Konstruktionsfehlern senkt Folgekosten: Der Blick auf Werkstatt- und Leistungsdaten im Data Warehouse liefert Erkenntnisse so schnell, dass sie in die laufende Entwicklung und Produktion einfließen. Bild: Volvo

Fehlererkennung in Fertigungsserien

Die Analysten sparen damit nicht nur Zeit: Sie gewinnen neue Handlungsfreiheit. Denn mit der zur Verfügung stehenden Datenbasis kann Volvo die Zusammenhänge zwischen Fahrzeug-Design, Fahreigenschaften und auftretenden Fehlern leichter ergründen. Beispielsweise lässt sich nun erkennen, wenn bestimmte Schäden mit speziellen Fahrstilmustern oder geographischen Besonderheiten korrelieren. Rechenintensives Data Mining kann auch unvermutete Fehlerursachen ans Licht bringen, etwa das Zusammenwirken bestimmter Bauteile, die auf den ersten Blick keinen Bezug zueinander haben. Je früher solche Fehler erkannt werden, desto schneller können sie abgestellt werden. Deshalb haben Volvo und der IT-Anbieter darüber hinaus ein Frühwarnsystem geschaffen, mit dem regelmäßig auftretende Fehler möglichst schnell erkannt werden.

Das Prinzip: Nach besonders aufwändigen Berechnungen lässt sich für jedes Bauteil und jede Fahrzeugvariante prognostizieren, mit welcher Häufigkeit bestimmte Fehler ‚im Normalfall‘ auftreten. Ergeben nun Trendanalysen der aktuellen Werkstattdaten, dass Probleme in der Praxis deutlich öfter auftreten, deutet dies auf einen Fehler in Produktion oder Entwicklung hin. Sind die Fehler erst einmal aufgefallen, lassen sich ihre Ursachen identifizieren und im Idealfall noch während einer laufenden Fertigungsserie beheben. Der durch die systematische Datensammlung und -analyse gewonnene Zeitvorteil schlägt sich in weniger Reparaturen und geringeren Garantiekosten nieder.


Das könnte Sie auch interessieren:

Nach German Edge Cloud (GEC) gehört jetzt auch das Startup IoTOS zur Friedhelm Loh Group. Die Übernahme gab die Unternehmensgruppe nun bekannt. Die drei Unternehmen der Friedhelm Loh Group – Rittal, German Edge Cloud und IoTOS – bieten zudem mit Bosch Connected Industry eine Komplettlösung zur Integration, Harmonisierung und Analyse industrieller Produktionsdaten an.‣ weiterlesen

Längst differenzieren sich Mittelständler im weltweiten Wettbewerb durch ihre Effizienz, Transparenz und Rückverfolgbarkeit in der Fertigung. Hierfür wurden Manufacturing Execution Systems geschaffen. Und mit einer schlanken modularen Lösung, die schnell betriebsbereit ist, gelingt der Einstieg in die digitale Fertigung auch leicht im Mittelstand.‣ weiterlesen

Die Möglichkeit, auch Legacy-Anwendungen in Prozessautomatisierungsprojekte zu integrieren, ist oft der ausschlaggebende Faktor für Robotic-Process-Automation-Initiativen.‣ weiterlesen

Wie sieht die perfekte Produktion aus? Dieser Frage widmet sich das Managementforum Perfect Production an zwei Terminen: am 24.Oktober in Frankfurt sowie am 21.November in Leipzig. Teilnehmer erfahren anhand von Praxisbeispielen und Diskussionen, wie andere Unternehmen die Digitalisierung angehen.‣ weiterlesen

Sollte Quantentechnologie einmal verfügbar sein, könnte sich das Thema IT-Sicherheit deutlich verändern. Denn Cyberkriminelle dürften sich dann vor allem auf Endpunktangriffe und Social Engineering konzentrieren.‣ weiterlesen

Jede hinreichend komplexe Software dürfte eine unbekannte Anzahl von Fehlern beinhaltet. Zwar existieren Verfahren zur Schätzung der Anzahl dieser Fehler aus Erfahrungswerten, präzise lassen sie sich aber weder quantifizieren noch vollständig lokalisieren.‣ weiterlesen

Haltian hat einen End-to-End-Smart-Factory-Service vorgestellt. Der Dienst kombiniert die IoT-Plattform von Thingsee mit industrietauglichen umgerüsteten Sensoren und AWS IoT Greengrass Edge Computing sowie Private-LTE-Unterstützung.‣ weiterlesen

Die Fachkonferenz Smart MES bringt Produktionsleiter, Werkverantwortliche und Fertigungs-IT aller Unternehmensgrößen zusammen.‣ weiterlesen

Das Joint Venture der beiden Konzerne Osram und Continental stand vor der Aufgabe, eine völlig neue IT-Infrastruktur einzurichten. Teil des Projektes beim globalen Unternehmen war es, einen Service Desk samt Managementsoftware einzurichten - in zwölf Tagen.‣ weiterlesen

Mit Maximilian Brandl hat sich das SCM-Projekthaus Salt Solutions Verstärkung für den Vorstand ins Haus geholt.‣ weiterlesen

Bill McDermott tritt als CEO der SAP SE zurück. Dies gab der Walldorfer Softwarekonzern am Freitag bekannt. Als Nachfolger sollen nun Jennifer Morgan und Christian Klein das Unternehmen als Doppelspitze führen.‣ weiterlesen

Anzeige
Anzeige
Anzeige