ANZEIGE
ANZEIGE
ANZEIGE
Beitrag drucken

Data Mining für das Qualitätsmanagement

Jede Neuentwicklung birgt das Risiko von Konstruktionsfehlern. Im schlimmsten Fall werden sie erst offenbar, wenn die Modelle auf der Straße rollen. Um frühzeitig gegenzusteuern, überprüft Volvo die Daten aus den Subsystemen seiner Fahrzeugflotte. Gemeinsam mit Daten aus Entwicklung und Produktion können so auftretende Fehler noch in der laufenden Fertigungsserie behoben werden.

Bild: Volvo

Autos werden seit Jahren immer mehr über elektronische Komponenten – vom Antiblockiersystem bis zur Motorensteuerung – geregelt und überwacht. Eingebettete Systeme melden Ausfälle, Fehlfunktionen in der Fahrzeugmechanik oder gefährlichen Verschleiß an Bauteilen. Herkömmlicherweise signalisieren sie dem Fahrer via Armaturenanzeige, er solle eine Werkstatt aufsuchen. Dort geben die angefallenen Daten Aufschluss über den Zustand des Wagens: Diagnosegeräte, die entsprechende Fehler-Codes auslesen, gehören mittlerweile zur Standardausrüstung. Führende Automobilunternehmen gehen an dieser Stelle einen Schritt weiter: Sie lassen die bei den Service-Partnern ausgelesenen Daten übermitteln und sammeln diese systematisch, um sie im Rahmen ihres Qualitätsmanagements auszuwerten. Volvo gibt sich hierbei nicht mit Fehlercodes zufrieden, sondern protokolliert per Datenlogger auch die Leistungsdaten. Insgesamt erfasst der schwedische Autobauer fast 400 Variablen allein aus seinen Standard-Komponenten.

Fahrzeug-Historien im Data Warehouse

Diese Datenfülle erlaubt es, umfassende Fahrzeug-Historien zu erstellen und durch statistische Auswertung tiefergehende Einblicke in mögliche Fehlerursachen zu gewinnen. Um angesichts der gewaltigen Menge höchst heterogener Daten aufwändige Analyseverfahren in vertretbarer Zeit durchführen zu können, bedarf es eines extrem leistungsfähigen Datenmanagements. Deshalb entschied sich Volvo im Jahr 2006 für den Aufbau eines Data Warehouse als dezidierter Analyse-Plattform. Die Wahl hierfür fiel auf Teradata, da sich dessen System einfach skalieren lässt und so bei steigenden Datenmengen stabile Performance gewährleistet. Dies gestattet nicht zuletzt die Integration separater Datenbestände auf einer einzigen Plattform und schuf damit die Voraussetzung für bereichsübergreifende Analysen. So konnte Volvo die Leistungsdaten mit Garantiefällen und Datenbeständen aus der Produktentwicklung zusammenführen – sowohl zu mechanischen Spezifikationen als auch zur Software der On-board-Systeme.

Die vier Quellsysteme wurden von September 2006 bis Juli 2007 auf das neue System migriert. Rund 300 Analysten in Entwicklung, Produktion, Qualitätssicherung und Garantieabwicklung haben Zugriff aufs Data Warehouse, um Ad-hoc-Analysen durchzuführen und Standard-Reports zu erstellen. Neben dem großen Datenfundus profitieren sie auch kurzen Response-Zeiten: Die tägliche Berechnung des Kilometerstands der Volvo-Flotte etwa dauert seit der Einführung des Systems nur fünf Minuten anstelle von zuvor zwei Stunden. Fehler-Codes lassen sich nach Modellen und Jahren binnen 15 Minuten statt in zwei Wochen aufschlüsseln.

Frühes Erkennen von Konstruktionsfehlern senkt Folgekosten: Der Blick auf Werkstatt- und Leistungsdaten im Data Warehouse liefert Erkenntnisse so schnell, dass sie in die laufende Entwicklung und Produktion einfließen. Bild: Volvo

Fehlererkennung in Fertigungsserien

Die Analysten sparen damit nicht nur Zeit: Sie gewinnen neue Handlungsfreiheit. Denn mit der zur Verfügung stehenden Datenbasis kann Volvo die Zusammenhänge zwischen Fahrzeug-Design, Fahreigenschaften und auftretenden Fehlern leichter ergründen. Beispielsweise lässt sich nun erkennen, wenn bestimmte Schäden mit speziellen Fahrstilmustern oder geographischen Besonderheiten korrelieren. Rechenintensives Data Mining kann auch unvermutete Fehlerursachen ans Licht bringen, etwa das Zusammenwirken bestimmter Bauteile, die auf den ersten Blick keinen Bezug zueinander haben. Je früher solche Fehler erkannt werden, desto schneller können sie abgestellt werden. Deshalb haben Volvo und der IT-Anbieter darüber hinaus ein Frühwarnsystem geschaffen, mit dem regelmäßig auftretende Fehler möglichst schnell erkannt werden.

Das Prinzip: Nach besonders aufwändigen Berechnungen lässt sich für jedes Bauteil und jede Fahrzeugvariante prognostizieren, mit welcher Häufigkeit bestimmte Fehler ‚im Normalfall‘ auftreten. Ergeben nun Trendanalysen der aktuellen Werkstattdaten, dass Probleme in der Praxis deutlich öfter auftreten, deutet dies auf einen Fehler in Produktion oder Entwicklung hin. Sind die Fehler erst einmal aufgefallen, lassen sich ihre Ursachen identifizieren und im Idealfall noch während einer laufenden Fertigungsserie beheben. Der durch die systematische Datensammlung und -analyse gewonnene Zeitvorteil schlägt sich in weniger Reparaturen und geringeren Garantiekosten nieder.


Das könnte Sie auch interessieren:

Steuerungsplattform für eine sich ändernde Welt

Auf der SPS IPC Drives 2016 hat Phoenix Contact mit der PLCnext Technology der breiten Öffentlichkeit erstmals seine neue Steuerungsgeneration vorgestellt. Was auf den ersten Blick als neue Steuerungsplattform erscheint, entpuppt sich auf den zweiten Blick als völlig neues Steuerungskonzept, bei dem Offenheit ganz oben auf der Entwicklungsagenda stand. Mit Hans-Jürgen Koch, Executive Vice President der Business Area Industry Management & Automation, und Holger Meyer, Head of Control Systems Marketing, sprachen wir über das neue Konzept und die Anforderungen, die eine sich ändernde Welt für moderne Steuerungstechnik mit sich bringt.
‣ weiterlesen

Maschinen mit dem MES verbunden

Viele mittelständische Fertigungsunternehmen stehen vor der großen Herausforderung, ihren Maschinen- und Anlagenpark in bereits digitalisierte Businessprozesse zu integrieren. Zwar erfassen und speichern heutzutage bereits viele Maschinen, Anlagen und sonstige periphere Einrichtungen auf dem Shop Floor Betriebs- und Prozessdaten automatisch, jedoch fehlt es an einer einheitlichen Kommunikationssprache. Allerdings existieren praxistaugliche Lösungen zur einfachen und nahtlosen Integration von Maschinen und Anlagen. ‣ weiterlesen

Anagnost ist neuer CEO von Autodesk

Andrew Anagnost ist aber sofort neuer CEO und Präsident von Autodesk. Amar Hanspal, Senior Vice President, Chief Product Officer und Interims-Co-CEO, hat sich dazu entschlossen, das Unternehmen zu verlassen.

‣ weiterlesen

„Komplexität ohne Aufwand“

Im globalen Wettbewerb um Kosten, Qualität und Flexibilität sind die Anforderungen an produzierende Unternehmen rasant gestiegen: Aspekte wie Ressourceneffizienz, Kostenersparnis oder auch wirtschaftliche Fertigung in Losgröße 1 zwingen zum Hinterfragen von Prozessen und der Suche nach alternativen Produktionsverfahren. Additive Fertigung, beziehungsweise der 3D-Druck, gewinnt branchenübergreifend an Relevanz. Trotz bekannter Potenziale steckt der breite Einsatz in der Praxis jedoch noch in Kinderschuhen. Initiativen wie das EU-Forschungsprojekt Bionicaircraft tragen dazu bei, neue Technologien, Methoden und Konzepte für den effizienten Einsatz der Additiven Fertigung zu entwickeln. Michael Schwartz (Bild) äußert sich im Interview zum Status quo additiver Fertigung in der Industrie. Schwartz ist Manager für innovative Aerospace-Lösungen bei Cenit, einem Unternehmen, dass sich auch als Partner in dem EU-Projekt engagiert. ‣ weiterlesen

Fehler effizient reduzieren

Ein funktionierendes Fehlermanagementsystem ist eine wichtige Säule des Qualitätsmanagements. Eine detaillierte Erfassung und Zusammenführung aller Fehlerinformationen sowie deren Analyse ist unabdingbar, um Planung und Ablauf von Korrektur- und Vorbeugungsmaßnahmen zu ermöglichen.
‣ weiterlesen

Achim Berg ist neuer Bitkom-Präsident

Der Bitkom hat im Rahmen seiner Jahrestagung einen neuen Präsidenten gewählt: Achim Berg soll in den kommenden beiden Jahren die Geschicke des Verbandes führen.

‣ weiterlesen