Anzeige
Anzeige
Beitrag drucken

Data Mining für das Qualitätsmanagement

Jede Neuentwicklung birgt das Risiko von Konstruktionsfehlern. Im schlimmsten Fall werden sie erst offenbar, wenn die Modelle auf der Straße rollen. Um frühzeitig gegenzusteuern, überprüft Volvo die Daten aus den Subsystemen seiner Fahrzeugflotte. Gemeinsam mit Daten aus Entwicklung und Produktion können so auftretende Fehler noch in der laufenden Fertigungsserie behoben werden.

Bild: Volvo

Autos werden seit Jahren immer mehr über elektronische Komponenten – vom Antiblockiersystem bis zur Motorensteuerung – geregelt und überwacht. Eingebettete Systeme melden Ausfälle, Fehlfunktionen in der Fahrzeugmechanik oder gefährlichen Verschleiß an Bauteilen. Herkömmlicherweise signalisieren sie dem Fahrer via Armaturenanzeige, er solle eine Werkstatt aufsuchen. Dort geben die angefallenen Daten Aufschluss über den Zustand des Wagens: Diagnosegeräte, die entsprechende Fehler-Codes auslesen, gehören mittlerweile zur Standardausrüstung. Führende Automobilunternehmen gehen an dieser Stelle einen Schritt weiter: Sie lassen die bei den Service-Partnern ausgelesenen Daten übermitteln und sammeln diese systematisch, um sie im Rahmen ihres Qualitätsmanagements auszuwerten. Volvo gibt sich hierbei nicht mit Fehlercodes zufrieden, sondern protokolliert per Datenlogger auch die Leistungsdaten. Insgesamt erfasst der schwedische Autobauer fast 400 Variablen allein aus seinen Standard-Komponenten.

Fahrzeug-Historien im Data Warehouse

Diese Datenfülle erlaubt es, umfassende Fahrzeug-Historien zu erstellen und durch statistische Auswertung tiefergehende Einblicke in mögliche Fehlerursachen zu gewinnen. Um angesichts der gewaltigen Menge höchst heterogener Daten aufwändige Analyseverfahren in vertretbarer Zeit durchführen zu können, bedarf es eines extrem leistungsfähigen Datenmanagements. Deshalb entschied sich Volvo im Jahr 2006 für den Aufbau eines Data Warehouse als dezidierter Analyse-Plattform. Die Wahl hierfür fiel auf Teradata, da sich dessen System einfach skalieren lässt und so bei steigenden Datenmengen stabile Performance gewährleistet. Dies gestattet nicht zuletzt die Integration separater Datenbestände auf einer einzigen Plattform und schuf damit die Voraussetzung für bereichsübergreifende Analysen. So konnte Volvo die Leistungsdaten mit Garantiefällen und Datenbeständen aus der Produktentwicklung zusammenführen – sowohl zu mechanischen Spezifikationen als auch zur Software der On-board-Systeme.

Die vier Quellsysteme wurden von September 2006 bis Juli 2007 auf das neue System migriert. Rund 300 Analysten in Entwicklung, Produktion, Qualitätssicherung und Garantieabwicklung haben Zugriff aufs Data Warehouse, um Ad-hoc-Analysen durchzuführen und Standard-Reports zu erstellen. Neben dem großen Datenfundus profitieren sie auch kurzen Response-Zeiten: Die tägliche Berechnung des Kilometerstands der Volvo-Flotte etwa dauert seit der Einführung des Systems nur fünf Minuten anstelle von zuvor zwei Stunden. Fehler-Codes lassen sich nach Modellen und Jahren binnen 15 Minuten statt in zwei Wochen aufschlüsseln.

Frühes Erkennen von Konstruktionsfehlern senkt Folgekosten: Der Blick auf Werkstatt- und Leistungsdaten im Data Warehouse liefert Erkenntnisse so schnell, dass sie in die laufende Entwicklung und Produktion einfließen. Bild: Volvo

Fehlererkennung in Fertigungsserien

Die Analysten sparen damit nicht nur Zeit: Sie gewinnen neue Handlungsfreiheit. Denn mit der zur Verfügung stehenden Datenbasis kann Volvo die Zusammenhänge zwischen Fahrzeug-Design, Fahreigenschaften und auftretenden Fehlern leichter ergründen. Beispielsweise lässt sich nun erkennen, wenn bestimmte Schäden mit speziellen Fahrstilmustern oder geographischen Besonderheiten korrelieren. Rechenintensives Data Mining kann auch unvermutete Fehlerursachen ans Licht bringen, etwa das Zusammenwirken bestimmter Bauteile, die auf den ersten Blick keinen Bezug zueinander haben. Je früher solche Fehler erkannt werden, desto schneller können sie abgestellt werden. Deshalb haben Volvo und der IT-Anbieter darüber hinaus ein Frühwarnsystem geschaffen, mit dem regelmäßig auftretende Fehler möglichst schnell erkannt werden.

Das Prinzip: Nach besonders aufwändigen Berechnungen lässt sich für jedes Bauteil und jede Fahrzeugvariante prognostizieren, mit welcher Häufigkeit bestimmte Fehler ‚im Normalfall‘ auftreten. Ergeben nun Trendanalysen der aktuellen Werkstattdaten, dass Probleme in der Praxis deutlich öfter auftreten, deutet dies auf einen Fehler in Produktion oder Entwicklung hin. Sind die Fehler erst einmal aufgefallen, lassen sich ihre Ursachen identifizieren und im Idealfall noch während einer laufenden Fertigungsserie beheben. Der durch die systematische Datensammlung und -analyse gewonnene Zeitvorteil schlägt sich in weniger Reparaturen und geringeren Garantiekosten nieder.


Das könnte Sie auch interessieren:

Wie der IT-Security-Anbieter Kaspersky berichtet, wurden Unternehmen weltweit über zielgerichtete Phishing-Mails angegriffen, bei denen die Angreifer das Mimikatz-Programm nutzten. Kaspersky hat diese Angriffe analysiert.‣ weiterlesen

Heute suchen meist aufwendige Kamerasysteme nach Teilen im Werkstückträger, die der Roboter greifen kann. Mit der Smart-Task-Funktionalität Load Mapping des Sensorherstellers Sick lässt sich die Belegung von Werkstückträgern während der Zuführung in die Montagezelle erfassen und als digitales Sensorsignal an die Robotersteuerung ausgeben.‣ weiterlesen

Nach über 75 Jahren im Sensorgeschäft sollen künftig auch digitale Lösungen das Portfolio von Sick prägen. Christoph Müller, Senior Vice President für den Industrial Integration Space bei Sick, schildert, was Apps und Sensorik zusammen leisten und warum die Probleme der Anwender immer weniger die Automatisierungstechnik selbst betreffen.‣ weiterlesen

In einer 5. Blitzumfrage des VDMA zeigt sich, dass sich die Lieferketten der deutschen Maschinenbauer nach und nach erholen. Die Branche hat jedoich weiterhin mit Auftragseinbußen zu kämpfen.‣ weiterlesen

Mit Process Mining ermitteln Unternehmen, in welchen Prozessen Sand im Getriebe ist. Da die Methode zwingend datenbasierte Prozesse zur Analyse und Visualisierung voraussetzt, ist dieser Ansatz zwar im ERP-Umfeld zuhause, lässt sich aber hervorragend auf MES-unterstützte Produktionen anwenden.‣ weiterlesen

Immer häufiger werden industrielle Anwendungsfälle mit maßgeschneiderter Technik erprobt. Sven Pannewitz und Tobias Thelemann, Produktmanager bei Reichelt Elektronik, verweisen auf die Beliebtheit von Open-Source-Hardware in solchen Lösungen.‣ weiterlesen

Gesetzlichen Bestimmungen zufolge müssen Hersteller Unterlagen wie CE-Konformitätserklärungen, Atex-Zertifikate oder Werkstoffzeugnisse erstellen. Die Anwendung der im April erschienenen Richtlinie VDI 2770 Blatt 1 soll Prozessabläufe bei der Übergabe von Herstellerinformationen vereinfachen, indem sie einheitlich strukturiert bereitgestellt werden.‣ weiterlesen

Brigitte Falk verantwortet beim Industrie-4.0-Spezialisten Forcam die interne IT sowie das digitale Marketing zur Leadgenerierung. Als CIO/COO berichtet sie an Geschäftsführer (Co-CEO) Oliver Hoffmann.‣ weiterlesen

Nach dem Rückgang im vergangenen Monat legt der Ifo-Geschäftsklimaindex im Mai wieder zu. Dabei haben sich vor allem die Erwartungen für die kommenden Monate verbessert.‣ weiterlesen

Die Corona-Pandemie hat auch die wichtigen Absatzmärkte China, Indien und Brasilien getroffen, wobei aus China wieder positive Signale kommen.‣ weiterlesen

Anzeige
Anzeige
Anzeige