Anzeige
Anzeige
Beitrag drucken

Hürde bei KI-Projekten

Daten aufbereiten, Prozesse optimieren

Mit künstlicher Intelligenz lassen sich viele industrielle Prozesse optimieren, Kosten senken, Innovationen voranbringen und so Wettbewerbsvorteile erarbeiten. Wenn Unternehmen bereit sind, die Hürde der Datenerfassung und -aufbereitung zu nehmen.

 (Bild: ©Monty Rakusen/gettyimages.de)

(Bild: ©Monty Rakusen/gettyimages.de)

Künstliche Intelligenz (KI) und Automatisierung sollen Prozesse vereinfachen und effizienter gestalten helfen. Anwendungsfälle gibt es in der Industrie eine ganze Reihe, etwa in den Bereichen Qualitätskontrolle oder Gesamtanlageneffizienz. Der Einstieg in die Technologie wird durch Cloud-Angebote niederschwelliger, zumal Firmen oft keine eigenen Data-Science-Ressourcen mehr benötigen. Im Mittelpunkt des Machine Learning (ML) und KI-Einsatzes stehen Daten, auf deren Grundlage auch strategische Entscheidungen getroffen werden können. Die Daten liefern beispielsweise Erkenntnisse darüber, welche Maschinen welche Leistung bringt, wie Leerlaufzeiten vermieden werden können.

Grundlagen für Projekte

Damit ML seine Wirkung erzielen kann, werden gut kuratierte Daten, ein Anwendungsfall und ein gewisser digitaler Reifegrad benötigt – etwa Cloud-Fähigkeiten der IT. Um die Daten sammeln zu können, müssen die Maschinen mit Sensoren ausgestattet und vernetzt werden. Ist die Cloud-Migration abgeschlossen, die Maschinen vernetzt und steht ein qualitativ guter Data Lake bereit, können auf dieses Fundament ML-Lösungen aufgesetzt werden. Fehlt Fachwissen im eigenen Unternehmen, oder ist die IT nicht passend aufgestellt, sind KI-Projekte kaum umsetzbar. Hinzu kommt, dass viele Entscheider im Vorfeld wissen wollen, was die ML-Einführung kostet und was sie einbringt. Der Nutzen von ML- und KI-Systemen lässt sich im Vorfeld jedoch kaum beziffern. Die Möglichkeit des Ausprobierens ist also oft nicht gegeben. Sämtliche Nutzenaspekt einer KI-Lösung erschließen sich oft erst iterativ nach einigen Lernprozessen. Im Projektverlauf stellen die Fachleute Fragen an ihre KI, auf die sie Anfangs nicht gekommen wären, und entwickeln mit den Antworten Lösungen für Herausforderungen, die zuvor unsichtbar waren.

Vorbereitung immens wichtig

Ein Problem vieler mangelhafter KI-Projekte ist die unzureichende Aufbereitung der Daten. Dadurch entsteht bei der Kuratierung ein Mehraufwand. Oftmals fließen bis zu 80 Prozent des Projektaufwands in die Datenvorbereitung. Data Governance ist kein technisches, sondern ein strategisch-kulturelles Thema: Die Grundlage bildet die Erkenntnis, dass Daten kein Nebenprodukt von Prozessen sind, sondern als Asset mit im Zentrum stehen, für die es Zuständigkeiten in den Firmen braucht. Die Fachbereiche müssen lernen, sich um ihre Daten zu kümmern.

Machine Vision im Betrieb

Sind diese Voraussetzungen erfüllt, bietet Machine Learning beispielsweise in der visuellen Qualitätskontrolle Optimierungspotential mit Machine Vision. Dort kommen Bilderkennungslösungen zum Einsatz, die etwa anhand einer Oberflächenanalyse die Produkte auf Kratzer und Dellen prüfen. Eine Aufgabe, die ansonsten Mitarbeitern meist stichprobenartig zufällt. Machine Vision hingegen kann rund um die Uhr eingesetzt werden. So trainierte Algorithmen können auch kleine Abweichungen tolerieren, wie es ein Mensch tun könnte. Sie lernen, den Akzeptanz-Spielraum anhand von Bildern zu interpretieren. Dabei werden die ML-Algorithmen besser, je mehr Daten sie bekommen und verarbeiten können. Je länger also die Lösungen in Betrieb sind, um so besser die Ergebnisse.

Trainingsdaten hochgerechnet

Durch Datenaugmentierung können die Algorithmen schon vor dem Betriebsstart trainiert werden, wenn eigentlich nur wenige Daten vorliegen. Das Verfahren kann beispielsweise die Größe eines Datensatzes durch Transformation der vorhandenen Daten künstlich erhöhen. Dabei werden unter anderem Bilder horizontal oder vertikal gespiegelt, anders zugeschnitten oder gedreht. Gerade zu Beginn eines ML-Projekts ist dies eine Möglichkeit, um den Algorithmus mit Daten zu füttern.

Historische Wartungsdaten

Machine Learning dient darüber hinaus der Wartung im Sinn von Predictive Maintenance. Mögliche Ausfälle aufgrund von Verschleiß oder Anomalien können vor ihrem Eintreten erkannt und somit vielleicht abgewendet werden. ML-Algorithmen können in der Praxis Ausfälle durch Verschleiß bis zu einer Woche im Voraus vorhersagen. Gegebenenfalls können dann gleich mit der Fehlervermeidung weitere geplante Wartungsmaßnahmen vorgezogen werden. Die Anomalie-Erkennung erfasst, ob es Ausreißer gibt und Schwellenwerte überschritten werden. Die Daten, die über die Zeit hinweg entstehen, werden auf dieser Basis klassifiziert. Wenn der Wert über einem Schwellenwert liegt, ist das ein Anzeichen für einen Fehler. Wichtig ist deswegen die Betrachtung über längere Zeiträume sowie eine Mindestmenge an brauchbaren und aussagekräftigen Daten. In beiden Fällen – ob Verschleiß- oder Anomalieerkennung – werden historische Daten benötigt.


Das könnte Sie auch interessieren:

Ab und zu fehlte ein Schlüssel im Kloster der Franziskanerinnen der ewigen Anbetung von Schwäbisch Gmünd. Beim letzten Mal gab das den Impuls, anstatt neue mechanische Zylinder in die rund 220 Türen des Komplexes einzubauen, die alte Technik durch das Bluesmart-System von Winkhaus zu ersetzen.‣ weiterlesen

Mit 100,5 Punkten hält sich das IAB-Arbeitsmarktbarometer im November stabil und liegt weiter im leicht über der neutralen Marke. Auf europäischer Ebene sank der Frühindikator allerdings erneut.‣ weiterlesen

In einer neuen Expertise des Forschungsbeirats Industrie 4.0 untersuchen das FIR an der RWTH Aachen und das Industrie 4.0 Maturity Center den Status-quo und die aktuellen Herausforderungen der deutschen Industrie bei der Nutzung und wirtschaftlichen Verwertung von industriellen Daten und geben Handlungsempfehlungen für Unternehmen, Verbände, Politik und Wissenschaft.‣ weiterlesen

Im Forschungsprojekt FabOS soll eine KI-Bin-Picking-Anwendung entstehen, die ein verbessertes Erkennen, Greifen und definiertes Ablegen von Blechteilen in der Produktion ermöglicht.‣ weiterlesen

Die Digitalisierung des Qualitätsmanagements stellt Unternehmen vor Herausforderungen. Daher haben das Fraunhofer IPT und die FH Südwestfalen im Forschungsvorhaben 'Qbility - Quality 4.0 Capability Determination Model' ein datengetriebenes Reifegradmodell entwickelt, das die Anforderungen eines digitalisierten Qualitätsmanagements bei KMU adressiert.‣ weiterlesen

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) empfiehlt sicherheitsrelevante Patches und Updates so schnell wie möglich, unter Abwägung des jeweiligen Risikos, einzuspielen, auch wenn im professionellen und insbesondere industriellen Umfeld automatisierte Software-Updates mit unerwünschten Einschränkungen der Funktionalität - etwa durch einen Neustart des Systems - verbunden sein können.‣ weiterlesen

Im Gegensatz zu anderen Cyberangriffen bieten Attacken mit Ransomware auf den ersten Blick einen einfachen Ausweg: die Zahlung des geforderten Lösegelds.‣ weiterlesen

Nach 84,5 Punkten im Oktober kletterte der Ifo-Geschäftsklimaindex im November auf 86,3 Punkte. Die Unternehmen blicken demnach weniger pessimistisch auf die nächsten Monate.‣ weiterlesen

In Kombination mit einer Augmented-Reality-Brille bietet eine neue Software des Fraunhofer IGD digitale Unterstützung von Absortiervorgängen. Zusammengehörige Bauteile werden direkt im Sichtfeld der Beschäftigten an der Produktionslinie farblich überlagert. Anwender im Automotive-Bereich können so etwa durch beschleunigte Prozesse und eine minimierte Fehleranfälligkeit Kosten reduzieren.‣ weiterlesen

Edge Management, Digital Twin und Data Spaces bilden die Schwerpunkte einer Zusammenarbeit zwischen der Open Industry 4.0 Alliance und dem Labs Network Industrie 4.0.‣ weiterlesen