Start mit Datendump
Die Konfiguration einer Pilotanwendung beginnt dabei mit einem Datendump der oft weltweit verteilten Datenbanken. Auf der Basis dieser Datenauszüge lassen sich nun schon vorhandene Abläufe, Beziehungen und Workflows automatisch analysieren. Diese werden in Abhängigkeit der aktuellen Prozesse durch die sogenannten Datenanalyse-Workflows dynamisch um weitere benötigte Daten ergänzt und zum Netz verknüpft. Der letzte Schritt stellt dann den Nutzern die Informationen mit Hilfe von Apps in ihren Spezialanwendungen wie ERP oder CAD zur Verfügung. Eine solche Konfiguration eines Piloten gelingt dem Anbieter in der Regel innerhalb von vier bis sechs Wochen.
Ausbau zum ‚Digital Brain‘
Solch ein semantisches Netzwerk kann nun unternehmensspezifisch immer weiter ausgebaut werden. Dazu werden die Inhalte der Datenbanken und der ‚Schatten-Dateien‘ automatisiert integriert und firmenspezifische Strukturen abgebildet. Grundsätzlich versteht der Anbieter seine Lösung dabei als ein Transparenz stiftendendes System. Die Daten werden zwar gespeichert, aber nicht in den Originalsystemen verändert. Mit dieser dynamischen Verlinkung ist es möglich, unsaubere Daten in den Informationsfluss einzubinden. So kommt es in der Praxis immer wieder vor, dass am Standort A im Stücklistensystem noch ein führender Buchstabe vorhanden ist, der wiederum am Standort B fehlt. Ausgeglichen werden diese und andere Ungereimtheiten oft nur durch den manuellen Eingriff erfahrener Mitarbeiter. Für ein semantisches Netzwerk ist diese Verknüpfung aber kein großes Problem. Die neunte Ausgabe von Rockwell Automations „State of Smart Manufacturing“ Report liefert Einblicke in Trends und Herausforderungen für Hersteller. Dazu wurden über 1.500 Fertigungsunternehmen befragt, knapp 100 der befragten Unternehmen kommen aus Deutschland. ‣ weiterlesen
KI in Fertigungsbranche vorn
Lösung läuft im Hintergrund
Bei einem Automobilbauer nutzen mittlerweile 13.000 Mitarbeiter dieses ‚Digital Brain‘. Das System läuft dabei im Hintergrund, der Anwender muss dazu nicht noch ein weiteres Tool bedienen. Die zusätzlich benötigten Informationen werden ihm beispielsweise mit einem kleinen Info-Button in der bereits genutzten Software zur Verfügung gestellt. Andere Zugriffsmöglichkeiten können zum Beispiel über Webapplikationen definiert werden. In der Fertigungsindustrie entsteht im Engineering der größte Teil der Informationen. Andere Bereiche greifen auf diese zu. In manchen Unternehmen sind das noch getrennte Welten. Um trotzdem die Aufgaben erledigen zu können, werden dann oft von den Daten aus dem anderen Bereich Kopien anlegt, die langfristig natürlich nicht aktuell sein können und so zu Fehlern führen. Diese unterschiedlichen Welten möchte der Anbieter mit seiner Lösung zusammenbringen. Der Thin[gk]athon, veranstaltet vom Smart Systems Hub, vereint kollaborative Intelligenz und Industrie-Expertise, um in einem dreitägigen Hackathon innovative Lösungsansätze für komplexe Fragestellungen zu generieren. ‣ weiterlesen
Innovationstreiber Thin[gk]athon: Kollaborative Intelligenz trifft auf Industrie-Expertise
‚Cross Data Management‘
Gleichzeitig werden Produkte immer komplexer. So arbeiten etwa bei mechatronischen Bremssteuerungsgeräten die einzelnen Entwicklungsteams auch werksübergreifend zusammen. Ein weithin bekannter deutscher Anwender hat dazu den Begriff ‚Cross Domain Data Management‘ geprägt, denn schon zur Klärung des erforderlichen inneren und äußeren Einbauraums müssen viele Informationen wechselweise ausgetauscht werden. Wird zum Beispiel eine Platine für eine Änderung in einem System aufgerufen, stellt die Lösung alle dafür relevanten Daten wie in einer Informationszentrale zusammen. Alle Verbindlichkeiten und Zusammenhänge werden bezogen auf diesen Arbeitsplatz beziehungsweise Aufgabenbereich zusammengestellt. Diese ‚Related Hits‘ können sich dabei auf Personen wie zum Beispiel den Entwickler beziehen, auf Materialien oder auf die Baugruppen, in denen die Platine eingesetzt wird. Damit soll gleichzeitig die Vollständigkeit aller relevanten Bezüge sichergestellt werden, was bei einer manuellen Suche unter Umständen nicht gewährleistet ist. Diese semantische Vernetzung und dynamische Bereitstellung von Daten zu einem Digital Brain kann folglich die Transparenz der Informationsbeschaffung erhöhen. Gleichzeitig reduziert sich die Komplexität der Aufgabenstellungen. Das aktuelle Tagesgeschäft der Anwender kann sich effektiver gestalten, während parallel dazu bestehende Prozesse und Datensysteme optimiert werden können.