Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Beitrag drucken

Engineering mit Rechenkraft beschleunigen

Am Supercomputer simuliert

Die exakte Berechnung der Temperaturfelder ist bei Antrieben wichtig, um Temperatur-Hotspots zu vermeiden. (Bild: Universität Bayreuth)

Die exakte Berechnung der Temperaturfelder ist bei Antrieben wichtig, um Temperatur-Hotspots zu vermeiden. (Bild: Universität Bayreuth)

Software und Lizenzkosten

Da die einzelnen Rechenknoten eines Supercomputers jeweils über einen eigenen Speicher verfügen und die Prozesse während der Berechnung Daten austauschen müssen, werden spezielle Solver benötigt. Fast alle kommerzielle FEA- und CFD-Softwareanbieter bieten heutzutage sogenannte Distributed Memory Solver an. Die eingesetzten Routinen können jedoch variieren. So ist es möglich, dass die Software A für eine Modalanalyse eine ganz andere Parallelisierungsstrategie einsetzt als Software B. Dies resultiert in unterschiedlichen Rechenzeiten und mitunter abweichenden Ergebnisgüten. Häufig ist die konkrete Implementierung der numerischen Methoden nicht bekannt, was die Nachvollziehbarkeit und Interpretation von Ergebnissen erschwert. Ein weiteres Problem für die Akzeptanz von Supercomputern stellen die Lizenzkosten dar, denn ein Großteil der Softwareanbieter lizenzieren nach einem ressourcenbasierten Token-Modell. Besonders im Super-Computing Bereich, wo schnell einige hundert bis tausend Prozessorkerne eingesetzt werden, müssen Unternehmen eine größere Anzahl an Lizenztokens vorrätig halten, was die operativen Kosten negativ beeinflusst. Abhilfe kann der Rückgriff auf Open-Source- oder Freeware-Lösungen sein, die teilweise über sehr gute und geeignete Solver verfügen, welche jedoch häufig nicht so komfortabel zu bedienen sind. In Hinblick auf Performance und Ergebnisgüte sind diese in vielerlei Hinsicht den kommerziellen Lösungen ebenbürtig und eignen sich zudem aufgrund der meist umfangreichen Dokumentationen gut für die Automatisierung von Prozessen.

Simulationsprozesse automatisieren

Grundlage jeder Simulation ist die Diskretisierung (Vernetzung) der zu untersuchenden Strukturen. Die Qualität der Netze beeinflusst Ergebnisgüte und Rechendauer entscheidend: Je feiner das Netz, desto größer ist das mathematische Problem und desto länger sind die Rechenzeiten. Die Entwicklung der Distributed Memory Solver konzentriert sich größtenteils auf das schnelle Lösen der Gleichungssysteme. Mit immer größer und detaillierteren Strukturen steigt aber auch Aufwand auf Seiten der Netzgenerierung. Und dieser Prozessschritt lässt sich schwer auf Supercomputer auslagern, da die Beurteilung der Netzqualität (und damit der Vertrauenswürdigkeit der Ergebnisse) eine maßgeblich kognitive Aufgabe des Ingenieurs ist. Eine automatische Tetraeder-Vernetzung in Kombination mit Qualitätsparametern zur Steuerung des Prozesses ist zwar möglich, der Erfahrung nach jedoch schwierig umzusetzen, da ‚feiner‘ nicht grundsätzlich ‚besser‘ bedeutet. Wie Untersuchungen im Projekt zeigten, streuen die Abweichungen der numerischen zu den exakt berechneten Spannungen stark und nicht nur bei den groben Netzen. Daher wird im Projekt intensiv mit dem Partner LeoSim Technologies zusammen daran geforscht, automatisierte und robuste Vernetzungsprozesse zu realisieren.

Herausforderung Datentransfer

Stand heute ist weiterhin zu empfehlen, die Netzgüte vor Berechnungsbeginn zu prüfen und sich nicht auf die Ergebnisse der automatischen Vernetzter zu verlassen. Der damit verbundene Medienbruch führt zu aufwendigen Datenübertragungsprozessen vom Supercomputern auf die Arbeitsplätze der Anwender. Da es sich meist um erhebliche Datenmengen handelt, belastet das die Firmennetzwerke und verhindert durch die Wartezeiten auch ein wirtschaftliches Arbeiten, sofern sich die Daten überhaupt verarbeiten oder visualisiert lassen. Gerade Unternehmen ohne Breitband-Anbindung trifft dieses Problem schwer. Als Best Practice hat sich in Bayreuth die Installation eines Terminalservers im Netzwerk des Supercomputers etabliert. Durch die Bereitstellung des virtuellen Desktops können Pre- und Postprocessing seitens der Praxispartner ausgelagert werden. Der Großteil der Daten bleibt im Netzwerk des Supercomputers und der Datentransfer zum Anwender beschränkt sich auf den Fernzugriff, etwa über eine VPN-gesicherte oder eine RDP-Verbindung.


Das könnte Sie auch interessieren:

Der Aufbau einer kabelgebundenen Ortungsinfrastruktur auf großen Flächen wie Lagerhallen, Baustellen oder in der Prozessindustrie ist kostspielig und zeitaufwendig.‣ weiterlesen

KI-getriebene Convolutional Neuronal Networks in selbstfahrenden Autos sollen andere Verkehrsteilnehmer erkennen. Dabei gilt: Je selbstständiger das Auto, desto komplexer der Algorithmus und undurchschaubarer dessen Weg zur getroffenen Entscheidung. Ein Validierungs-Tool soll helfen, diesen besser zu verstehen.‣ weiterlesen

Erfolgreiche KI-Projekte kombinieren das Domänenwissen von Prozessbeteiligten mit der Expertise von Datenanalysten und IT-Spezialistinnen. Da nicht jedes Maschinenbauunternehmen über diese drei wichtigen Kompetenzfelder verfügt, sind Kooperationen wichtige Bestandteile von KI-Projekten.‣ weiterlesen

Extreme Networks hat die Verfügbarkeit des Wi-Fi 6E Access Point bekanntgegeben. Als Wireless-Plattform erweitert der Zugangspunkt den Einsatzbereich auf das 6GHz-Frequenzband. Das Gerät wurde für Umgebungen mit hohen Anforderungen an Bandbreite und Nutzerdichte entwickelt und zeichnet sich Anbieterangaben zufolge durch seine Perfomance, Funktionalität und Sicherheit aus.‣ weiterlesen

Die Ersatzteilversorgung in der Automobilindustrie besitzt einen sehr kurzfristigen Charakter. Anwendungen zum Abbilden solcher Prozesse sind S/4Hana Supply Chain Management sowie S/4Hana-Automotive-Ersatzteilmanagement. Die wichtigen Zielgrößen für die Versorgungsqualität sind Lieferservicegrad und Time-to-Delivery.‣ weiterlesen

Im Cloud-Projekt Gaia-X entstehen Infrastruktur-Angebote, mit denen Hersteller digitale und vernetzte Produkte entwickeln können, ohne in Abhängigkeit zu Technologiekonzernen zu geraten. Die Strukturen dafür sind bereits etabliert. Jetzt ist es an den Produzenten, durch ihre Mitwirkung aus dem Projekt eine europäische Erfolgsgeschichte zu machen.‣ weiterlesen

Werma bietet ein neues Ruf- und Meldesystem zur Prozessoptimierung in Fertigung, Logistik und an manuellen Arbeitsplätzen an. Mit dem Andon WirelessSet lassen sich Probleme bei der Produktion per Knopfdruck melden, um die Behebung zu beschleunigen.‣ weiterlesen

Alle Werte einer Lieferkette im Blick zu behalten, ist eine Mammutaufgabe - können diese doch schnell in die Millionen gehen. Behälter mit benötigten Materialien müssen nicht mal verschwinden, schon der falsche Lagerplatz im Werk kann die Produktion ausbremsen. Tracker können dafür sorgen, dass nichts Wichtiges aus dem Blick gerät.‣ weiterlesen

Siemens und Zscaler arbeiten zusammen, um Kunden den sicheren Zugriff vom Arbeitsplatz im Büro oder mobil auf Operational-Technology(OT)-Systeme und -Anwendungen im Produktionsnetzwerk zu ermöglichen.‣ weiterlesen

Der österreichische Ableger von Bechtle hat Open Networks erworben. Die neuen Spezialisten bringen insbesondere Erfahrung in den Bereichen Application Services, Datacenter, Security und Netzwerk mit. Die Firma betreut rund 250 Kunden im Alpenstaat.‣ weiterlesen

Viele Konzepte etwa für Modern Workplaces und Digitalisierung hinterfragen Unternehmenskonzepte, die auf traditionelle Strukturen und Hierarchien setzen. Robert Lindner, Senior Regional Director & Country Manager Germany bei Red Hat, hat vier zentrale Grundsätze herausgearbeitet, wie sich Innovation befördern lässt, insbesondere als ein Unternehmen im Open-Sorce-Softwaremarkt.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige