Anzeige
Anzeige
Anzeige
Anzeige
Beitrag drucken

Engineering mit Rechenkraft beschleunigen

Am Supercomputer simuliert

Das Potential eines Supercomputers für die simulationsgestützte Produktentwicklung ist erheblich. Doch die Hürden vor einem Einsatz schrecken viele Unternehmen ab. Im Projekt HiPerSim4All wird an der Universität Bayreuth daran gearbeitet, den Zugang zu dieser Technologie zu vereinfachen und die dafür benötigte IT-Expertise auf Seite der Anwender zu senken.

Der Bayreuther Supercomputer btrzx4 besteht aus miteinander verbundenen Rechenknoten in speziellen Serverracks. (Bild: Universität Bayreuth)

Der Bayreuther Supercomputer btrzx4 besteht aus miteinander verbundenen Rechenknoten in speziellen Serverracks. (Bild: Universität Bayreuth)

Technische Simulationen, allen voran die Finite-Elemente-Analyse (FEA), ist seit Jahren Stand der Technik und wird in vielen Unternehmen in der Produktentwicklung eingesetzt. Der Bedarf einer realitätsnäheren virtuellen Abbildung von Produkten und Produktionsprozessen resultiert jedoch in einer zunehmenden Komplexität dieser Simulationen. Dadurch können die Rechenzeiten mehrere Tage dauern. Die Nutzung von Supercomputern bietet Möglichkeiten den Produktentwicklungsprozess effizienter zu gestalten und Entwicklungszeiten zu verkürzen. Jedoch ist der Einstieg keineswegs trivial. Daher begleiten Mitarbeiter der Universität Bayreuth im Rahmen des EU-geförderten Projekts ‚HiPerSim4All‘ Unternehmen bei der Umsetzung und unterstützen bei der Methoden- und Prozessentwicklung sowie dem Wissensaufbau der Mitarbeiter.

Workstations an der Grenze

Zu den Projektpartnern des am Lehrstuhl für Konstruktionslehre und CAD (LSCAD) angesiedelten Projektes zählen vor allem kleine und mittelständische Unternehmen: Vom Ingenieurdienstleister bis hin zum OEM-Zulieferer. Die meisten der Projektteilnehmer setzen bei Simulationen auf aufgerüstete Workstations. Diese zeichnen sich meist durch mehrere Gigabyte große Arbeitsspeicher und schnelle Mehrkernprozessoren aus, was für kleine und mittelgroße Simulationen in der Regel ausreicht. Das Problem sind die immer häufiger gefragten großen und komplexen Simulationen. So werden Multi-Physik-Simulationen und das detaillierte Abbilden sehr großer Strukturen oft zu einem Problem, da entweder die Rechenzeiten unverhältnismäßig lang werden oder die Größe des verfügbaren Arbeitsspeichers limitierend wirkt. Die Gründe dafür liegen vereinfacht ausgedrückt am Skalierungsverhalten der FEA und den thermischen Eigenschaften der Prozessoren. Supercomputer können diese Limitationen überwinden und sind keinesfalls nur für Großunternehmen interessant.

Nicht nur für Konzerne

Bei einem Supercomputer handelt es sich im Grunde um mehrere unabhängige Computer (Rechenknoten), die über ein Hochgeschwindigkeitsnetzwerk verbunden sind und ein Cluster bilden. Jeder Rechenknoten ist wiederrum mit einem oder mehreren Multi-Core-Prozessoren bestückt, was eine Parallelisierung der Lösung auf mehreren Ebenen ermöglicht: Zunächst können Partitionierungsalgorithmen die ursprüngliche Problemstellung (Domain) in mehrere Subdomains aufteilen und diese über die verfügbaren Rechenknoten verteilen. Innerhalb jeder Subdomain kann wiederrum eine weitere Partitionierung durchgeführt und/oder eine Beschleunigung der mathematischen Operationen durch Ausnutzung des Parallelisierungspotentials der Prozessorkerne erreicht werden. Insbesondere bei der Dimensionierung und Auslegung von genormten Produkten mit unterschiedlichen Lastkollektiven können Unternehmen durch Simulationen mit Supercomputern Kosten sparen. Um einen Eindruck von den Chancen für die Produktentwicklung zu vermitteln, wurde am LSCAD der simulationsgestützte Auslegungsprozess eines elektrischen Antriebes hinsichtlich der thermischen Verlustleistung optimiert. Dies ist numerisch aufwendig, da die realistische Bestimmung des Temperaturprofils, sowohl einer Bestimmung der konvektiven Wärmeübergänge, als auch der abstrahlenden Wärme bedarf. Jedoch erfordert die Simulation der Strahlungsvorgänge eine sehr aufwendige Sichtfaktorbestimmung, die stark von der Kühlrippengeometrie abhängig ist und daher detailliert abgebildet werden muss und dementsprechend die Berechnungszeiten erhöht. Sollen dann noch viele Produktvarianten berechnet werden, kann das ohne einen Supercomputer unverhältnismäßig lange dauern.


Das könnte Sie auch interessieren:

CIOs setzen auf Automatisierung und KI, um wachsende Kluft zwischen begrenzten IT-Ressourcen und steigender Cloud-Komplexität zu überbrücken. Dies geht aus einer Studie von Dynatrace hervor.‣ weiterlesen

Zahlreiche Geräte verbinden sich heutzutage mit dem Firmennetzwerk. Neben offensichtlichen Geräten wie Büro-PCs und Maschinensensoren gibt es meist auch solche, die keiner auf dem Radarschirm hat. In diesem verborgenen Internet of Things könnten Einfallstore für Cyberkriminelle sein.‣ weiterlesen

Die Erwartungen an die wirtschaftliche Entwicklung gehen laut aktueller ZEW-Zahlen im Oktober zurück. Die Einschätzung der aktuellen konjunkturellen Lage hat sich jedoch erneut verbessert.‣ weiterlesen

Die Verschmelzung von Operational Technology (OT) und IT bietet Vorteile. Um sie zu nutzen, müssen sich Fabrikbetreiber aber zunächst mit einem tragfähigen IT-Sicherheitskonzept befassen. Die Eckpfeiler sind Transparenz, Kontrolle und Reaktionsfähigkeit.‣ weiterlesen

Bild: DSAG Deutsche SAP Anwendergruppe e.V.

Im Rahmen der Mitgliederversammlung der Deutschsprachigen SAP-Anwendergruppe (DSAG) wurden im Vereins- und Fachvorstand insgesamt neun Positionen neu oder wieder besetzt. Unter anderem ist Jens Hungershausen neuer Vorstandsvorsitzender. ‣ weiterlesen

Der Maschinen- und Anlagenbauer Dürr beteiligt sich an der Industrial Cloud von Volkswagen und AWS. Zuerst werden Teile des DXQ-Portfolios über die Cloud bereitgestellt. Volkswagen-Werke und Partnerunternehmen des Autobauers können die Lösungen dann ähnlich wie aus einem B2C-App Store beziehen und etwa zur Produktionsoptimierung einsetzen. Der Maschinen- und Anlagenbauer verspricht sich vom Projekt hingegen, das Feedback der Anwender zur Verbesserung der eigenen Applikationen nutzen zu können.‣ weiterlesen

Die Planung der Produktion kann das Personal einige Zeit kosten. Warum also nicht eine künstliche Intelligenz einsetzen, um die Planer zu unterstützen? Auf diese Weise gelang es dem Verpackungs-Spezialisten Constantia Teich, die Termintreue zu erhöhen.‣ weiterlesen

Inmitten der sich verschärfenden Wirtschaftskrise wenden sich immer mehr Industrieunternehmen dem Industrial Internet of Things (IIoT) zu, um ihre Anlagen aus der Ferne zu überwachen und ungeplante Ausfallzeiten zu verhindern. Ein wichtiger Aspekt ist dabei die Nachrüstung alter Anlagen.‣ weiterlesen

Der Europäische Gerichtshof hat die Privacy-Shield-Vereinbarung zum Austausch von Daten zwischen der Europäischen Union und den Vereinigten Staaten anulliert. Zu unterschiedlich sei das Datenschutzniveau beider Akteure. Jürgen Litz (Bild) ist als Geschäftsführer des CRM-Softwareanbieters Cobra mit den Fallstricken beim Umgang mit personenbezogenen Daten vertraut. Seine Einschätzungen zum Urteil und zu den Alternativen für internationale Unternehmen.‣ weiterlesen

Die OPC Foundation hat das Unternehmen Emerson in den Vorstand berufen. Zudem tritt das Unternehmen auch der Field-Level-Communications-Initiative der OPC Foundation bei.‣ weiterlesen

Maschinelles Lernen und KI können einen wertvollen Beitrag zur kontinuierlichen Verbesserung der Produktion leisten. Jetzt will es Rockwell Automation seinen Anwendern mit der Lösung LogixAI besonders leicht machen, Modelle zu entwickeln, auszuführen und laufend durch ausgefeiltere Versionen zu ersetzen.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige