Anzeige
Anzeige
Beitrag drucken

Engineering mit Rechenkraft beschleunigen

Am Supercomputer simuliert

Das Potential eines Supercomputers für die simulationsgestützte Produktentwicklung ist erheblich. Doch die Hürden vor einem Einsatz schrecken viele Unternehmen ab. Im Projekt HiPerSim4All wird an der Universität Bayreuth daran gearbeitet, den Zugang zu dieser Technologie zu vereinfachen und die dafür benötigte IT-Expertise auf Seite der Anwender zu senken.

Der Bayreuther Supercomputer btrzx4 besteht aus miteinander verbundenen Rechenknoten in speziellen Serverracks. (Bild: Universität Bayreuth)

Der Bayreuther Supercomputer btrzx4 besteht aus miteinander verbundenen Rechenknoten in speziellen Serverracks. (Bild: Universität Bayreuth)

Technische Simulationen, allen voran die Finite-Elemente-Analyse (FEA), ist seit Jahren Stand der Technik und wird in vielen Unternehmen in der Produktentwicklung eingesetzt. Der Bedarf einer realitätsnäheren virtuellen Abbildung von Produkten und Produktionsprozessen resultiert jedoch in einer zunehmenden Komplexität dieser Simulationen. Dadurch können die Rechenzeiten mehrere Tage dauern. Die Nutzung von Supercomputern bietet Möglichkeiten den Produktentwicklungsprozess effizienter zu gestalten und Entwicklungszeiten zu verkürzen. Jedoch ist der Einstieg keineswegs trivial. Daher begleiten Mitarbeiter der Universität Bayreuth im Rahmen des EU-geförderten Projekts ‚HiPerSim4All‘ Unternehmen bei der Umsetzung und unterstützen bei der Methoden- und Prozessentwicklung sowie dem Wissensaufbau der Mitarbeiter.

Workstations an der Grenze

Zu den Projektpartnern des am Lehrstuhl für Konstruktionslehre und CAD (LSCAD) angesiedelten Projektes zählen vor allem kleine und mittelständische Unternehmen: Vom Ingenieurdienstleister bis hin zum OEM-Zulieferer. Die meisten der Projektteilnehmer setzen bei Simulationen auf aufgerüstete Workstations. Diese zeichnen sich meist durch mehrere Gigabyte große Arbeitsspeicher und schnelle Mehrkernprozessoren aus, was für kleine und mittelgroße Simulationen in der Regel ausreicht. Das Problem sind die immer häufiger gefragten großen und komplexen Simulationen. So werden Multi-Physik-Simulationen und das detaillierte Abbilden sehr großer Strukturen oft zu einem Problem, da entweder die Rechenzeiten unverhältnismäßig lang werden oder die Größe des verfügbaren Arbeitsspeichers limitierend wirkt. Die Gründe dafür liegen vereinfacht ausgedrückt am Skalierungsverhalten der FEA und den thermischen Eigenschaften der Prozessoren. Supercomputer können diese Limitationen überwinden und sind keinesfalls nur für Großunternehmen interessant.

Nicht nur für Konzerne

Bei einem Supercomputer handelt es sich im Grunde um mehrere unabhängige Computer (Rechenknoten), die über ein Hochgeschwindigkeitsnetzwerk verbunden sind und ein Cluster bilden. Jeder Rechenknoten ist wiederrum mit einem oder mehreren Multi-Core-Prozessoren bestückt, was eine Parallelisierung der Lösung auf mehreren Ebenen ermöglicht: Zunächst können Partitionierungsalgorithmen die ursprüngliche Problemstellung (Domain) in mehrere Subdomains aufteilen und diese über die verfügbaren Rechenknoten verteilen. Innerhalb jeder Subdomain kann wiederrum eine weitere Partitionierung durchgeführt und/oder eine Beschleunigung der mathematischen Operationen durch Ausnutzung des Parallelisierungspotentials der Prozessorkerne erreicht werden. Insbesondere bei der Dimensionierung und Auslegung von genormten Produkten mit unterschiedlichen Lastkollektiven können Unternehmen durch Simulationen mit Supercomputern Kosten sparen. Um einen Eindruck von den Chancen für die Produktentwicklung zu vermitteln, wurde am LSCAD der simulationsgestützte Auslegungsprozess eines elektrischen Antriebes hinsichtlich der thermischen Verlustleistung optimiert. Dies ist numerisch aufwendig, da die realistische Bestimmung des Temperaturprofils, sowohl einer Bestimmung der konvektiven Wärmeübergänge, als auch der abstrahlenden Wärme bedarf. Jedoch erfordert die Simulation der Strahlungsvorgänge eine sehr aufwendige Sichtfaktorbestimmung, die stark von der Kühlrippengeometrie abhängig ist und daher detailliert abgebildet werden muss und dementsprechend die Berechnungszeiten erhöht. Sollen dann noch viele Produktvarianten berechnet werden, kann das ohne einen Supercomputer unverhältnismäßig lange dauern.


Das könnte Sie auch interessieren:

PerfectPattern hat die kostenlose Basisversion von Insights App vorgestellt. Mit der Software können Prozessingenieure, Produktionsexperten und Datenwissenschaftler die von PerfectPattern entwickelte KI-Technologie Aivis nutzen, um Einblicke in Produktionsprozesse zu erhalten.‣ weiterlesen

Die Buss-Unternehmensgruppe ist in vielen unterschiedlichen Geschäftsfeldern tätig. Eine Herausforderung, stand doch ein Wechsel des ERP-Systems ins Haus - mit mehr als 80 Unternehmen innerhalb der Gruppe. Gemeinsam mit dem IT-Dienstleister Sven Mahn IT gelang es, das Projekt innerhalb von 14 Wochen umzusetzen.‣ weiterlesen

Werden neue Technologien wie beispielsweise künstliche Intelligenz Teil des Arbeistalltages wünscht sich ein Großteil der unter 31-Jährigen, darüber informiert zu werden. Dies geht aus einer Studie des IT-Security-Anbieters Kaspersky hervor. Auch ein menschliches Antlitz könnte laut Studie für mehr Akzeptanz sorgen.‣ weiterlesen

Schlechtere Stimmung als noch im Juni. Geschäftsklima-Index des Ifo Instituts hat in der aktuellen Erhebung im Vergleich zum Vormonat nachgegeben.‣ weiterlesen

Die Sprints zu Covid19-Impfstoffen zeigen den Leistungsdruck, unter dem die Technologieentwicklung steht. In kürzester Zeit sollen Forscher und Ingenieure Lösungen für die kritischen Probleme unserer Zeit finden. Der Accelerated-Discovery-Ansatz soll helfen, Forschungs- und Entwicklungsprozesse mit KI, Hybrid Cloud und schließlich Quantencomputern um das zehn- bis hundertfache des heute Möglichen zu beschleunigen.‣ weiterlesen

Trebing + Himstedt hat die Partnerschaft mit Celonis bekanntgegeben. Die Unternehmen wollen zukünftig beim Thema Process Mining zusammenarbeiten.‣ weiterlesen

Im Rahmen einer Partnerschaft wollen Crate.io und Zühlke zukünftig gemeinsam an Smart Factory- und Industrie 4.0-Lösungen arbeiten.‣ weiterlesen

Die Dualis GmbH IT Solution hat für Lean-Manufacturing-Aufgabenstellungen ein Add-on zur 3D-Simulationsplattform Visual Components entwickelt. Basierend auf Process Modelling können damit automatisch branchengängige Standardized Work Sheets generiert werden.‣ weiterlesen

Um verschiedene Daten aufzubereiten und den Mitarbeitern nutzenbringend bereitzustellen, ist nicht immer ein großes IT-Projekt nötig. Wer schnell Daten für die Beschäftigten visualisieren möchte, sollte sich einmal näher mit Dashboards befassen.‣ weiterlesen

Die Simulation am digitalen Zwilling macht die Inbetriebnahme von Anlagen und Maschinen mit automatisierten Bewegungen sicherer. Fehler fallen früher auf und können behoben werden, bevor die Anlage aufgebaut ist. So lassen sich Schäden und Verzögerungen vermeiden. Auch als Schulungstool für Bediener und Programmierer ist die digitale Maschine hilfreich.‣ weiterlesen

ISPE, APV, Concept Heidelberg und die VDI/VDE Gesellschaft Mess- und Automatisierungstechnik richten am 30. November bis zum 1. Dezember 2021 im Dorint Kongresshotel in Mannheim die 14. Offizielle GAMP 5 Konferenz aus.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige