- IT&Production - https://www.it-production.com -

Cluster-Computing mit ausgemusterten PC-Systemen

Simulation bei der Elektromotoren-Entwicklung

Cluster-Computing mit ausgemusterten PC-Systemen

Der Simulationsaufwand einer Design-Iteration bei der Entwicklung von Elektromotoren kann auf einfachen PC-Systemen leicht über 700 Stunden dauern. Der Automobil-konzern General Motors hat daher 16 ausgemusterte Desktop-PCs miteinander gekoppelt und so die Berechnungsgeschwindigkeit auf weniger als fünf Stunden reduziert. So ließen sich sowohl Time-to-Market-Zyklen verbessern als auch gleichzeitig die Qualität der Motoren verbessern.

Das in Ansys Maxwell berechnete Drehmoment-Profil liefert Entwicklern von Elektromotoren Informationen etwa zur mechanischen Belastung, Deformationen sowie Vibrationen. Bild: Ansys

Derzeit verfügt die Automobilindustrie noch über wenig Erfahrung mit der Optimierung des Designs von Motoren für Fahrzeuge mit Elektro- oder Hybridantrieb (EV/HEV). Daher müssen zur Optimierung der in Elektro- und Hybridfahrzeugen eingebauten speziellen Elektromotoren häufig Tausende oder gar Hunderttausende von Design-Iterationen ausgewertet werden. Hierbei spielt die elektromagnetische Simulation eine Schlüsselrolle. Bei dem US-amerikanische Automobilhersteller General Motors kommt für diese Aufgabe die Maxwell-Software von Ansys zum Einsatz: Die Lösung simuliert elektromagnetischer Felder, um das Drehmomentprofil des Motors zu berechnen, also das zeitliche Verhalten des Drehmomentes im Motorbetrieb und den erforderlichen elektrischen Widerstand zum Verlangsamen des Fahrzeugs im generatorischen Bremsbetrieb. Neben der Software setzt der Autohersteller die Produkte HFSS und Q3D Extractor des gleichen Anbieters ein, um mögliche elektromagnetisch bedingte Kompatibilitätsprobleme zu lösen.

Anhand der Simulationsergebnisse werden die Design-Basisparameter angepasst, um das bestmögliche Verhältnis zwischen der Motorleistung einerseits und Größe, Gewicht und Kosten des Motors sowie seinem Zusammenwirken mit anderen Systemen andererseits zu erzielen. Anfänglich führten die Entwickler die elektromagnetische Simulation des Antriebsmotors auf einem leistungsfähigen Single Core Desktop-Computer durch, der für jede Design-Iteration etwa 72 Stunden benötigte. Mit zunehmender Analysekomplexität stieg dieser Wert auf rund 720 Stunden und stellte die windowsbasierte IT-Infrastruktur des Unternehmens durch die entstehenden Wartezeiten auf eine harte Probe. Um die wichtigen Ergebnisse schneller verfügbar zu machen, experimentierten die Entwickler mit der Verwendung der Ansys Distributed Solve Option (DSO), um die parametrischen Analysen mit allen drei Simulationslösungen auf mehrere Rechner zu verteilen und damit die Extraktion, Charakterisierung und Optimierung des elektromagnetischen Modells zu beschleunigen. Ein Computer mit acht Kernen, großer Plattenkapazität und ausreichend Arbeitsspeicher erhöhte die Lösungsgeschwindigkeit um den Faktor 3,5. Das stellte zwar eine erhebliche Verbesserung dar, entsprach aber noch nicht dem angestrebten Ziel.

Mit einem Cluster-System – bestehend aus alten Desktop-PCs – konnte der Autohersteller General Motors anfallende Simulationsaufgaben im Elektromotoren-Design bis zu 13 Mal schneller berechnen. Dieser Geschwindigkeitszuwachs wirkte sich insgesamt positiv auf die Effizienz der Engineeringprozesse aus – bei vergleichsweise geringen Kosten. Bild: Ansys.

High-Performance-Computing ohne hohe Hardwarekosten

Auch wenn die Desktop-Lösung nicht den gewünschten Erfolg brachte, war andererseits noch nicht erwiesen, dass eine große High Performance Computing-Umgebung (HPC) wirklich rentabel sein würde. Das Entwicklerteam konzipierte daher ein einfaches System, das auch ohne den Kostenaufwand eines ‚ausgewachsenen‘ HPC-Systems größere Leistungsverbesserungen versprach. Das Resultat ist ein HPC-Einstiegsmodell, das sich mit sehr geringem Hardware-Aufwand realisieren lässt: Um Kosten zu sparen, griffen die Verantwortlichen dafür auf alte Desktop-PCs von Hewlett-Packard zurück, die eigentlich bereits ausgemustert waren. Als Betriebssystem diente Microsoft Windows 2008 Server Edition HPC, eine ‚abgespeckte‘ Windows-Version mit geringerem Ressourcenbedarf. Die Anwendungen Platform LSF von Platform Computing wurde für das parallele Task-Managing und das Queuing eingesetzt. Der im Unternehmen normalerweise für produktive Anwendungen genutzte Flexlm-Server diente als zentraler Server für die Lizenzen, was die Administration und Pflege vereinfachte. Für dieses Einstiegsmodell wurde davon ausgegangen, dass nicht mehr als zwei gleichzeitig aktive Nutzer auf das HPC-System zugreifen. Diese müssen sich lediglich zum Abrufen der Resultate wieder einloggen. Für diese Nutzer wurde jeweils ein Rechner als externe Schnittstelle zum HPC-System vorgesehen, wobei die Rechenaufträge in einem Speicherbereich gesammelt und per Queuing durch LSF in das HPC-System eingelesen werden.

Dieses Prinzip vermeidet Störungen der Simulation infolge von Unterbrechungen oder Überlastung der Verbindung zu den Client-Maschinen, und die Daten stehen dem HPC-System auch für das Postprocessing zur Verfügung. Die Kosten eines HPC-Systems entstehen hauptsächlich durch die Software, können sich aber durch sorgfältige Planung minimieren lassen. Bei einem größeren System mit N Computern mit jeweils M Kernen berechnet sich die benötigte Zahl der Lizenzen für Ansys Optimetrics nach der Formel (N(M)-1. Die Lösung ist darauf ausgelegt, die Design-Verbesserungen für leistungsfähige Elektronik-Komponenten durch schnelle Ermittlung der optimalen Werte für Design-Parameter innerhalb benutzerdefinierter Rahmenbedingungen zu optimieren. Betriebssystem und die LSF-Lizenzen sind jeweils N mal erforderlich. Bei einem HPC-System ist auch die Anzahl der Queues in Abhängigkeit von der Anzahl der Rechner-‚Boxen‘ und der Kerne pro ‚Box‘ zu berücksichtigen, und entsprechend auch die erforderlichen DSO-Lizenzen. Die Anzahl der Nutzer, die in einer typischen Umgebung gleichzeitig auf das Tool zugreifen, spielt bei der Berechnung der notwendigen Anzahl der Lizenzen für die Lösungen ebenfalls eine große Rolle: Die Entwickler des Automobilkonzerns verwendeten eine Konfiguration mit 16 Rechner-Knoten zusätzlich zum Plattform-Master-Gateway, dem Domain-Controller und dem Lizenz-Server. Der Domain-Controller diente als Fileserver, mit zwei Terabyte Plattenspeicher für Nutzerdateien, sowie als Server für die Dateien der Simulationsanwendung, sodass sie nicht auf jeder Box separat installiert werden musste. Für dieses Einstiegssystem waren 32 DSO-Lizenzen, sechs Lizenzen für Maxwell 2-D, sechs Optometrics- und 16 LSF-Server-Lizenzen erforderlich. Durch die Beschränkung auf zwei Client-Rechner zum Absenden der Verarbeitungsaufträge wurden nur zwei Client-Lizenzen benötigt.

Deutliche Zeit- und Kostenersparnis in der Entwicklung

Die Simulation auf 16 Rechnern mit 32 Kernen verkürzte die Lösungszeit um den Faktor 16 auf 4,5 Stunden. Im Rahmen des Projekts konnte errechnet werden, dass im neuen System zwei Entwickler die gleiche Arbeit leisten konnten, wie vier Entwickler in einer Rechnerumgebung ohne HPC, sodass die Hälfte der Personalkosten eingespart werden konnte. Unter Anrechnung der Kosten für die HPC-Software von rund 30.000 US-Dollar pro Jahr erzielte das einfache HPC-System eine jährliche Ersparnis um die 170.000 US-Dollar. Dieser Kostenvorteil würde sich natürlich geringfügig relativieren, wenn statt der ausgemusterten Hardware neue Rechner angeschafft werden müssen. Ein wesentlicher Vorteil des Mini-HPC-Systems ist seine Skalierbarkeit von einigen wenigen bis zu 20 Rechnern. Die einzigen ‚harten‘ Kosten entstehen durch die Software. Ein weiterer Vorteil eines solchen, kleinen Systems besteht darin, Rechenaufträge automatisiert zu bestimmten Zeiten starten und beenden zu können. So lassen sich die Aufträge tagsüber in Queues zusammenstellen und dann außerhalb der Arbeitszeiten, zum Beispiel über Nacht, ausführen. Hierdurch kann auch ein kleines Unternehmen, das nur über normale Desktop-Computer mit ausreichend Speicher verfügt, parametrische elektromagnetische Analysen durchführen – wobei lediglich Software-Kosten anfallen. Der Einsatz von HPC führte bei dem Automobilproduzenten in Verbindung mit Analyse-Werkzeugen zu signifikanten Verbesserungen bei der Design-Produktivität für Antriebsmotoren. Denn da eine größere Zahl von Design-Alternativen analysiert werden kann, lassen sich Time-to-Market-Zyklen und die Produktionskosten reduzieren sowie die Qualität der Antriebsmotoren verbessern.