Anzeige
Anzeige
Beitrag drucken

Leistungsstarkes KI-System am KIT installiert

Als ein Werkzeug der Spitzenforschung ist künstliche Intelligenz (KI) heute unentbehrlich. Für einen erfolgreichen Einsatz – ob in der Energieforschung oder bei der Entwicklung neuer Materialien – wird dabei neben den Algorithmen zunehmend auch spezialisierte Hardware zu einem immer wichtigeren Faktor. Das Karlsruher Institut für Technologie (KIT) hat nun als erster Standort in Europa das neuartige KI-System Nvidia DGX A100 in Betrieb genommen. Angeschafft wurde es aus Mitteln der Helmholtz Artificial Intelligence Cooperation Unit (HAICU).

Bei den neuen Computersystemen vom Typ DGX A100 handelt es sich um Hochleistungsserver mit jeweils acht Nvidia A100 Tensor Core GPUs. Gemeinsam erbringen die acht Beschleuniger eine Rechenleistung von 5 AI-PetaFLOP/s, also fünf Billiarden Rechenoperationen. (Bild: Simon Raffeiner/SCC)

Bei den neuen Computersystemen vom Typ DGX A100 handelt es sich um Hochleistungsserver mit jeweils acht Nvidia A100 Tensor Core GPUs. Gemeinsam erbringen die acht Beschleuniger eine Rechenleistung von 5 AI-PetaFLOP/s, also fünf Billiarden Rechenoperationen. (Bild: Simon Raffeiner/SCC)

Ob bei der Entwicklung autonomer Robotersysteme oder neuartiger Funktionsmaterialien, ob bei der Optimierung von Energiesystemen oder bei der Verbesserung von Klimamodellen: Künstliche Intelligenz (KI) und Maschinelles Lernen (ML) sind heute ein wichtiger Bestandteil der Forschung am KIT. Um den Einsatz dieser Zukunftstechnologien weiter voranzutreiben, engagiert sich das KIT in der Helmholtz Artificial Intelligence Cooperation Unit (Haicu), einer forschungsorientierten Plattform der Helmholtz-Gemeinschaft für angewandte KI, die feldübergreifende Forschungsprojekte fördert. Hier sollen Ähnlichkeiten zwischen Anwendungen identifiziert und ausgenutzt sowie die Entwicklung neuer Methoden vorangetrieben werden. „Dafür ist vor allem eines nötig – eine extrem hohe Rechenleistung“, sagt Martin Frank, Direktor am Steinbuch Centre for Computing (SCC) am KIT und Professor am Institut für Angewandte und Numerische Mathematik (IANM) des KIT: „Beim Training einer KI mit großen Datensätzen kommen konventionelle Computersysteme an ihre Grenzen. Viele KI-Algorithmen lassen sich aber durch den Einsatz spezieller Hardware beschleunigen. Für unsere Forscherinnen und Forscher ist ein Zugriff auf solche Computersysteme heute ein entscheidender Wettbewerbsfaktor.“

Das Steinbuch Centre for Computing (SCC) des KIT hat daher die Beschaffung für den derzeit am SCC im Aufbau befindlichen Hochleistungsrechner Karlsruhe (HoreKa) genutzt und ist eine Partnerschaft mit dem Marktführer Nvidia eingegangen, um als erster Standort in Europa Zugriff auf die derzeit modernsten KI-Systeme des Unternehmens zu erhalten. Bei den nun installierten drei Computersystemen vom Typ DGX A100 handelt es sich um Hochleistungsserver mit jeweils acht Nvidia A100 Tensor Core GPUs. Gemeinsam erbringen die acht Beschleuniger eine Rechenleistung von 5 AIPetaFLOP/s, also fünf Billiarden Rechenoperationen pro Sekunde. Im Vergleich mit dem bislang schnellsten Vorgängermodell V100 ist das eine Beschleunigung um den Faktor fünf. Gleichzeitig wurden die neuen Beschleuniger mit deutlich größerem und schnellerem Hauptspeicher ausgestattet und der Durchsatz des speziellen NVLink-Netzwerks zwischen den einzelnen Chips auf 600GBit pro Sekunde erhöht. „Den Forschern ist es damit nun möglich, deutlich größere Neuronale Netzwerke als bisher in sehr viel kürzerer Zeit mit noch größeren Datenmengen zu trainieren“, so Frank.

KI hilft dabei Menschheitsprobleme zu lösen

Die neuen Systeme erlauben es den Forschern auch, ihre Anwendungen direkt für den zukünftigen Supercomputer HoreKa des KIT zu optimieren. Dieser wird nämlich ebenfalls mit den A100-Beschleunigern von Nvidia ausgestattet, allerdings mit gleich 740 Stück. Bei der Inbetriebnahme im Sommer 2021 wird HoreKa damit voraussichtlich einer der zehn schnellsten Rechner Europas sein. „Künstliche Intelligenz und Maschinelles Lernen können die Forschung in allen Anwendungsfeldern, also dort wo die drängenden Probleme der Menschheit gelöst werden, drastisch beschleuigen“, sagt Marc Hamilton, für den Bereich Entwicklung zuständiger Vizepräsident bei Nvidia. „Unsere neuen DGX A100-Systeme mit Tensor Core GPUs und Nvidia Mellanox HDR InfiniBand-Verbindungen unterstützen diese beschleunigte Forschung und werden den wissenschaftlichen Fortschritt in einem breiten Spektrum wichtiger Forschungsbereiche vorantreiben.“

Vor dem Hintergrund der weltweiten Corona-Pandemie könnten die neuen KI-Systeme am KIT nun direkt für die Bekämpfung genutzt werden – etwa indem sie die Entdeckung von Infektions-Hotspots beschleunigen, Ausbreitungsmuster vorhersagen oder das medizinische Personal bei der Analyse von Röntgenbildern entlasten. Entsprechende KI-Forschungsinitiativen sind am KIT und in der Helmholtz-Gemeinschaft bereits gestartet.

Beitrag drucken

Leistungsstarkes KI-System am KIT installiert

Ob bei der Entwicklung autonomer Robotersysteme oder neuartiger Funktionsmaterialien, ob bei der Optimierung von Energiesystemen oder bei der Verbesserung von Klimamodellen: Künstliche Intelligenz (KI) und maschinelles Lernen (ML) sind wichtige Bestandteile der Forschung am KIT. (mehr …)


Das könnte Sie auch interessieren:

Zerspaner müssen sich intensiv mit hoher Variantenvielfalt, kleinen Losgrößen und langen Rüstzeiten befassen, um wettbewerbsfähig zu fertigen. MES-Software mit Advanced Planning and Scheduling-Funktionalität hilft, die Herausforderungen der Branche anzugehen.‣ weiterlesen

Weltweit steckt der Einsatz von künstlicher Intelligenz (KI) noch in den Kinderschuhen. Die Mehrheit der Unternehmen, die KI einsetzen, experimentieren laut einer Accenture-Untersuchung in diesem Bereich noch. 12 Prozent nutzen die Technologie mit einem KI-Reifegrad, der einen starken Wettbewerbsvorteil bringt, so das Ergebnis der Studie.‣ weiterlesen

Thomas Herrguth verantwortet seit 1. Juli das Deutschlandgeschäft bei VMware. Sein Vorgänger Armin Müller konzentriert sich nun auf seine Rolle als Vice President CEMEA bei VMware.‣ weiterlesen

Bei Predictive-Quality-Anwendungen kann es sich auszahlen, nicht auf die Cloud, sondern auf Edge Computing zu setzen – vor allem dann, wenn es schnell gehen muss, erläutert Data-Science-Spezialist LeanBI.‣ weiterlesen

Der ERP-Auswahlberater Trovarit begleitete Buhmann Systeme bei seiner Software-Neuausrichtung von der Prozessanalyse bis zur Systemauswahl. Ein zentrales Element war der Anforderungskatalog mit 850 Punkten. Im Marktvergleich bot die Software AMS.ERP die höchste Abdeckung - und ihr Hersteller erhielt den Zuschlag.‣ weiterlesen

Gemeinsam wollen Siemens und Nvidia das industrielle Metaverse erschließen. Die Unternehmen wollen dafür ihre Partnerschaft ausbauen und durch die Verknüpfung von Nvidia Omniverse und Siemens Xcelerator realitätsgetreue digitale Zwillinge ermöglichen.‣ weiterlesen

Amazon Web Services hat auf dem AWS Summit in San Francisco drei Services angekündigt, die sich vor allem an produzierende Betriebe richten. Mit AWS IoT TwinMaker können Entwickler digitale Zwillinge etwa von Gebäuden, Fabriken, Industrieanlagen und Produktionslinien erstellen.‣ weiterlesen

Wachstum hatte die Personalarbeit bei Schuler Präzisionstechnik vor Herausforderungen gestellt. Die manuelle Bearbeitung von Vorgängen kostete Zeit und war umständlich. Daher wurde ein digitales Personalmanagement-System auf Basis einer Software für Enterprise Content Management (ECM) aus der Taufe gehoben.‣ weiterlesen

Die Berliner Fraunhofer Institute haben im Auftrag von German Edge Cloud und dem Innovationscluster 5G Berlin eine 5G-Infrastruktur in Betrieb genommen. Diese steht Kunden und Partnern aus Industrie und Forschung für Projekte zur Verfügung.‣ weiterlesen

PTC hat das neunte Major Release der CAD-Software Creo vorgestellt. Das Unternehmen mit Hauptsitz in Boston hat in die Weiterentwicklung der Modellierungsumgebung investiert, um die Benutzerfreundlichkeit und Produktivität zu erhöhen.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige