Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Beitrag drucken

Weltraumforschung

Supercomputing auf der ISS

Nach eine einjährigen Testphase stellt Hewlett Packard Enterprise (HPE) seinen auf der Internationalen Raumstation (ISS) betriebenen Spaceborne Computer erstmals für Forschungsarbeiten zur Verfügung.

 (Bild: Pressebüro Hewlett Packard Enterprise)

(Bild: Pressebüro Hewlett Packard Enterprise)

Der Spaceborne Computer ist der erste kommerzielle Supercomputer, den HPE und die NASA für ein einjähriges Experiment in den Weltraum geschickt haben, um dessen Ausfallsicherheit und Leistung zu testen. Der Rechner erzielte dabei eine Leistung von einem Teraflops (eine Billion Gleitkomma-Operationen pro Sekunde). Die einjährige Testphase hat gezeigt, dass der Computer widrigen Bedingungen wie Schwerelosigkeit, ungeplanten Stromausfällen und unvorhersehbarer Strahlung im Weltraum standhalten kann. Die ISS-Astronauten können den Computer nun nutzen, um Analysen direkt im Weltraum durchzuführen, anstatt Daten zur Erde und wieder zurück zu schicken. „Unsere Mission ist es, innovative Technologien für kommende Aufgaben zu entwickeln, sei es auf der Erde oder im Weltraum.“, sagte Dr. Eng Lim Goh, Chief Technology Officer und Vice President, HPC und AI bei HPE. „Nach unserem ersten erfolgreichen Experiment mit dem Spaceborne Computer haben wir wichtige Erkenntnisse gewonnen. Wir testen sein Potenzial weiter, indem wir den ISS-Forschern Supercomputer-Funktionen zugänglich machen und ihnen die Möglichkeit geben, die Weltraumforschung auf ein neues Niveau zu heben.“

Beschleunigte Datenauswertung im Weltall

Aufgrund begrenzter Rechenleistung im Weltraum werden viele Berechnungen, die für Forschungsprojekte im Weltall erforderlich sind, immer noch auf der Erde durchgeführt. Dieser Ansatz ist für Forschungsarbeiten auf dem Mond oder in niedrigen Erdorbits möglich, wo die Kommunikation mit der Erde nahezu in Echtzeit stattfinden kann. Es können jedoch längere Kommunikationslatenzen von bis zu 20 Minuten von und zur Erde auftreten, wenn Daten weiter weg im Weltraum erfasst werden, wie etwa bei Marsmissionen. Dies macht die Forschung im Weltraum schwierig und potenziell gefährlich, wenn beispielsweise Astronauten mit kritischen Ereignissen konfrontiert sind, die sie selbst nicht lösen können.

Latenzen entfallen

Durch Supercomputer entfallen diese Latenzen und die Astronauten sind nicht mehr von Forscherteams auf der Erde abhängig. Mit dem Spaceborne Computer können Astronauten zudem die im Weltall zur Verfügung stehende Bandbreite für ihre Notfallkommunikation freihalten.


Das könnte Sie auch interessieren:

Der Aufbau einer kabelgebundenen Ortungsinfrastruktur auf großen Flächen wie Lagerhallen, Baustellen oder in der Prozessindustrie ist kostspielig und zeitaufwendig.‣ weiterlesen

KI-getriebene Convolutional Neuronal Networks in selbstfahrenden Autos sollen andere Verkehrsteilnehmer erkennen. Dabei gilt: Je selbstständiger das Auto, desto komplexer der Algorithmus und undurchschaubarer dessen Weg zur getroffenen Entscheidung. Ein Validierungs-Tool soll helfen, diesen besser zu verstehen.‣ weiterlesen

Erfolgreiche KI-Projekte kombinieren das Domänenwissen von Prozessbeteiligten mit der Expertise von Datenanalysten und IT-Spezialistinnen. Da nicht jedes Maschinenbauunternehmen über diese drei wichtigen Kompetenzfelder verfügt, sind Kooperationen wichtige Bestandteile von KI-Projekten.‣ weiterlesen

Extreme Networks hat die Verfügbarkeit des Wi-Fi 6E Access Point bekanntgegeben. Als Wireless-Plattform erweitert der Zugangspunkt den Einsatzbereich auf das 6GHz-Frequenzband. Das Gerät wurde für Umgebungen mit hohen Anforderungen an Bandbreite und Nutzerdichte entwickelt und zeichnet sich Anbieterangaben zufolge durch seine Perfomance, Funktionalität und Sicherheit aus.‣ weiterlesen

Die Ersatzteilversorgung in der Automobilindustrie besitzt einen sehr kurzfristigen Charakter. Anwendungen zum Abbilden solcher Prozesse sind S/4Hana Supply Chain Management sowie S/4Hana-Automotive-Ersatzteilmanagement. Die wichtigen Zielgrößen für die Versorgungsqualität sind Lieferservicegrad und Time-to-Delivery.‣ weiterlesen

Im Cloud-Projekt Gaia-X entstehen Infrastruktur-Angebote, mit denen Hersteller digitale und vernetzte Produkte entwickeln können, ohne in Abhängigkeit zu Technologiekonzernen zu geraten. Die Strukturen dafür sind bereits etabliert. Jetzt ist es an den Produzenten, durch ihre Mitwirkung aus dem Projekt eine europäische Erfolgsgeschichte zu machen.‣ weiterlesen

Werma bietet ein neues Ruf- und Meldesystem zur Prozessoptimierung in Fertigung, Logistik und an manuellen Arbeitsplätzen an. Mit dem Andon WirelessSet lassen sich Probleme bei der Produktion per Knopfdruck melden, um die Behebung zu beschleunigen.‣ weiterlesen

Alle Werte einer Lieferkette im Blick zu behalten, ist eine Mammutaufgabe - können diese doch schnell in die Millionen gehen. Behälter mit benötigten Materialien müssen nicht mal verschwinden, schon der falsche Lagerplatz im Werk kann die Produktion ausbremsen. Tracker können dafür sorgen, dass nichts Wichtiges aus dem Blick gerät.‣ weiterlesen

Siemens und Zscaler arbeiten zusammen, um Kunden den sicheren Zugriff vom Arbeitsplatz im Büro oder mobil auf Operational-Technology(OT)-Systeme und -Anwendungen im Produktionsnetzwerk zu ermöglichen.‣ weiterlesen

Der österreichische Ableger von Bechtle hat Open Networks erworben. Die neuen Spezialisten bringen insbesondere Erfahrung in den Bereichen Application Services, Datacenter, Security und Netzwerk mit. Die Firma betreut rund 250 Kunden im Alpenstaat.‣ weiterlesen

Viele Konzepte etwa für Modern Workplaces und Digitalisierung hinterfragen Unternehmenskonzepte, die auf traditionelle Strukturen und Hierarchien setzen. Robert Lindner, Senior Regional Director & Country Manager Germany bei Red Hat, hat vier zentrale Grundsätze herausgearbeitet, wie sich Innovation befördern lässt, insbesondere als ein Unternehmen im Open-Sorce-Softwaremarkt.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige