Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Beitrag drucken

Interview

"Sensible Geschäftsdaten bleiben im eigenen Netzwerk"

Wenn es darum geht, ein effizientes IT-Umfeld für Engineering-Applikationen einzurichten, kann eine Infrastruktur mit Einzelworkstations schnell an Grenzen stoßen. Das Stichwort in diesem Zusammenhang heißt Virtualisierung. Nachdem Virtualisierung im Bereich der kaufmännischen IT bereits gängig ist, bieten Hersteller wie Citrix und VMware Lösungen für Entwicklungsumgebungen an. Welche Vorteile aus dieser Art des Systembetriebs erwachsen können, erläutert Christoph Heiden, Serviceleiter für Applikationen für das Product Lifecycle Management bei Cenit, im Interview.

Bei der Nutzung einer sogenannten Private Cloud sind die zentralen Server in das unternehmenseigene Netzwerk integriert. Sensible Geschäftsdaten bleiben im eigenen Netzwerk. Bild: Cenit AG

Herr Heiden, mit der Virtualisierung wird das Ziel verfolgt, die Effizienz bei der Ressourcennutzung zu erhöhen. Dazu werden Applikationen und Daten auf zentralen Servern gebündelt. Wie verhält es sich denn mit dem Transfer der im CAD-Bereich wichtigen 3D-Daten? Verlangsamt sich die Leistung nicht vielleicht sogar?

Christoph Heiden: Speziell für die Übertragung von 3D-Daten stellen Hersteller wie Citrix oder Vmware optimierte Netzwerkprotokolle zur Verfügung, die durch spezielle Komprimierung dafür sorgen, dass 3D-Daten in handlebaren Paketen aufbereitet werden. So wird sichergestellt, dass der CAD-User mit einer zufriedenstellenden Performance in seiner virtuellen Anwendung arbeiten kann. Die Voraussetzung neben diesen optimierten Netzwerkprotokollen ist natürlich das Vorhandensein von angemessenen Bandbreiten im Netzwerk. Abhängig vom jeweiligen Anwendungsfall und der Konfiguration der eingesetzten Software unterscheiden sich die angebotenen Lösungen bezüglich der Bandbreitennutzung. Von dieser hängt es letztlich ab, welche im konkreten Fall besser für Zugriffe per WAN geeignet ist.

Zurück zur Effizienz der Ressourcennutzung. Müssten auf einem zentralen Server nicht überproportionale Rechenkapazitäten bereit gestellt werden, um die erforderliche Anwendungsperformance zu gewährleisten?

Christoph Heiden: Selbstverständlich müssen die Server mit ausreichend Ressourcen ausgestattet sein, jedoch ergeben sich durch die Zentralisierung der Anwendung verschiedene Vorteile: Nutzt man ausschließlich die Rechenleistung auf lokalen Workstations, führen Lastspitzen in aller Regel zu Performanceeinbußen. Durch die Verlagerung der Rechenleistung von lokalen Workstations hin zu einem Anwendungsserver, können Ressourcen dynamisch nach Bedarf zugewiesen werden. Somit ist die Wahrscheinlichkeit von Performance-Einbußen, die durch einzelne Anwender verursacht werden, deutlich geringer. Ein weiterer Vorteil der Virtualisierung sind Synergieeffekte, wie zum Beispiel eine höhere Nutzungseffizienz, die sich aus der Konsolidierung der bislang lokalen Ressourcen ergeben. Darüber hinaus kommt die zentrale Bereitstelllung von 3D-Anwendungen auch der Netzwerkauslastung zugute. So werden statt vollständigen 3D-Modellen lediglich die benötigten 3D-Grafikbefehle über das Netzwerk an den entsprechenden Client zur Aufbereitung und Anzeige gesendet. Die Verarbeitung und Speicherung der Daten erfolgt somit stets innerhalb der zentralen Infrastruktur.



Im Bild: Christoph Heiden, Serviceleiter für Applikationen für das Product Lifecycle Management bei Cenit

Virtualisierung erfordert die zentrale Bereitstellung von Daten und Anwendungen. Das lässt unweigerlich an die vielzitierte Cloud denken. Eines der Risiken von Clouds, speziell für Unternehmen, ist die Sicherheit von Daten.

Christoph Heiden: In unserem Virtualisierungskonzept gehen wir von der Nutzung einer sogenannten Private Cloud aus. Dies bedeutet, dass die zentralen Server in das unternehmenseigene Netzwerk integriert sind. Ein großer Vorteil dabei ist, dass sensible Geschäftsdaten im eigenen Netzwerk bleiben. Dadurch, dass sich die Daten zentral, das heißt vollständig in der unternehmenseigenen Cloud befinden, aber von außen zum Beispiel durch VPN-Verbindungen genutzt werden können, entfällt die Notwendigkeit, sie lokal bereit zu halten. Das Risiko von unbefugten Zugriffen, wie zum Beispiel bei Geräteverlust, wird somit minimiert. Der Sicherheit und dem Datenschutz kommt zudem die Tatsache zugute, dass die Informationen als verschlüsselte Grafikdaten transferiert werden. Dies wiederum erschwert die Nutzbarkeit der wesentlichen Inhalte durch unberechtigte Dritte.

Bringt denn die Virtualisierung neben den von Ihnen angesprochenen Vorteilen auch Nutzen für die R&D Fachbereiche mit sich?

Christoph Heiden: Ganz klar. Sind die Unternehmen bereit, ihre zentrale Serverstruktur redundant aufzubauen, können sie eine sehr hohe, clientunabhängige Verfügbarkeit der Anwendung erreichen. Bei dem Austausch oder der Erweiterung von Endgeräten können diese zudem schnell und einfach der vorhandenen Struktur hinzugefügt und ebenso wieder von dieser entfernt werden. Als weiteren Nutzenpunkt sehe ich die mit der Zentralisierung einhergehende, vereinfachte Administration. Diese wirkt sich neben der höheren Betriebssicherheit auch positiv auf die Kosten der Product Lifecycle Management-Infrastruktur aus.

Was sollten Unternehmen bei dem Aufbau einer zentralisierten Infrastruktur für die Virtualisierung von Anwendungen beachten?

Christoph Heiden: Für den Einstieg lässt sich der Aufbau einer zentralisierten Anwendungsvirtualisierung bereits mit einem Server realisieren. Hierbei können gewöhnliche Clients als Thin-Clients eingesetzt werden. Es besteht also keine dringende Notwendigkeit von zusätzlichen Anschaffungen bei den Endgeräten. Führende Virtualisierungstechnologien können dabei weitgehend unabhängig vom bestehenden Betriebssystem eingesetzt werden. Ein Beispiel: VMware unterstützt heterogene Systemlandschaften. Auch Citrix baut auf verschiedene Plattformen – teilweise sind dabei Kombinationen mit Vmware Produkten möglich. Universelle Clientsoftware steht für beide Lösungen zur Verfügung.


Das könnte Sie auch interessieren:

Für die Umsetzung von IoT-Projekten ist nicht nur eine präzise fachliche Planung des Anwendungsfalls von Bedeutung, sondern eine vorherige Überprüfung des Reifegrads der IT-Organisation sowie des Reifegrads der IT im Umgang mit Cloud-Technologien.‣ weiterlesen

Der Maschinenbauer Manz bündelt unter dem Namen Total Fab Solutions sein Angebot für die Automatisierung von Fertigungslinien. Im Paket abgedeckt sind Umsetzungsschritte von Automatisierungsprojekten von der Fabrikplanung über die Prozess- und Materialflusssimulation oder die Integration bestehender Fertigungsprozesse bis hin zu Aufbau, Hochfahren und Optimierung schlüsselfertig zu übergebender Produktionslösungen.‣ weiterlesen

Beim traditionellen Qualitätsmanagement werden gefertigte Bauteile analysiert, um die Qualität der nächsten zu verbessern. Beim Predictive Quality-Ansatz wollen Hersteller analysegestützt eine höhere Qualität erzielen, ohne in die Vergangenheit schauen zu müssen. Bereits verfügbare Lösungen für den Ansatz integrieren die erforderlichen Daten auf einer MES-Plattform.‣ weiterlesen

Der Aufbau einer kabelgebundenen Ortungsinfrastruktur auf großen Flächen wie Lagerhallen, Baustellen oder in der Prozessindustrie ist kostspielig und zeitaufwendig.‣ weiterlesen

KI-getriebene Convolutional Neuronal Networks in selbstfahrenden Autos sollen andere Verkehrsteilnehmer erkennen. Dabei gilt: Je selbstständiger das Auto, desto komplexer der Algorithmus und undurchschaubarer dessen Weg zur getroffenen Entscheidung. Ein Validierungs-Tool soll helfen, diesen besser zu verstehen.‣ weiterlesen

Erfolgreiche KI-Projekte kombinieren das Domänenwissen von Prozessbeteiligten mit der Expertise von Datenanalysten und IT-Spezialistinnen. Da nicht jedes Maschinenbauunternehmen über diese drei wichtigen Kompetenzfelder verfügt, sind Kooperationen wichtige Bestandteile von KI-Projekten.‣ weiterlesen

Extreme Networks hat die Verfügbarkeit des Wi-Fi 6E Access Point bekanntgegeben. Als Wireless-Plattform erweitert der Zugangspunkt den Einsatzbereich auf das 6GHz-Frequenzband. Das Gerät wurde für Umgebungen mit hohen Anforderungen an Bandbreite und Nutzerdichte entwickelt und zeichnet sich Anbieterangaben zufolge durch seine Perfomance, Funktionalität und Sicherheit aus.‣ weiterlesen

Die Ersatzteilversorgung in der Automobilindustrie besitzt einen sehr kurzfristigen Charakter. Anwendungen zum Abbilden solcher Prozesse sind S/4Hana Supply Chain Management sowie S/4Hana-Automotive-Ersatzteilmanagement. Die wichtigen Zielgrößen für die Versorgungsqualität sind Lieferservicegrad und Time-to-Delivery.‣ weiterlesen

Im Cloud-Projekt Gaia-X entstehen Infrastruktur-Angebote, mit denen Hersteller digitale und vernetzte Produkte entwickeln können, ohne in Abhängigkeit zu Technologiekonzernen zu geraten. Die Strukturen dafür sind bereits etabliert. Jetzt ist es an den Produzenten, durch ihre Mitwirkung aus dem Projekt eine europäische Erfolgsgeschichte zu machen.‣ weiterlesen

Werma bietet ein neues Ruf- und Meldesystem zur Prozessoptimierung in Fertigung, Logistik und an manuellen Arbeitsplätzen an. Mit dem Andon WirelessSet lassen sich Probleme bei der Produktion per Knopfdruck melden, um die Behebung zu beschleunigen.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige