Anzeige
Anzeige
Anzeige
Beitrag drucken

Interview

"Sensible Geschäftsdaten bleiben im eigenen Netzwerk"

Wenn es darum geht, ein effizientes IT-Umfeld für Engineering-Applikationen einzurichten, kann eine Infrastruktur mit Einzelworkstations schnell an Grenzen stoßen. Das Stichwort in diesem Zusammenhang heißt Virtualisierung. Nachdem Virtualisierung im Bereich der kaufmännischen IT bereits gängig ist, bieten Hersteller wie Citrix und VMware Lösungen für Entwicklungsumgebungen an. Welche Vorteile aus dieser Art des Systembetriebs erwachsen können, erläutert Christoph Heiden, Serviceleiter für Applikationen für das Product Lifecycle Management bei Cenit, im Interview.

Bei der Nutzung einer sogenannten Private Cloud sind die zentralen Server in das unternehmenseigene Netzwerk integriert. Sensible Geschäftsdaten bleiben im eigenen Netzwerk. Bild: Cenit AG

Herr Heiden, mit der Virtualisierung wird das Ziel verfolgt, die Effizienz bei der Ressourcennutzung zu erhöhen. Dazu werden Applikationen und Daten auf zentralen Servern gebündelt. Wie verhält es sich denn mit dem Transfer der im CAD-Bereich wichtigen 3D-Daten? Verlangsamt sich die Leistung nicht vielleicht sogar?

Christoph Heiden: Speziell für die Übertragung von 3D-Daten stellen Hersteller wie Citrix oder Vmware optimierte Netzwerkprotokolle zur Verfügung, die durch spezielle Komprimierung dafür sorgen, dass 3D-Daten in handlebaren Paketen aufbereitet werden. So wird sichergestellt, dass der CAD-User mit einer zufriedenstellenden Performance in seiner virtuellen Anwendung arbeiten kann. Die Voraussetzung neben diesen optimierten Netzwerkprotokollen ist natürlich das Vorhandensein von angemessenen Bandbreiten im Netzwerk. Abhängig vom jeweiligen Anwendungsfall und der Konfiguration der eingesetzten Software unterscheiden sich die angebotenen Lösungen bezüglich der Bandbreitennutzung. Von dieser hängt es letztlich ab, welche im konkreten Fall besser für Zugriffe per WAN geeignet ist.

Zurück zur Effizienz der Ressourcennutzung. Müssten auf einem zentralen Server nicht überproportionale Rechenkapazitäten bereit gestellt werden, um die erforderliche Anwendungsperformance zu gewährleisten?

Christoph Heiden: Selbstverständlich müssen die Server mit ausreichend Ressourcen ausgestattet sein, jedoch ergeben sich durch die Zentralisierung der Anwendung verschiedene Vorteile: Nutzt man ausschließlich die Rechenleistung auf lokalen Workstations, führen Lastspitzen in aller Regel zu Performanceeinbußen. Durch die Verlagerung der Rechenleistung von lokalen Workstations hin zu einem Anwendungsserver, können Ressourcen dynamisch nach Bedarf zugewiesen werden. Somit ist die Wahrscheinlichkeit von Performance-Einbußen, die durch einzelne Anwender verursacht werden, deutlich geringer. Ein weiterer Vorteil der Virtualisierung sind Synergieeffekte, wie zum Beispiel eine höhere Nutzungseffizienz, die sich aus der Konsolidierung der bislang lokalen Ressourcen ergeben. Darüber hinaus kommt die zentrale Bereitstelllung von 3D-Anwendungen auch der Netzwerkauslastung zugute. So werden statt vollständigen 3D-Modellen lediglich die benötigten 3D-Grafikbefehle über das Netzwerk an den entsprechenden Client zur Aufbereitung und Anzeige gesendet. Die Verarbeitung und Speicherung der Daten erfolgt somit stets innerhalb der zentralen Infrastruktur.



Im Bild: Christoph Heiden, Serviceleiter für Applikationen für das Product Lifecycle Management bei Cenit

Virtualisierung erfordert die zentrale Bereitstellung von Daten und Anwendungen. Das lässt unweigerlich an die vielzitierte Cloud denken. Eines der Risiken von Clouds, speziell für Unternehmen, ist die Sicherheit von Daten.

Christoph Heiden: In unserem Virtualisierungskonzept gehen wir von der Nutzung einer sogenannten Private Cloud aus. Dies bedeutet, dass die zentralen Server in das unternehmenseigene Netzwerk integriert sind. Ein großer Vorteil dabei ist, dass sensible Geschäftsdaten im eigenen Netzwerk bleiben. Dadurch, dass sich die Daten zentral, das heißt vollständig in der unternehmenseigenen Cloud befinden, aber von außen zum Beispiel durch VPN-Verbindungen genutzt werden können, entfällt die Notwendigkeit, sie lokal bereit zu halten. Das Risiko von unbefugten Zugriffen, wie zum Beispiel bei Geräteverlust, wird somit minimiert. Der Sicherheit und dem Datenschutz kommt zudem die Tatsache zugute, dass die Informationen als verschlüsselte Grafikdaten transferiert werden. Dies wiederum erschwert die Nutzbarkeit der wesentlichen Inhalte durch unberechtigte Dritte.

Bringt denn die Virtualisierung neben den von Ihnen angesprochenen Vorteilen auch Nutzen für die R&D Fachbereiche mit sich?

Christoph Heiden: Ganz klar. Sind die Unternehmen bereit, ihre zentrale Serverstruktur redundant aufzubauen, können sie eine sehr hohe, clientunabhängige Verfügbarkeit der Anwendung erreichen. Bei dem Austausch oder der Erweiterung von Endgeräten können diese zudem schnell und einfach der vorhandenen Struktur hinzugefügt und ebenso wieder von dieser entfernt werden. Als weiteren Nutzenpunkt sehe ich die mit der Zentralisierung einhergehende, vereinfachte Administration. Diese wirkt sich neben der höheren Betriebssicherheit auch positiv auf die Kosten der Product Lifecycle Management-Infrastruktur aus.

Was sollten Unternehmen bei dem Aufbau einer zentralisierten Infrastruktur für die Virtualisierung von Anwendungen beachten?

Christoph Heiden: Für den Einstieg lässt sich der Aufbau einer zentralisierten Anwendungsvirtualisierung bereits mit einem Server realisieren. Hierbei können gewöhnliche Clients als Thin-Clients eingesetzt werden. Es besteht also keine dringende Notwendigkeit von zusätzlichen Anschaffungen bei den Endgeräten. Führende Virtualisierungstechnologien können dabei weitgehend unabhängig vom bestehenden Betriebssystem eingesetzt werden. Ein Beispiel: VMware unterstützt heterogene Systemlandschaften. Auch Citrix baut auf verschiedene Plattformen – teilweise sind dabei Kombinationen mit Vmware Produkten möglich. Universelle Clientsoftware steht für beide Lösungen zur Verfügung.


Das könnte Sie auch interessieren:

Zuken hat seit kurzem die Lösung E³.WiringSystemLab im Programm. Die Software ist auf die Optimierung komplexer Kabelbaumdesigns auf Basis von Schaltplänen aus heterogenen Quellen ausgelegt.‣ weiterlesen

Im Rahmen des Zukunftsprojekts Industrie 4.0 werden Manufacturing Execution Systems oft grundlegend in Frage gestellt - und trotzdem ist bisher keine alternative Lösung verfügbar. Zwar hält der Markt bereits innovative Plattform-Ansätze bereit, aber sind die schon produktiv nutzbar? Ein kritischer Blick in die Zukunft soll ein Gespür für die Entwicklungen der kommenden Jahre vermitteln.‣ weiterlesen

Hersteller von Komponenten für Automationsnetzwerke müssen ihre Produkte auf Industrie-4.0-Anwendungen vorbereiten. Nur dann können sie Anwender beim Aufbau leistungsstarker und zukunftssicherer Kommunikationsinfrastrukturen unterstützen. Die neuen Funktionen von Netzwerkkomponenten geben ein klares Bild, in welche Richtung dieser Weg führt.‣ weiterlesen

In vielen Branchen müssen Manufacturing Execution Systeme spezifische Herausforderungen besonders gut bewältigen. Soll ein System etwa die Montage abbilden, muss es meist eine äußerst leistungsstarke Planung des Personalseinsatzes unterstützen.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige