Anzeige
Anzeige
Anzeige
Anzeige
Beitrag drucken

Interview

"Sensible Geschäftsdaten bleiben im eigenen Netzwerk"

Wenn es darum geht, ein effizientes IT-Umfeld für Engineering-Applikationen einzurichten, kann eine Infrastruktur mit Einzelworkstations schnell an Grenzen stoßen. Das Stichwort in diesem Zusammenhang heißt Virtualisierung. Nachdem Virtualisierung im Bereich der kaufmännischen IT bereits gängig ist, bieten Hersteller wie Citrix und VMware Lösungen für Entwicklungsumgebungen an. Welche Vorteile aus dieser Art des Systembetriebs erwachsen können, erläutert Christoph Heiden, Serviceleiter für Applikationen für das Product Lifecycle Management bei Cenit, im Interview.

Bei der Nutzung einer sogenannten Private Cloud sind die zentralen Server in das unternehmenseigene Netzwerk integriert. Sensible Geschäftsdaten bleiben im eigenen Netzwerk. Bild: Cenit AG

Herr Heiden, mit der Virtualisierung wird das Ziel verfolgt, die Effizienz bei der Ressourcennutzung zu erhöhen. Dazu werden Applikationen und Daten auf zentralen Servern gebündelt. Wie verhält es sich denn mit dem Transfer der im CAD-Bereich wichtigen 3D-Daten? Verlangsamt sich die Leistung nicht vielleicht sogar?

Christoph Heiden: Speziell für die Übertragung von 3D-Daten stellen Hersteller wie Citrix oder Vmware optimierte Netzwerkprotokolle zur Verfügung, die durch spezielle Komprimierung dafür sorgen, dass 3D-Daten in handlebaren Paketen aufbereitet werden. So wird sichergestellt, dass der CAD-User mit einer zufriedenstellenden Performance in seiner virtuellen Anwendung arbeiten kann. Die Voraussetzung neben diesen optimierten Netzwerkprotokollen ist natürlich das Vorhandensein von angemessenen Bandbreiten im Netzwerk. Abhängig vom jeweiligen Anwendungsfall und der Konfiguration der eingesetzten Software unterscheiden sich die angebotenen Lösungen bezüglich der Bandbreitennutzung. Von dieser hängt es letztlich ab, welche im konkreten Fall besser für Zugriffe per WAN geeignet ist.

Zurück zur Effizienz der Ressourcennutzung. Müssten auf einem zentralen Server nicht überproportionale Rechenkapazitäten bereit gestellt werden, um die erforderliche Anwendungsperformance zu gewährleisten?

Christoph Heiden: Selbstverständlich müssen die Server mit ausreichend Ressourcen ausgestattet sein, jedoch ergeben sich durch die Zentralisierung der Anwendung verschiedene Vorteile: Nutzt man ausschließlich die Rechenleistung auf lokalen Workstations, führen Lastspitzen in aller Regel zu Performanceeinbußen. Durch die Verlagerung der Rechenleistung von lokalen Workstations hin zu einem Anwendungsserver, können Ressourcen dynamisch nach Bedarf zugewiesen werden. Somit ist die Wahrscheinlichkeit von Performance-Einbußen, die durch einzelne Anwender verursacht werden, deutlich geringer. Ein weiterer Vorteil der Virtualisierung sind Synergieeffekte, wie zum Beispiel eine höhere Nutzungseffizienz, die sich aus der Konsolidierung der bislang lokalen Ressourcen ergeben. Darüber hinaus kommt die zentrale Bereitstelllung von 3D-Anwendungen auch der Netzwerkauslastung zugute. So werden statt vollständigen 3D-Modellen lediglich die benötigten 3D-Grafikbefehle über das Netzwerk an den entsprechenden Client zur Aufbereitung und Anzeige gesendet. Die Verarbeitung und Speicherung der Daten erfolgt somit stets innerhalb der zentralen Infrastruktur.



Im Bild: Christoph Heiden, Serviceleiter für Applikationen für das Product Lifecycle Management bei Cenit

Virtualisierung erfordert die zentrale Bereitstellung von Daten und Anwendungen. Das lässt unweigerlich an die vielzitierte Cloud denken. Eines der Risiken von Clouds, speziell für Unternehmen, ist die Sicherheit von Daten.

Christoph Heiden: In unserem Virtualisierungskonzept gehen wir von der Nutzung einer sogenannten Private Cloud aus. Dies bedeutet, dass die zentralen Server in das unternehmenseigene Netzwerk integriert sind. Ein großer Vorteil dabei ist, dass sensible Geschäftsdaten im eigenen Netzwerk bleiben. Dadurch, dass sich die Daten zentral, das heißt vollständig in der unternehmenseigenen Cloud befinden, aber von außen zum Beispiel durch VPN-Verbindungen genutzt werden können, entfällt die Notwendigkeit, sie lokal bereit zu halten. Das Risiko von unbefugten Zugriffen, wie zum Beispiel bei Geräteverlust, wird somit minimiert. Der Sicherheit und dem Datenschutz kommt zudem die Tatsache zugute, dass die Informationen als verschlüsselte Grafikdaten transferiert werden. Dies wiederum erschwert die Nutzbarkeit der wesentlichen Inhalte durch unberechtigte Dritte.

Bringt denn die Virtualisierung neben den von Ihnen angesprochenen Vorteilen auch Nutzen für die R&D Fachbereiche mit sich?

Christoph Heiden: Ganz klar. Sind die Unternehmen bereit, ihre zentrale Serverstruktur redundant aufzubauen, können sie eine sehr hohe, clientunabhängige Verfügbarkeit der Anwendung erreichen. Bei dem Austausch oder der Erweiterung von Endgeräten können diese zudem schnell und einfach der vorhandenen Struktur hinzugefügt und ebenso wieder von dieser entfernt werden. Als weiteren Nutzenpunkt sehe ich die mit der Zentralisierung einhergehende, vereinfachte Administration. Diese wirkt sich neben der höheren Betriebssicherheit auch positiv auf die Kosten der Product Lifecycle Management-Infrastruktur aus.

Was sollten Unternehmen bei dem Aufbau einer zentralisierten Infrastruktur für die Virtualisierung von Anwendungen beachten?

Christoph Heiden: Für den Einstieg lässt sich der Aufbau einer zentralisierten Anwendungsvirtualisierung bereits mit einem Server realisieren. Hierbei können gewöhnliche Clients als Thin-Clients eingesetzt werden. Es besteht also keine dringende Notwendigkeit von zusätzlichen Anschaffungen bei den Endgeräten. Führende Virtualisierungstechnologien können dabei weitgehend unabhängig vom bestehenden Betriebssystem eingesetzt werden. Ein Beispiel: VMware unterstützt heterogene Systemlandschaften. Auch Citrix baut auf verschiedene Plattformen – teilweise sind dabei Kombinationen mit Vmware Produkten möglich. Universelle Clientsoftware steht für beide Lösungen zur Verfügung.

google plus


Das könnte Sie auch interessieren:

Der Fachkräftemangel wird als größte Hürde auf ihrem Weg zur Digitalisierung angesehen und die Ausbildungseinrichtungen stellen sich zunehmend darauf ein. Um den Nachwuchs gezielt auf die Arbeit in der vernetzten Industrie vorzubereiten, hat etwa die Hochschule Dresden eine Industrie-4.0-Modellfabrik aufgebaut.‣ weiterlesen

Oetinger Aluminium probt für den Ernstfall: Angenommen, die IT-Systeme des Unternehmens fallen einem Hackerangriff zum Opfer. Was passiert dann? Es gilt, den Überblick zu behalten und so die Folgen wie Datendiebstahl, Spionage oder den Ausfall von Systemen möglichst gering zu halten – also einfach den Notfallplan zu befolgen. Die Realität ist jedoch eine andere: Wie bei knapp der Hälfte aller Industrieunternehmen in Deutschland wäre auch hier kein Notfallplan zur Hand.1 Ab sofort stellt sich Oetinger diese Fragen nicht mehr, denn die IT-Abteilung hat jetzt eine softwarebasierte Notfallplanung im Einsatz.‣ weiterlesen

Blitz-Umfrage unter Managern und Hochschulprofessoren im VDE: Deutschlands Innovationskraft in Gefahr VDE-CEO Ansgar Hinz: KI-Forschung gleicht Kampf gegen Windmühlen VDE fordert Konzentration auf Mikroelektronik und IT-Security, um wettbewerbsfähig zu bleiben‣ weiterlesen

Mit ihren neuen Open Shuttles will die Knapp AG besonders flexible Organisationen des innerbetrieblichen Warentransportes erlauben. Der Clou an den selbstfahrenden Transportfahrzeugen ist, dass sie Lastspitzen in einem anderen Teil des Lagers durch den selbstständigen Wechsel ihres Einsatzsortes auffangen sollen.‣ weiterlesen

Sind der Online-Shop oder Unternehmensanwendungen nicht erreichbar, könnte dahinter eine DDoS-Attacke stehen. Bei dieser Art von Cyberangriff wird das Ziel durch eine große Anzahl gleichzeitiger Anfragen überlastet. Schützen Sie sich mit einer Kombination von verschiedene Security-Lösungen.‣ weiterlesen

Anzeige
Anzeige
Anzeige