Anzeige
Anzeige
Anzeige
Beitrag drucken

Interview

"Sensible Geschäftsdaten bleiben im eigenen Netzwerk"

Wenn es darum geht, ein effizientes IT-Umfeld für Engineering-Applikationen einzurichten, kann eine Infrastruktur mit Einzelworkstations schnell an Grenzen stoßen. Das Stichwort in diesem Zusammenhang heißt Virtualisierung. Nachdem Virtualisierung im Bereich der kaufmännischen IT bereits gängig ist, bieten Hersteller wie Citrix und VMware Lösungen für Entwicklungsumgebungen an. Welche Vorteile aus dieser Art des Systembetriebs erwachsen können, erläutert Christoph Heiden, Serviceleiter für Applikationen für das Product Lifecycle Management bei Cenit, im Interview.

Bei der Nutzung einer sogenannten Private Cloud sind die zentralen Server in das unternehmenseigene Netzwerk integriert. Sensible Geschäftsdaten bleiben im eigenen Netzwerk. Bild: Cenit AG

Herr Heiden, mit der Virtualisierung wird das Ziel verfolgt, die Effizienz bei der Ressourcennutzung zu erhöhen. Dazu werden Applikationen und Daten auf zentralen Servern gebündelt. Wie verhält es sich denn mit dem Transfer der im CAD-Bereich wichtigen 3D-Daten? Verlangsamt sich die Leistung nicht vielleicht sogar?

Christoph Heiden: Speziell für die Übertragung von 3D-Daten stellen Hersteller wie Citrix oder Vmware optimierte Netzwerkprotokolle zur Verfügung, die durch spezielle Komprimierung dafür sorgen, dass 3D-Daten in handlebaren Paketen aufbereitet werden. So wird sichergestellt, dass der CAD-User mit einer zufriedenstellenden Performance in seiner virtuellen Anwendung arbeiten kann. Die Voraussetzung neben diesen optimierten Netzwerkprotokollen ist natürlich das Vorhandensein von angemessenen Bandbreiten im Netzwerk. Abhängig vom jeweiligen Anwendungsfall und der Konfiguration der eingesetzten Software unterscheiden sich die angebotenen Lösungen bezüglich der Bandbreitennutzung. Von dieser hängt es letztlich ab, welche im konkreten Fall besser für Zugriffe per WAN geeignet ist.

Zurück zur Effizienz der Ressourcennutzung. Müssten auf einem zentralen Server nicht überproportionale Rechenkapazitäten bereit gestellt werden, um die erforderliche Anwendungsperformance zu gewährleisten?

Christoph Heiden: Selbstverständlich müssen die Server mit ausreichend Ressourcen ausgestattet sein, jedoch ergeben sich durch die Zentralisierung der Anwendung verschiedene Vorteile: Nutzt man ausschließlich die Rechenleistung auf lokalen Workstations, führen Lastspitzen in aller Regel zu Performanceeinbußen. Durch die Verlagerung der Rechenleistung von lokalen Workstations hin zu einem Anwendungsserver, können Ressourcen dynamisch nach Bedarf zugewiesen werden. Somit ist die Wahrscheinlichkeit von Performance-Einbußen, die durch einzelne Anwender verursacht werden, deutlich geringer. Ein weiterer Vorteil der Virtualisierung sind Synergieeffekte, wie zum Beispiel eine höhere Nutzungseffizienz, die sich aus der Konsolidierung der bislang lokalen Ressourcen ergeben. Darüber hinaus kommt die zentrale Bereitstelllung von 3D-Anwendungen auch der Netzwerkauslastung zugute. So werden statt vollständigen 3D-Modellen lediglich die benötigten 3D-Grafikbefehle über das Netzwerk an den entsprechenden Client zur Aufbereitung und Anzeige gesendet. Die Verarbeitung und Speicherung der Daten erfolgt somit stets innerhalb der zentralen Infrastruktur.



Im Bild: Christoph Heiden, Serviceleiter für Applikationen für das Product Lifecycle Management bei Cenit

Virtualisierung erfordert die zentrale Bereitstellung von Daten und Anwendungen. Das lässt unweigerlich an die vielzitierte Cloud denken. Eines der Risiken von Clouds, speziell für Unternehmen, ist die Sicherheit von Daten.

Christoph Heiden: In unserem Virtualisierungskonzept gehen wir von der Nutzung einer sogenannten Private Cloud aus. Dies bedeutet, dass die zentralen Server in das unternehmenseigene Netzwerk integriert sind. Ein großer Vorteil dabei ist, dass sensible Geschäftsdaten im eigenen Netzwerk bleiben. Dadurch, dass sich die Daten zentral, das heißt vollständig in der unternehmenseigenen Cloud befinden, aber von außen zum Beispiel durch VPN-Verbindungen genutzt werden können, entfällt die Notwendigkeit, sie lokal bereit zu halten. Das Risiko von unbefugten Zugriffen, wie zum Beispiel bei Geräteverlust, wird somit minimiert. Der Sicherheit und dem Datenschutz kommt zudem die Tatsache zugute, dass die Informationen als verschlüsselte Grafikdaten transferiert werden. Dies wiederum erschwert die Nutzbarkeit der wesentlichen Inhalte durch unberechtigte Dritte.

Bringt denn die Virtualisierung neben den von Ihnen angesprochenen Vorteilen auch Nutzen für die R&D Fachbereiche mit sich?

Christoph Heiden: Ganz klar. Sind die Unternehmen bereit, ihre zentrale Serverstruktur redundant aufzubauen, können sie eine sehr hohe, clientunabhängige Verfügbarkeit der Anwendung erreichen. Bei dem Austausch oder der Erweiterung von Endgeräten können diese zudem schnell und einfach der vorhandenen Struktur hinzugefügt und ebenso wieder von dieser entfernt werden. Als weiteren Nutzenpunkt sehe ich die mit der Zentralisierung einhergehende, vereinfachte Administration. Diese wirkt sich neben der höheren Betriebssicherheit auch positiv auf die Kosten der Product Lifecycle Management-Infrastruktur aus.

Was sollten Unternehmen bei dem Aufbau einer zentralisierten Infrastruktur für die Virtualisierung von Anwendungen beachten?

Christoph Heiden: Für den Einstieg lässt sich der Aufbau einer zentralisierten Anwendungsvirtualisierung bereits mit einem Server realisieren. Hierbei können gewöhnliche Clients als Thin-Clients eingesetzt werden. Es besteht also keine dringende Notwendigkeit von zusätzlichen Anschaffungen bei den Endgeräten. Führende Virtualisierungstechnologien können dabei weitgehend unabhängig vom bestehenden Betriebssystem eingesetzt werden. Ein Beispiel: VMware unterstützt heterogene Systemlandschaften. Auch Citrix baut auf verschiedene Plattformen – teilweise sind dabei Kombinationen mit Vmware Produkten möglich. Universelle Clientsoftware steht für beide Lösungen zur Verfügung.


Das könnte Sie auch interessieren:

Bei Hackerangriffen sind die Mitarbeiter und ihre schwachen Passwörter nach wie vor Angriffspunkt Nummer Eins. Doch wie sieht ein starkes Passwort heute aus, und wie können Firmen herbeiführen, dass nur solche vergeben werden?‣ weiterlesen

Immer mehr Produzenten entwickeln zur Zeit hochvernetzte Software in Eigenregie. Gerade bei Microservice-Projekten bringen verfügbare APIs die Vorhaben schneller als früher voran. Doch der Umgang mit ihnen erfordert Strategie.‣ weiterlesen

Seit kurzem ist Version 7.0 der Startup Tools von Inneo verfügbar. Die Lösung soll Anwenderunternehmen die einheitliche Arbeit mit Engineering-Software von PTC erleichtern.‣ weiterlesen

Condition-Monitoring-Systeme werden meist nur an wenigen hochkritischen Stellen installiert, weil sie noch immer kostspielig und kompliziert einzurichten sind. Mit den BCM-Sensoren von Balluf sollen sich auch normale Komponenten wirtschaftlich überwachen lassen.‣ weiterlesen

Der Anbieter von Wearables und AR-Lösungen Ubimax hat ein Release der AR-Softwareplattform Frontline angekündigt. Das kürzlich von Teamviewer übernommene Unternehmen hat in Frontline 3.0 eine Zwei-Faktor-Authentifizierung (2FA) sowie ein erweitertes Identitäts- und Zugriffsmanagement einschließlich Single-Sign-On (SSO) über das grundlegende Nutzerverwaltungssystem des Kunden eingeführt.‣ weiterlesen

Viele Anwendungen aus dem Industrie-4.0-Spektrum basieren auf der Verfügbarkeit von Produktdaten. Um diese strukturiert bereitzustellen, helfen Werkzeuge zur Datenklassifizierung wie die neue NovaDB im Zusammenspiel. Zusammen mit Anwendungspaketen können etwa elektronische Produktkataloge erstellt und gepflegt werden.‣ weiterlesen

Die MTU Maintenance Berlin-Brandenburg GmbH setzt zur Auswertung von Produktionsdaten selbstentwickelte Analysetools ein. Weil diese nicht den vollen Funktionsumfang moderner BI-Lösungen bieten, wurden in einem multiperspektiven Auswahlverfahren geeignete Softwareprodukte identifiziert. Dieses sollte sicherstellen, dass die gewählten Programme die Analyse- und Reportingprozesse bestmöglich unterstützen und im Unternehmen gut angenommen werden.‣ weiterlesen

KI-basierte Systeme und Maschinen werden immer autonomer, selbstständiger und intelligenter. Ob und wie ist es zu schaffen, dass sie auf Dauer menschlichen Werten und Regeln folgen? Dr. Kurt D. Bettenhausen, Vorsitzender des interdisziplinären Gremiums Digitale Transformation im VDI und Vorstandsmitglied der VDI/VDE-GMA, spricht im zehnten Teil unserer Serie Autonome Systeme mit dem VDI.‣ weiterlesen

Nachdem die PSI Software AG bereits bekanntgegeben hatte, das Finanzvorstand Harald Fuchs das Unternehmen im nächsten Jahr verlässt, steht nun fest, dass Gunnar Glöckner den Posten ab Juli 2021 übernehmen wird.‣ weiterlesen

Zurzeit liegt weder ein fest umrissenes Berufsbild noch klar formulierte Anforderungen an Projektingenieure vor, die in internationalen Projekten eingebunden sind.‣ weiterlesen

Der Getriebehersteller Neugart hat 18 Baureihen für Planetengetriebe mit vier Millionen möglichen Varianten im Programm. Trotz der Vielfalt kann der Hersteller seine Produkte innerhalb von 24 Stunden ausliefern. Denn Neugart hat den Aufwand für Konstruktion und Datenverwaltung durch ein regelbasiertes Variantenmanagement komplett automatisiert.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige