Anzeige
Anzeige
Anzeige
Anzeige
Beitrag drucken

Interview

"Sensible Geschäftsdaten bleiben im eigenen Netzwerk"

Wenn es darum geht, ein effizientes IT-Umfeld für Engineering-Applikationen einzurichten, kann eine Infrastruktur mit Einzelworkstations schnell an Grenzen stoßen. Das Stichwort in diesem Zusammenhang heißt Virtualisierung. Nachdem Virtualisierung im Bereich der kaufmännischen IT bereits gängig ist, bieten Hersteller wie Citrix und VMware Lösungen für Entwicklungsumgebungen an. Welche Vorteile aus dieser Art des Systembetriebs erwachsen können, erläutert Christoph Heiden, Serviceleiter für Applikationen für das Product Lifecycle Management bei Cenit, im Interview.

Bei der Nutzung einer sogenannten Private Cloud sind die zentralen Server in das unternehmenseigene Netzwerk integriert. Sensible Geschäftsdaten bleiben im eigenen Netzwerk. Bild: Cenit AG

Herr Heiden, mit der Virtualisierung wird das Ziel verfolgt, die Effizienz bei der Ressourcennutzung zu erhöhen. Dazu werden Applikationen und Daten auf zentralen Servern gebündelt. Wie verhält es sich denn mit dem Transfer der im CAD-Bereich wichtigen 3D-Daten? Verlangsamt sich die Leistung nicht vielleicht sogar?

Christoph Heiden: Speziell für die Übertragung von 3D-Daten stellen Hersteller wie Citrix oder Vmware optimierte Netzwerkprotokolle zur Verfügung, die durch spezielle Komprimierung dafür sorgen, dass 3D-Daten in handlebaren Paketen aufbereitet werden. So wird sichergestellt, dass der CAD-User mit einer zufriedenstellenden Performance in seiner virtuellen Anwendung arbeiten kann. Die Voraussetzung neben diesen optimierten Netzwerkprotokollen ist natürlich das Vorhandensein von angemessenen Bandbreiten im Netzwerk. Abhängig vom jeweiligen Anwendungsfall und der Konfiguration der eingesetzten Software unterscheiden sich die angebotenen Lösungen bezüglich der Bandbreitennutzung. Von dieser hängt es letztlich ab, welche im konkreten Fall besser für Zugriffe per WAN geeignet ist.

Zurück zur Effizienz der Ressourcennutzung. Müssten auf einem zentralen Server nicht überproportionale Rechenkapazitäten bereit gestellt werden, um die erforderliche Anwendungsperformance zu gewährleisten?

Christoph Heiden: Selbstverständlich müssen die Server mit ausreichend Ressourcen ausgestattet sein, jedoch ergeben sich durch die Zentralisierung der Anwendung verschiedene Vorteile: Nutzt man ausschließlich die Rechenleistung auf lokalen Workstations, führen Lastspitzen in aller Regel zu Performanceeinbußen. Durch die Verlagerung der Rechenleistung von lokalen Workstations hin zu einem Anwendungsserver, können Ressourcen dynamisch nach Bedarf zugewiesen werden. Somit ist die Wahrscheinlichkeit von Performance-Einbußen, die durch einzelne Anwender verursacht werden, deutlich geringer. Ein weiterer Vorteil der Virtualisierung sind Synergieeffekte, wie zum Beispiel eine höhere Nutzungseffizienz, die sich aus der Konsolidierung der bislang lokalen Ressourcen ergeben. Darüber hinaus kommt die zentrale Bereitstelllung von 3D-Anwendungen auch der Netzwerkauslastung zugute. So werden statt vollständigen 3D-Modellen lediglich die benötigten 3D-Grafikbefehle über das Netzwerk an den entsprechenden Client zur Aufbereitung und Anzeige gesendet. Die Verarbeitung und Speicherung der Daten erfolgt somit stets innerhalb der zentralen Infrastruktur.



Im Bild: Christoph Heiden, Serviceleiter für Applikationen für das Product Lifecycle Management bei Cenit

Virtualisierung erfordert die zentrale Bereitstellung von Daten und Anwendungen. Das lässt unweigerlich an die vielzitierte Cloud denken. Eines der Risiken von Clouds, speziell für Unternehmen, ist die Sicherheit von Daten.

Christoph Heiden: In unserem Virtualisierungskonzept gehen wir von der Nutzung einer sogenannten Private Cloud aus. Dies bedeutet, dass die zentralen Server in das unternehmenseigene Netzwerk integriert sind. Ein großer Vorteil dabei ist, dass sensible Geschäftsdaten im eigenen Netzwerk bleiben. Dadurch, dass sich die Daten zentral, das heißt vollständig in der unternehmenseigenen Cloud befinden, aber von außen zum Beispiel durch VPN-Verbindungen genutzt werden können, entfällt die Notwendigkeit, sie lokal bereit zu halten. Das Risiko von unbefugten Zugriffen, wie zum Beispiel bei Geräteverlust, wird somit minimiert. Der Sicherheit und dem Datenschutz kommt zudem die Tatsache zugute, dass die Informationen als verschlüsselte Grafikdaten transferiert werden. Dies wiederum erschwert die Nutzbarkeit der wesentlichen Inhalte durch unberechtigte Dritte.

Bringt denn die Virtualisierung neben den von Ihnen angesprochenen Vorteilen auch Nutzen für die R&D Fachbereiche mit sich?

Christoph Heiden: Ganz klar. Sind die Unternehmen bereit, ihre zentrale Serverstruktur redundant aufzubauen, können sie eine sehr hohe, clientunabhängige Verfügbarkeit der Anwendung erreichen. Bei dem Austausch oder der Erweiterung von Endgeräten können diese zudem schnell und einfach der vorhandenen Struktur hinzugefügt und ebenso wieder von dieser entfernt werden. Als weiteren Nutzenpunkt sehe ich die mit der Zentralisierung einhergehende, vereinfachte Administration. Diese wirkt sich neben der höheren Betriebssicherheit auch positiv auf die Kosten der Product Lifecycle Management-Infrastruktur aus.

Was sollten Unternehmen bei dem Aufbau einer zentralisierten Infrastruktur für die Virtualisierung von Anwendungen beachten?

Christoph Heiden: Für den Einstieg lässt sich der Aufbau einer zentralisierten Anwendungsvirtualisierung bereits mit einem Server realisieren. Hierbei können gewöhnliche Clients als Thin-Clients eingesetzt werden. Es besteht also keine dringende Notwendigkeit von zusätzlichen Anschaffungen bei den Endgeräten. Führende Virtualisierungstechnologien können dabei weitgehend unabhängig vom bestehenden Betriebssystem eingesetzt werden. Ein Beispiel: VMware unterstützt heterogene Systemlandschaften. Auch Citrix baut auf verschiedene Plattformen – teilweise sind dabei Kombinationen mit Vmware Produkten möglich. Universelle Clientsoftware steht für beide Lösungen zur Verfügung.


Das könnte Sie auch interessieren:

Worst Case bei einer Sonderanfertigung ist es, wenn der Erlös am Ende die Produktionskosten nicht deckt. Die Rentabilitätsberechnung muss daher gerade im Maschinen- und Anlagenbau viele verschiedene Faktoren berücksichtigen. Integrierte Prozesse und Systeme sorgen dafür, dass die Angebote trotzdem schnell an die Interessenten verschickt werden.‣ weiterlesen

Insbesondere Automotive-Zulieferer und Logistikdienstleister nutzen seit Jahren das JIS-System von Nemetris, um Anforderungen der OEMs umzusetzen. Jetzt bietet das Unternehmen aus dem schwäbischen Bisingen seine Technologie auch als Software-as-a-Service-Modell an.‣ weiterlesen

Künstliche Intelligenz gilt als Schlüsseltechnologie. Doch durch den alleinigen Einsatz lösen sich nicht alle Probleme automatisch in Luft auf. Denn der Algorithmus ist nur so intelligent, wie es die Daten, aus denen er lernt, zulassen. Am Ende ist nicht der Einsatz der Technologie, sondern der Prozess entscheidend.‣ weiterlesen

Transition Technologies PSC eröffnet als Spezialist im Bereich der digitalen Transformation einen Firmensitz in Deutschland. Die Leitung übernimmt Stefan Zeiler.‣ weiterlesen

Studierende und Auszubildende im Bereich Werkzeug- und Formenbau lernen mit einem Kartenspiel spielerisch die Grundlagen ihres Fachs.‣ weiterlesen

Aus verschiedenen Gründen werden Fertigungen komplexer. Das strahlt auf die Planungssysteme ab, die dies flexibel auffangen sollen. Aber auf welche Funktionen kommt es dabei an - und wann stößt ein Standardsystem an Grenzen?‣ weiterlesen

NetApp hat die Übernahme des französischen Managed-Platform-Anbieters Data Mechanics bekanntgegeben.‣ weiterlesen

Im Zuge einer Partnerschaft zwischen Senseye und PTC soll die Predictive Maintenance-Lösung von Senseye über die PTC IIoT-Plattform ThingWorx zur Verfügung stehen.‣ weiterlesen

Der deutsche Distributor Acceed bietet jetzt mit der KI-Plattform NRU-120S mit integriertem Jetson-AGX-Xavier-Modul von Nvidia eine vergleichsweise günstige Lösung für KI-getriebene Edge-Computing-Anwendungen. Das kompakt ausgelegte Gerät besitzt ein industriegerecht robustes, lüfterloses Design und soll deutlich energieeffizienter rechnen als ein Mainstream-GPU-PC.‣ weiterlesen

Die Covid-19-Pandemie hat gezeigt, dass der Datenaustausch in der Medizin oft noch viel zu schleppend vonstattengeht. Mehrere Projekte, die im Rahmen des 'Innovationswettbewerb Künstliche Intelligenz' (KI-Innovationswettbewerb) des BMWi gefördert werden, setzen an diesem Problem an - und entwickeln innovative digitale Infrastrukturen für medizinische Daten.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige