Anzeige
Anzeige
Anzeige
Beitrag drucken

Business Continuity

Hochverfügbare Daten auch im Katastrophenfall

Produzierende Unternehmen haben hohe Anforderungen an die Sicherheit ihrer Systeme: Hohe Verfügbarkeit und Redundanz sind unabdingbare Voraussetzungen, um den IT-Betrieb selbst im Katastrophenfall sicherzustellen. Dem trägt die Gelita AG mit Hauptsitz im baden-württembergischen Eberbach Rechnung. Denn aufgrund der Nähe zum Neckar besteht für das Verwaltungsgebäude Hochwassergefahr und damit ein permanentes Risiko für geschäftskritische Anwendungen.

Bild: Gelita AG

Jährlich produziert die Gelita Gruppe mit ihren 2.600 Mitarbeitern rund 80.000 Tonnen Gelatine für Anwendungen im Lebensmittel-, Foto- und Pharmabereich. Damit deckt sie rund 27 Prozent der Nachfrage auf dem Weltmarkt ab und erwirtschaft insgesamt mehr als 400 Millionen Euro Umsatz. Das Unternehmen nutzte bisher eine Infrastruktur auf Basis von zwei Speichersystemen mit einer Kapazität von jeweils 4,5 Terabyte. Hinzu kamen Storage Area Network-Komponenten (SAN), eine softwarebasierende Datenspiegelung sowie zwei Tape Systeme für die Datensicherung.

Die vorhandene Speicherinfrastruktur konnte die Anforderungen hinsichtlich Kapazität und Funktionalität nur noch eingeschränkt erfüllen. Das Datensicherungsvolumen der Tape Systeme lag bei lediglich zehn Terabyte und stellte damit einen Engpass dar. Die geplante Servervirtualisierung erforderte zusätzliche Speicherressourcen, welche mit der vorhandenen Infrastruktur nicht mehr bereitgestellt werden konnten. Ein weiterer Grund für die Suche nach einer neue Speicherlösung war, dass die Tape Systeme ihre ‚End Of Life‘-Phase erreicht hatten: Weder eine Aufrüstung noch der weitere Betrieb waren wirtschaftlich sinnvoll. Die Fortsetzung der bestehenden Disaster Recovery Lösung auf Basis einer Softwarespiegelung wäre zwar möglich gewesen, hätte jedoch einen erheblich höheren Aufwand für Überwachung und Pflege erfordert.

Zielsetzung und Konzept

Ein unterbrechungsfreier Betrieb bei geplanten, aber auch plötzlichen Ausfällen sowie die Integration in das vorhandene Sicherungskonzept waren die wichtigsten Forderungen des Unternehmens. Diese mussten bei der Konzeption der neuen Speicherlösung berücksichtigt werden. Gleichzeitig versprach sich der Gelatinehersteller bei einer Neuinvestition eine Reduzierung der Wartungs- und Betriebskosten – auch bei zukünftigen Kapazitätserweiterungen. Zur Umsetzung der Zielvorgaben empfahl die Profi Engineering Systems AG ein hardwarebasierendes Hochverfügbarkeitskonzept mit einem möglichst geringen Aufwand für die Systemadministratoren. Zusatzfunktionen wie Snapshots und Deduplizierung sollen diesen Anforderungen Rechnung tragen. Es wurde sich für die Ablösung der vorhandenen Storage Tek-Speichersysteme durch zwei IBM-Plattensysteme mit jeweils 10 Terabyte Gesamtkapazität entschieden. Neben einer deutlich höheren Leistung zeichnen sich diese vor allem durch eine bessere Skalierbarkeit aus. Ein wichtiges Kriterium für die Entscheidung zu Gunsten der vorgestellten Lösung war die Möglichkeit, unterschiedliche Laufwerkstechnologien, in diesem Fall Fibre Channel und Sata, in einem System zu verwenden.

80.000 Tonnen Gelatine produziert Gelita im Jahr. Daten, die unmittelbar für das Tagesgeschäft benötigt werden, sichert das Unternehmen hochverfügbar auf Fibre Channel-Laufwerken ab. Bild: Gelita AG

System und Funktionen

Diese Vorgehensweise ermöglicht eine wirtschaftlichere Nutzung der Gesamtkapazität unter ‚Information Lifecycle‘-Gesichtspunkten: Daten, die unmittelbar für das Tagesgeschäft benötigt werden, sind auf schnellen Fibre-Channel-Laufwerken abgelegt. Dies sind unter anderem Daten für die Personalverwaltung, Domino und DB2. Daten für die Datensicherung beziehungseise für das Langzeitarchiv werden auf Sata-Laufwerken abgelegt, bevor sie über die neuen LTO4-Laufwerke gesichert werden. Unabhängig davon werden mit der Funktion Deduplizierung Daten, die bereits auf den Speichersystemen vorhanden sind, nicht mehrfach geschrieben und belegen dadurch keinen zusätzlichen Speicherplatz.

Die Neuinstallation umfasste zwei IBM System Storage DS Plattenspeichersysteme, zwei IBM System Storage nSeries Gateways, vier IBM System Storage SAN Switches sowie zwei IBM System Storage Tape Libraries. Die Datenspiegelung zwischen den Speichersystemen wird durch die Metro-Cluster-Funktion zweier N-Series-Gateways durchgeführt, die den Plattensystemen vorgeschaltet sind. Die Gateways haben Zugriff auf alle Festplatten und replizieren selbstständig die Daten vom primären zum sekundären Plattensystem, das sich in zwei Kilometer Entfernung am zweiten Firmenstandort befindet. Somit sind Datenkonsistenz und -verfügbarkeit sichergestellt. „Der Metro-Cluster spiegelt nun die Daten der Speichereinheiten beider Rechenzentren. Das Umschalten zwischen den Spiegeln findet automatisch statt“, erklärt Dr. Andreas Neuper, Leiter Projekte IT-System-Infrastruktur bei der Profi AG.

Stufenweise Umsetzung

Die Umsetzung der Lösung erfolgte stufenweise, um eine Unterbrechung des laufenden Betriebs zu vermeiden. Damit Gelita nach erfolgter Datenmigration die neue Infrastruktur selbstständig administrieren kann, gab es zusätzlich eine Schulung. Die eingesetzte Lösung dient als Hochverfügbarkeitskonzept für den Fall von Betriebsstörungen. Darüber hinaus legt sie durch eine zukunftssichere Infrastruktur die Basis für ein Unternehmen, das auf Wachstum ausgerichtet sind. Die Lösung arbeitet durch geringeren Stromverbrauch sehr wirtschaftlich, gleichzeitig entstehen so reduzierte Emissionen im Sinne einer ‚Green-IT‘.


Das könnte Sie auch interessieren:

Wenn der weltweit agierende Softwarehersteller IFS sein größtes Kundentreffen der Welt organisiert, geht es um Strategien, neue Produkte und Releases. So zeigte der ERP-Anbieter mit schwedischen Wurzeln im Oktober in Boston die neue durchgängig gestaltete Benutzerführung, ein neues Schnittstellenpaket und ein gestärktes Portfolio für das Field Service Management - unter anderem durch die Akquisition des Konkurenten Astea. Skateboard-Legende Tony Hawk war auch dabei.‣ weiterlesen

Die Bandbreite an Analyseanwendungen reicht von klassischen Reports und Kennzahlen über Self Service Analytics bis hin zu künstlicher Intelligenz. Bei aller Vielfalt sollte der Zweck nicht aus dem Fokus geraten: transparenter und effizienter fertigen zu können. Zumal immer wieder neue Manufacturing-Analytics-Instrumente entwickelt werden.‣ weiterlesen

Trotz schwieriger Marktbedingungen befindet sich die Fertigungsindustrie weiter im Wachstum. Dies zeigt der Global Growth Index des Softwareanbieters Epicor. Demnach betrug das Wachstum im Vergleich zur Vorjahresbefragung ein Prozent.‣ weiterlesen

Mit der Inititative 'Industrie 4.0' versuchen Wirtschaft, Politik und Wissenschaft seit 2012, die hiesigen industriellen Wertschöpfungsnetzwerke wettbewerbs- und zukunftsfähig zu erhalten. KI und Machine Learning spielen dabei eine immer wichtigere Rolle.‣ weiterlesen

Die Richtlinie VDI/VDE/NAMUR 2658 Blatt 1 'Automatisierungstechnisches Engineering modularer Anlagen in der Prozessindustrie - Allgemeines Konzept und Schnittstellen' wurde im Oktober 2019 in deutsch und englisch veröffentlicht. Darin wird das Engineering der Automatisierungstechnik modularer Anlagen vorwiegend in der Verfahrenstechnik beschrieben.‣ weiterlesen

Rund 100Mrd.€ Schaden ist deutschen Unternehmen im vergangenen Jahr durch kriminelle Attacken entstanden. 75% der für eine Bitkom-Studie befragten Unternehmen waren von einer solchen Attacke betroffen.‣ weiterlesen

Das Forschungsprojekt ReInnovate soll kleinen und mittleren Unternehmen dabei helfen, eigene Forschungskompetenzen zu entwickeln, um daraus neue Arbeits- und Weiterbildungsmodelle zu generieren.‣ weiterlesen

Das Human Machine Interface: selbst programmieren, parametrieren oder etwas dazwischen? Stefan Niermann ist Vertriebsingenieur bei der Inosoft GmbH und berichtet über die Möglichkeiten aktueller Ansätze zum Erstellen eines HMI.‣ weiterlesen

Unternehmen sind sich bewusst, dass es in naher Zukunft zu Krisensituationen für den eigenen Betrieb kommen kann. Laut dem ‘PWC Global Crisis Survey‘, sind viele Unternehmen auf eine solche Situation aber nicht ausreichend vorbereitet.‣ weiterlesen

Der Aufsichtsrat von IBM Deutschland hat Christian Noll zum Geschäftsführer ernannt und ihm die Leitung der Beratungssparte Global Business Services übertragen.‣ weiterlesen

Das Fraunhofer Institut für System- und Innovationsforschung (ISI) hat im Rahmen einer Studie untersucht, wie Plattformen in der Industrie angekommen sind. Demnach nutzt etwa ein Drittel der Betriebe im Verarbeitenden Gewerbe ‘digitale Marktplätze‘.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige