Anzeige
Anzeige
Anzeige
Beitrag drucken

Business Continuity

Hochverfügbare Daten auch im Katastrophenfall

Produzierende Unternehmen haben hohe Anforderungen an die Sicherheit ihrer Systeme: Hohe Verfügbarkeit und Redundanz sind unabdingbare Voraussetzungen, um den IT-Betrieb selbst im Katastrophenfall sicherzustellen. Dem trägt die Gelita AG mit Hauptsitz im baden-württembergischen Eberbach Rechnung. Denn aufgrund der Nähe zum Neckar besteht für das Verwaltungsgebäude Hochwassergefahr und damit ein permanentes Risiko für geschäftskritische Anwendungen.

Bild: Gelita AG

Jährlich produziert die Gelita Gruppe mit ihren 2.600 Mitarbeitern rund 80.000 Tonnen Gelatine für Anwendungen im Lebensmittel-, Foto- und Pharmabereich. Damit deckt sie rund 27 Prozent der Nachfrage auf dem Weltmarkt ab und erwirtschaft insgesamt mehr als 400 Millionen Euro Umsatz. Das Unternehmen nutzte bisher eine Infrastruktur auf Basis von zwei Speichersystemen mit einer Kapazität von jeweils 4,5 Terabyte. Hinzu kamen Storage Area Network-Komponenten (SAN), eine softwarebasierende Datenspiegelung sowie zwei Tape Systeme für die Datensicherung.

Die vorhandene Speicherinfrastruktur konnte die Anforderungen hinsichtlich Kapazität und Funktionalität nur noch eingeschränkt erfüllen. Das Datensicherungsvolumen der Tape Systeme lag bei lediglich zehn Terabyte und stellte damit einen Engpass dar. Die geplante Servervirtualisierung erforderte zusätzliche Speicherressourcen, welche mit der vorhandenen Infrastruktur nicht mehr bereitgestellt werden konnten. Ein weiterer Grund für die Suche nach einer neue Speicherlösung war, dass die Tape Systeme ihre ‚End Of Life‘-Phase erreicht hatten: Weder eine Aufrüstung noch der weitere Betrieb waren wirtschaftlich sinnvoll. Die Fortsetzung der bestehenden Disaster Recovery Lösung auf Basis einer Softwarespiegelung wäre zwar möglich gewesen, hätte jedoch einen erheblich höheren Aufwand für Überwachung und Pflege erfordert.

Zielsetzung und Konzept

Ein unterbrechungsfreier Betrieb bei geplanten, aber auch plötzlichen Ausfällen sowie die Integration in das vorhandene Sicherungskonzept waren die wichtigsten Forderungen des Unternehmens. Diese mussten bei der Konzeption der neuen Speicherlösung berücksichtigt werden. Gleichzeitig versprach sich der Gelatinehersteller bei einer Neuinvestition eine Reduzierung der Wartungs- und Betriebskosten – auch bei zukünftigen Kapazitätserweiterungen. Zur Umsetzung der Zielvorgaben empfahl die Profi Engineering Systems AG ein hardwarebasierendes Hochverfügbarkeitskonzept mit einem möglichst geringen Aufwand für die Systemadministratoren. Zusatzfunktionen wie Snapshots und Deduplizierung sollen diesen Anforderungen Rechnung tragen. Es wurde sich für die Ablösung der vorhandenen Storage Tek-Speichersysteme durch zwei IBM-Plattensysteme mit jeweils 10 Terabyte Gesamtkapazität entschieden. Neben einer deutlich höheren Leistung zeichnen sich diese vor allem durch eine bessere Skalierbarkeit aus. Ein wichtiges Kriterium für die Entscheidung zu Gunsten der vorgestellten Lösung war die Möglichkeit, unterschiedliche Laufwerkstechnologien, in diesem Fall Fibre Channel und Sata, in einem System zu verwenden.

80.000 Tonnen Gelatine produziert Gelita im Jahr. Daten, die unmittelbar für das Tagesgeschäft benötigt werden, sichert das Unternehmen hochverfügbar auf Fibre Channel-Laufwerken ab. Bild: Gelita AG

System und Funktionen

Diese Vorgehensweise ermöglicht eine wirtschaftlichere Nutzung der Gesamtkapazität unter ‚Information Lifecycle‘-Gesichtspunkten: Daten, die unmittelbar für das Tagesgeschäft benötigt werden, sind auf schnellen Fibre-Channel-Laufwerken abgelegt. Dies sind unter anderem Daten für die Personalverwaltung, Domino und DB2. Daten für die Datensicherung beziehungseise für das Langzeitarchiv werden auf Sata-Laufwerken abgelegt, bevor sie über die neuen LTO4-Laufwerke gesichert werden. Unabhängig davon werden mit der Funktion Deduplizierung Daten, die bereits auf den Speichersystemen vorhanden sind, nicht mehrfach geschrieben und belegen dadurch keinen zusätzlichen Speicherplatz.

Die Neuinstallation umfasste zwei IBM System Storage DS Plattenspeichersysteme, zwei IBM System Storage nSeries Gateways, vier IBM System Storage SAN Switches sowie zwei IBM System Storage Tape Libraries. Die Datenspiegelung zwischen den Speichersystemen wird durch die Metro-Cluster-Funktion zweier N-Series-Gateways durchgeführt, die den Plattensystemen vorgeschaltet sind. Die Gateways haben Zugriff auf alle Festplatten und replizieren selbstständig die Daten vom primären zum sekundären Plattensystem, das sich in zwei Kilometer Entfernung am zweiten Firmenstandort befindet. Somit sind Datenkonsistenz und -verfügbarkeit sichergestellt. „Der Metro-Cluster spiegelt nun die Daten der Speichereinheiten beider Rechenzentren. Das Umschalten zwischen den Spiegeln findet automatisch statt“, erklärt Dr. Andreas Neuper, Leiter Projekte IT-System-Infrastruktur bei der Profi AG.

Stufenweise Umsetzung

Die Umsetzung der Lösung erfolgte stufenweise, um eine Unterbrechung des laufenden Betriebs zu vermeiden. Damit Gelita nach erfolgter Datenmigration die neue Infrastruktur selbstständig administrieren kann, gab es zusätzlich eine Schulung. Die eingesetzte Lösung dient als Hochverfügbarkeitskonzept für den Fall von Betriebsstörungen. Darüber hinaus legt sie durch eine zukunftssichere Infrastruktur die Basis für ein Unternehmen, das auf Wachstum ausgerichtet sind. Die Lösung arbeitet durch geringeren Stromverbrauch sehr wirtschaftlich, gleichzeitig entstehen so reduzierte Emissionen im Sinne einer ‚Green-IT‘.


Das könnte Sie auch interessieren:

ERP-Lösungen spielen eine zentrale Rolle in den Unternehmen und das tun sie gut. So die Erfahrungen von 2.089 Anwenderunternehmen aus dem deutschsprachigen Raum, die im Zuge der aktuellen Studie ‘ERP in der Praxis‘ durch die Analysten der Trovarit mittlerweile zum 10. Mal befragt wurden. Die Studie weist Zufriedenheitsbewertungen von mehr als 40 ERP-Lösungen aus.‣ weiterlesen

Insbesondere Unternehmen der Fahrzeugbau- und Elektroindustrie besitzen großes Potenzial zur Reduzierung des Energieverbrauchs in ihrer Produktion. Daher haben die Technische Hochschule Mittelhessen (THM) und Limtronik als Mitglieder des SEF Smart Electronic Factory e.V. einen Use-Case entwickelt, in dem Wartungsintervalle eines energieintensiven Reflow-Ofen sensorgestützt optimiert werden.‣ weiterlesen

Edge Computing ist für die industrielle IT grundsätzlich nichts Neues. Seit Jahrzehnten werden Geräte und Monitore in der Produktion weit entfernt von zentralen Rechenzentren betrieben. Das aktuelle Revival des Begriffes ist auch technologischen Innovationen geschuldet, die Latenzen auf wenige Millisekunden senken.‣ weiterlesen

Auch durch Bewegungen wie Fridays for Future und extreme Wetterphänomene befassen sich Unternehmen intensiver mit dem ökologischen Wandel. Doch während Energieeffizienzprojekte bereits häufig betrieben werden, stehen die Möglichkeiten zum Materialsparen eher selten im Fokus. Dieser Artikel liefert Impulse entlang der Wertschöpfungskette, Ressourcen erst gar nicht zu verbrauchen.‣ weiterlesen

Mit Microsoft Dynamics 365 Online und einer CRM-Branchenlösung von Orbis hat Triflex den Grundstein zur Harmonisierung der IT-Landschaft und für durchgängige Datenflüsse und Prozesse im Vertrieb und im Marketing gelegt. Datenverwaltung in der Cloud schafft jetzt die Transparenz für effizienteren Vertrieb und zum Heben neuen Absatzpotenzials.‣ weiterlesen

Wenn Unternehmen Digitalisierungsprojekte angehen, tun sie dies oft mit einem externen Partner. Die Frage ist nur mit Welchem? IFS hat in einer Studie ermittelt, welche Faktoren bei der Auswahl eine Rolle spielen.‣ weiterlesen

Am Karlsruher Institut für Technologie (KIT) wird im neuen Forschungsbereich 'Nachhaltige Produktion' erarbeitet, wie Unternehmen ihre meist noch linearen Fertigungsprozesse in Richtung einer Kreislaufwirtschaft entwickeln können. Erste Projekte laufen bereits.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige