Anzeige
Anzeige
Beitrag drucken

Reporting mit In-Memory-Technologie beschleunigen

Die Globalisierung verändert viele Branchen und Märkte. Um angesichts verkürzter Entscheidungszeiträume trotzdem die richtige Wahl zu fällen, können IT-Systeme entscheidende Informationen bereitstellen. Die In-Memory-Technologie SAP Hana stellt zwar hohe Ansprüche an die IT-Infrastruktur, verspricht jedoch die beschleunigte Bereitstellung hochverdichteter Analysen.



Bild: T-Systems

Je mehr Daten im Unternehmen erhoben werden, umso komplexer wird deren Auswertung. Mit dem Schlagwort ‘Big Data’ wird die Herausforderung beschrieben, mitunter mehrere Millionen Datensätze zu verarbeiten – oder daran zu scheitern. Denn verzögerte Batch-Prozesse, eine Datenaggregation und andere Hindernisse können bewirken, dass Daten erst verzögert und nur unvollständig zur Verfügung stehen. Mit der Erstellung der Reports sind oft ganze Abteilungen tagelang beschäftigt. Technologien für In-Memory-Computing wie SAP Hana versprechen, auch umfangreiche Datenmengen – z.B. für die Produktionsplanung – in Sekunden auswerten zu können.

IT-Infrastruktur überdenken

Die Implementierung dieser Technologie im eigenen Unternehmen bindet allerdings Mitarbeiter und kostet damit Zeit und Geld. Daher setzen viele mittelständische und Großunternehmen auf externe IT-Dienstleister, die Beratungsangebote und Produkte rund um die Plattform des Walldorfer Softwarekonzerns, In-Memory Computing und Big Data anbieten. Für die beschleunigten Auswertungen verbinden In-Memory-Technologien transaktionale Systeme wie Enterprise Resource Planning-Lösungen (ERP) mit analytischen Systemen wie Business Intelligence- Anwendungen (BI). Die Integration zentraler Datenquellen ist dabei eine wichtige Voraussetzung für eine fundierte, auf Echtzeitdaten basierende Geschäftssteuerung.

Über die Felder Geschäftsprozesse, Organisation, Anwendungen, Datenmanagement und Infrastruktur hinweg ist eine umfassende Betrachtung ebenfalls von elementarer Bedeutung. Denn die Technologie kann ihre Vorteile vor allem dann ausspielen, wenn die IT-Umgebungen sorgfältig abgestimmt wurden. Der Geschwindigkeitsvorteil von In-Memory-Computing entsteht durch eine Verschiebung der Rechenlogik von der Applikations- auf die Datenbank-Ebene. Um die Geschwindigkeit zu erhöhen, tragen außerdem eine hohe Datenqualität sowie durchgängige Geschäftsprozesse bei.

Um die anspruchsvolle Integration der In-Memory-Technologie in ein bestehendes ERP-System zu erleichtern, hat der SAP sogenannte Rapid Deployment Solutions (RDS) definiert. Diese Pakete sollen insbesondere in Ergänzung mit angepassten Software- Lösungen einen schnellen Einsatz bei kalkulierbaren Kosten garantieren. Das Systemhaus T-Systems leistet die Umsetzung dieser RDS-Pakete u.a. in den Bereichen Opera Die Implementierung dieser Technologie im eigenen Unternehmen bindet allerdings Mitarbeiter und kostet damit Zeit und Geld. Daher setzen viele mittelständische und Großunternehmen auf externe IT-Dienstleister, die Beratungsangebote und Produkte rund um die Plattform des Walldorfer Softwarekonzerns, In-Memory Computing und Big Data anbieten. Für die beschleunigten Auswertungen verbinden In-Memory-Technologien transaktionale Systeme wie Enterprise Resource Planning-Lösungen (ERP) mit analytischen Systemen wie Business Intelligence- Anwendungen (BI).

Die Integration zentraler Datenquellen ist dabei eine wichtige Voraussetzung für eine fundierte, auf Echtzeitdaten basierende Geschäftssteuerung. Über die Felder Geschäftsprozesse, Organisation, Anwendungen, Datenmanagement und Infrastruktur hinweg ist eine umfassende Betrachtung ebenfalls von elementarer Bedeutung. Denn die Technologie kann ihre Vorteile vor allem dann ausspielen, wenn die IT-Umgebungen sorgfältig abgestimmt wurden. Der Geschwindigkeitsvorteil von In-Memory-Computing entsteht durch eine Verschiebung der Rechenlogik von der Applikations- auf die Datenbank-Ebene. Um die Geschwindigkeit zu erhöhen, tragen außerdem eine hohe Datenqualität sowie durchgängige Geschäftsprozesse bei. Um die anspruchsvolle Integration der In-Memory-Technologie in ein bestehendes ERP-System zu erleichtern, hat der SAP sogenannte Rapid Deployment Solutions (RDS) definiert. Diese Pakete sollen insbesondere in Ergänzung mit angepassten Software- Lösungen einen schnellen Einsatz bei kalkulierbaren Kosten garantieren.

Das Systemhaus T-Systems leistet die Umsetzung dieser RDS-Pakete u.a. in den Bereichen Operational Reporting und Profitability Analysis, Accelerated Finance and Controlling.

Big Data-Strategie entwickeln

Vor einer Implementierung ist häufig abzuwägen, welche Strategie hinsichtlich des Umgangs mit Datenmengen verfolgt werden soll. Wenn die IT-Infrastruktur in Teilen oder insgesamt einem Echtzeitzugriff auf integrierte Datensätze im Wege steht, bietet sich langfristige Planung an, inwiefern die Anwendungslandschaft oder Firmenorganisation für eine Integration verändert werden müssen. Die technische Realisierung von RDS ist daher nur die erste Phase eines entsprechenden Projektes. Anhand der gesammelten Erkenntnisse lässt sich dann erkennen, welche Aufgaben durch die Technologie ebenfalls übernommen werden könnte. Denn nur eine IT-Strategie, die Infrastruktur, Geschäftsprozesse und Anwendungen konsequent im Auge behält, hat die besten Chancen, das angedachte Ziel auch zu erreichen.


Das könnte Sie auch interessieren:

Zutrittskontrollsysteme dokumentieren Aufenthaltszeiten, können bei der Corona-Kontaktverfolgung unterstützen und ermöglichen die individuelle Arbeitszeiterfassung. Vor dem Hintergrund der Digitalisierung, der Pandemie sowie dem Trend zum dezentralen Arbeiten lohnt sich ein genauer Blick auf die aktuellen Anforderungen.‣ weiterlesen

Mit dem Security Operations Center will Vinci Energies Cybersecurity-Spezialisten vernetzen. Die Eröffnung ist für das zweite Halbjahr 2021 vorgesehen.‣ weiterlesen

Plus 12 Prozent im Vergleich zum Vorjahr haben die deutschen Maschinen und Anlagenbauer in Ihren Auftragsbüchern verzeichnet. Dabei kamen besonders aus dem Ausland mehr Aufträge.‣ weiterlesen

In der Softwareentwicklung gewinnen die Low- und No-Code-Plattformen zunehmend an Bedeutung. Doch neben den Vorteilen etwa in Sachen Geschwindigkeit oder Handhabung sind dem Low-/No-Code-Ansatz noch Grenzen gesetzt, etwa wenn es zu komplex wird.‣ weiterlesen

Low-Code/No-Code-Entwicklungen bieten Potenzial für Industrieunternehmen. Dadurch wird Software-Programmierung auch Mitarbeitern zugänglich, die nicht über tiefes Fachwissen verfügen. Mendix hat in einer Studie untersucht, wie es um den Low-Code/No-Code-Ansatz in Deutschland bestellt ist.‣ weiterlesen

Mit Pascal Redaoui hat Process Analytics Factory einen neuen Chief Financial Officer.‣ weiterlesen

Die Richtlinienreihe VDI/VDE 3695 'Engineering von Anlagen - Evaluieren und Optimieren des Engineerings' wurde komplett überarbeitet und an den Stand der Technik, insbesondere an Industrie-4.0-Vorgaben, angepasst. Im März 2021 erscheint Blatt 4 der Richtlinie. Es beschreibt die Hilfsmittel, die eine Engineering Organisation (EO) einsetzen beziehungsweise nutzen sollte.‣ weiterlesen

Warum liegt die mittlere Anlagenverfügbarkeit der maschinellen Fertigung im Mittelstand bei weniger als 40 Prozent? Wie kann künstliche Intelligenz helfen, dies zu verbessern? Lösungen liefert OEE.AI aus Aachen.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige