Anzeige
Anzeige
Beitrag drucken

Reporting mit In-Memory-Technologie beschleunigen

Die Globalisierung verändert viele Branchen und Märkte. Um angesichts verkürzter Entscheidungszeiträume trotzdem die richtige Wahl zu fällen, können IT-Systeme entscheidende Informationen bereitstellen. Die In-Memory-Technologie SAP Hana stellt zwar hohe Ansprüche an die IT-Infrastruktur, verspricht jedoch die beschleunigte Bereitstellung hochverdichteter Analysen.



Bild: T-Systems

Je mehr Daten im Unternehmen erhoben werden, umso komplexer wird deren Auswertung. Mit dem Schlagwort ‘Big Data’ wird die Herausforderung beschrieben, mitunter mehrere Millionen Datensätze zu verarbeiten – oder daran zu scheitern. Denn verzögerte Batch-Prozesse, eine Datenaggregation und andere Hindernisse können bewirken, dass Daten erst verzögert und nur unvollständig zur Verfügung stehen. Mit der Erstellung der Reports sind oft ganze Abteilungen tagelang beschäftigt. Technologien für In-Memory-Computing wie SAP Hana versprechen, auch umfangreiche Datenmengen – z.B. für die Produktionsplanung – in Sekunden auswerten zu können.

IT-Infrastruktur überdenken

Die Implementierung dieser Technologie im eigenen Unternehmen bindet allerdings Mitarbeiter und kostet damit Zeit und Geld. Daher setzen viele mittelständische und Großunternehmen auf externe IT-Dienstleister, die Beratungsangebote und Produkte rund um die Plattform des Walldorfer Softwarekonzerns, In-Memory Computing und Big Data anbieten. Für die beschleunigten Auswertungen verbinden In-Memory-Technologien transaktionale Systeme wie Enterprise Resource Planning-Lösungen (ERP) mit analytischen Systemen wie Business Intelligence- Anwendungen (BI). Die Integration zentraler Datenquellen ist dabei eine wichtige Voraussetzung für eine fundierte, auf Echtzeitdaten basierende Geschäftssteuerung.

Über die Felder Geschäftsprozesse, Organisation, Anwendungen, Datenmanagement und Infrastruktur hinweg ist eine umfassende Betrachtung ebenfalls von elementarer Bedeutung. Denn die Technologie kann ihre Vorteile vor allem dann ausspielen, wenn die IT-Umgebungen sorgfältig abgestimmt wurden. Der Geschwindigkeitsvorteil von In-Memory-Computing entsteht durch eine Verschiebung der Rechenlogik von der Applikations- auf die Datenbank-Ebene. Um die Geschwindigkeit zu erhöhen, tragen außerdem eine hohe Datenqualität sowie durchgängige Geschäftsprozesse bei.

Um die anspruchsvolle Integration der In-Memory-Technologie in ein bestehendes ERP-System zu erleichtern, hat der SAP sogenannte Rapid Deployment Solutions (RDS) definiert. Diese Pakete sollen insbesondere in Ergänzung mit angepassten Software- Lösungen einen schnellen Einsatz bei kalkulierbaren Kosten garantieren. Das Systemhaus T-Systems leistet die Umsetzung dieser RDS-Pakete u.a. in den Bereichen Opera Die Implementierung dieser Technologie im eigenen Unternehmen bindet allerdings Mitarbeiter und kostet damit Zeit und Geld. Daher setzen viele mittelständische und Großunternehmen auf externe IT-Dienstleister, die Beratungsangebote und Produkte rund um die Plattform des Walldorfer Softwarekonzerns, In-Memory Computing und Big Data anbieten. Für die beschleunigten Auswertungen verbinden In-Memory-Technologien transaktionale Systeme wie Enterprise Resource Planning-Lösungen (ERP) mit analytischen Systemen wie Business Intelligence- Anwendungen (BI).

Die Integration zentraler Datenquellen ist dabei eine wichtige Voraussetzung für eine fundierte, auf Echtzeitdaten basierende Geschäftssteuerung. Über die Felder Geschäftsprozesse, Organisation, Anwendungen, Datenmanagement und Infrastruktur hinweg ist eine umfassende Betrachtung ebenfalls von elementarer Bedeutung. Denn die Technologie kann ihre Vorteile vor allem dann ausspielen, wenn die IT-Umgebungen sorgfältig abgestimmt wurden. Der Geschwindigkeitsvorteil von In-Memory-Computing entsteht durch eine Verschiebung der Rechenlogik von der Applikations- auf die Datenbank-Ebene. Um die Geschwindigkeit zu erhöhen, tragen außerdem eine hohe Datenqualität sowie durchgängige Geschäftsprozesse bei. Um die anspruchsvolle Integration der In-Memory-Technologie in ein bestehendes ERP-System zu erleichtern, hat der SAP sogenannte Rapid Deployment Solutions (RDS) definiert. Diese Pakete sollen insbesondere in Ergänzung mit angepassten Software- Lösungen einen schnellen Einsatz bei kalkulierbaren Kosten garantieren.

Das Systemhaus T-Systems leistet die Umsetzung dieser RDS-Pakete u.a. in den Bereichen Operational Reporting und Profitability Analysis, Accelerated Finance and Controlling.

Big Data-Strategie entwickeln

Vor einer Implementierung ist häufig abzuwägen, welche Strategie hinsichtlich des Umgangs mit Datenmengen verfolgt werden soll. Wenn die IT-Infrastruktur in Teilen oder insgesamt einem Echtzeitzugriff auf integrierte Datensätze im Wege steht, bietet sich langfristige Planung an, inwiefern die Anwendungslandschaft oder Firmenorganisation für eine Integration verändert werden müssen. Die technische Realisierung von RDS ist daher nur die erste Phase eines entsprechenden Projektes. Anhand der gesammelten Erkenntnisse lässt sich dann erkennen, welche Aufgaben durch die Technologie ebenfalls übernommen werden könnte. Denn nur eine IT-Strategie, die Infrastruktur, Geschäftsprozesse und Anwendungen konsequent im Auge behält, hat die besten Chancen, das angedachte Ziel auch zu erreichen.


Das könnte Sie auch interessieren:

Industrielle Trends wie IIoT und Digitalisierung setzen immense Datenströme voraus. Doch im Gegensatz zur IT-Security für Büros müssen Fabrikbetreiber auf wesentlich mehr Stolpersteine achten, damit ihre Anlagen nicht schon einfachen Angriffen zum Opfer fallen.‣ weiterlesen

Ab und zu fehlte ein Schlüssel im Kloster der Franziskanerinnen der ewigen Anbetung von Schwäbisch Gmünd. Beim letzten Mal gab das den Impuls, anstatt neue mechanische Zylinder in die rund 220 Türen des Komplexes einzubauen, die alte Technik durch das Bluesmart-System von Winkhaus zu ersetzen.‣ weiterlesen

Mit 100,5 Punkten hält sich das IAB-Arbeitsmarktbarometer im November stabil und liegt weiter im leicht über der neutralen Marke. Auf europäischer Ebene sank der Frühindikator allerdings erneut.‣ weiterlesen

In einer neuen Expertise des Forschungsbeirats Industrie 4.0 untersuchen das FIR an der RWTH Aachen und das Industrie 4.0 Maturity Center den Status-quo und die aktuellen Herausforderungen der deutschen Industrie bei der Nutzung und wirtschaftlichen Verwertung von industriellen Daten und geben Handlungsempfehlungen für Unternehmen, Verbände, Politik und Wissenschaft.‣ weiterlesen

Im Forschungsprojekt FabOS soll eine KI-Bin-Picking-Anwendung entstehen, die ein verbessertes Erkennen, Greifen und definiertes Ablegen von Blechteilen in der Produktion ermöglicht.‣ weiterlesen

Die Digitalisierung des Qualitätsmanagements stellt Unternehmen vor Herausforderungen. Daher haben das Fraunhofer IPT und die FH Südwestfalen im Forschungsvorhaben 'Qbility - Quality 4.0 Capability Determination Model' ein datengetriebenes Reifegradmodell entwickelt, das die Anforderungen eines digitalisierten Qualitätsmanagements bei KMU adressiert.‣ weiterlesen

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) empfiehlt sicherheitsrelevante Patches und Updates so schnell wie möglich, unter Abwägung des jeweiligen Risikos, einzuspielen, auch wenn im professionellen und insbesondere industriellen Umfeld automatisierte Software-Updates mit unerwünschten Einschränkungen der Funktionalität - etwa durch einen Neustart des Systems - verbunden sein können.‣ weiterlesen