Anzeige
Anzeige
Anzeige
Beitrag drucken

Auftragsfertigung in der Pharmaindustrie

Datenlücken schließen

Eine Antwort vieler Pharmahersteller auf den harten Wettbewerb ist die Produktionsverlagerung. Um im Zusammenspiel mit Auftragfertigern dennoch bestmöglichen Nutzen aus Fertigungsdaten schöpfen zu können, muss der Datenaustausch zuverlässig und sicher funktionieren. Für diese Aufgabe kommt häufig OPC-basierte Technologie in Frage.

Bild: Matrikon Deutschland AG

Damit Auftragshersteller und Pharmafirmen den bestmöglichen Nutzen aus ihrer Partnerschaft ziehen können, erfordert es mehr als nur das Unterzeichnen eines Vertrags und das Austauschen von Rezepturen. Um pharmazeutische Produkte herzustellen, müssen Rezepturen in kontrollierten Umgebungen präzise befolgt werden. All das muss bis ins kleinste Detail überwacht und dokumentiert werden, damit Qualitätsnormen sowie gesetzliche Sicherheitsvorschriften eingehalten werden und ein Beitrag zur Ertragssteigerung sowie Reduzierung von Verschwendung geleistet wird. Angesichts der Abhängigkeiten, die zwischen beiden Organisationen bestehen, kommt dem Austausch von Daten zwischen Auftragsherstellern und ihren Kunden eine wichtige Bedeutung zu. Bereits das Format ist wichtig, in dem die Daten vorliegen, damit Systeme beider Seiten damit umgehen können.

Kostenseite im Blick behalten

Üblicherweise entscheiden sich Pharmafirmen dafür, Verträge mit Auftragsherstellern abzuschließen, wenn sie Herstellungskapazitäten zur Erfüllung ihrer Produktionsziele oder eine Infrastruktur benötigen, die sie nicht haben. Zudem gibt es ein wachsendes Segment virtueller Pharma- und Biotechnikanbieter, die zur kommerziellen Fertigung ihrer Produkte ausschließlich mit Auftragsherstellern arbeiten. Die Entscheidung zur Auslagerung der Herstellung hängt somit davon ab, wie hoch die Investitionsrentabilität der hauseigenen Herstellung im Vergleich zum Outsourcing ausfällt.

Feste Kriterien erforderlich

Angesichts der hohen Kosten und Komplexität pharmazeutischer Produkte ist es für Pharmafirmen und Auftragshersteller meist notwendig, über definierte Herstellungs- und Annahmekriterien sowie über Datenmetriken zu verfügen, welche die Einhaltung dieser Spezifikationen dokumentieren. Außerdem muss eine von beiden Seiten anerkannte Methode zur Pflege solcher Aufzeichnungen bestehen, damit für Datenintegrität gesorgt ist. Da Rezepturen und Prozesse gegebenenfalls angepasst werden müssen, um Gesamtertrag und Qualität zu steigern, sollten beide Partner Messwerte und Ergebnisse nutzen können. Während Rezepturen und Herstellungsverfahren sich laufend ändern, bleiben die zugrunde liegenden Best Practices weitestgehend gleich. Leitlinien wie die Good Automated Manufacturing Practice (GAMP) zur Validierung computergestützter Systeme wurden von der pharmazeutischen Industrie weitgehend übernommen und stellen ebenfalls Anforderungen an den Austausch von Daten. Bei Arzneimitteln besteht eine strenge staatliche Regulierung, die gewährleisten soll, dass jeder Schritt im Entwicklungs- und Produktionszyklus eines Arzneimittels dokumentiert wird. So soll nachgewiesen werden, dass vorgeschriebene Verfahren eingehalten wurden und dass Endprodukte in Wirkstärke und Qualität entsprechend ihrer Formulierung vorliegen. Bei dem Austausch solcher Daten gibt es einige zentrale Herausforderungen: So ist zu bedenken, dass Auftragshersteller normalerweise mehrere Pharmakunden haben.

Daher darf ein Auftragshersteller nur Zugang zu ausgewählten Informationen gewähren, da Produktionsdaten mitunter eigentumsrechtlich geschützt sind. Dazu kommt, dass Auftragshersteller an ihren Produktionsstandorten meist über eine zum Pharmakunden unterschiedliche Dateninfrastruktur verfügen. Angesichts der Komplexität solcher Infrastrukturen sind sie häufig nicht dafür ausgelegt, komplexe Daten anderer Quellen aufzunehmen. Das macht den Datenaustausch technisch kompliziert. Darüber hinaus erfordert die dynamische und veränderliche Natur der Arzneimittelherstellung und Prozessanpassung einen zeitnahen und bedarfsorientierten Zugriff auf die Systemdaten, damit Anpassungen durchgeführt, überwacht und ausgewertet werden können. Hier kommt es darauf an, die richtigen Daten zum richtigen Zeitpunkt mit den richtigen Personen auszutauschen. Bei solchen IT-Projekten muss neben der Datensicherheit auch die Kostenseite im Blick behalten werden – und das für sowohl die Infrastruktur selbst, als auch den Zeitaufwand für die Kommunikation zwischen den Organisationen. Erfasste Daten sind regelmäßig und automatisch vom Auftragshersteller an den Pharmakunden zu senden, wobei Mitarbeiter aller Ebenen des Pharmaunternehmens mit Daten versorgt werden müssen. Und schließlich sollte der Datenaustausch bidirektional erfolgen und leicht einzurichten und zu warten sein. Diese Anforderungen können sich mit zwei Architekturen abbilden lassen, die auf ‚Open Connectivity‘-Standards wie OPC basieren. Die Technologie dient als Bindeglied zum Austausch von Echtzeit-, Archiv- und Alarmdaten zwischen unterschiedlichen Systemen.


Das könnte Sie auch interessieren:

Mit der Übernahme des IoT-Spezialisten Bright Wolf, will der IT-Dienstleister Cognizant seine Expertise im Bereich Internet of Things erweitern.‣ weiterlesen

Vorherzusagen, wann ein Werkzeug kaputt geht, ist nicht leicht. Mittels der Messung von Schallemissionen ist dies zwar möglich, aber auch teuer. Kombiniert man jedoch gängige Verfahren mit neuen Technologien, ergeben sich immer bessere und schnellere Verfahren.‣ weiterlesen

Seit dem 25. Mai 2018 gilt die europäische Datenschutzgrundverordnung, meist nur DSGVO genannt. Der IT-Sicherheitsspezialist Rohde & Schwarz Cybersecurity berichtet, wie es um die Umsetzung in der hiesigen Industrie steht.‣ weiterlesen

In vielen Ländern Europas scheint sich der Arbeitsmarkt zu stabilisieren. Darauf deuten die Zahlen des Europäischen Arbeitsmarktbarometers hin, das nun erstmals veröffentlicht wurde.‣ weiterlesen

Eine IoT-Sicherheitsarchitektur sollte sowohl in IT- als auch in OT-Umgebungen für mehr Transparenz sorgen und Prozesse schützen. Dazu müssen die Daten aus dem IoT-Edge erfasst und extrahiert werden. Auf dieser Grundlage können Unternehmen effizienter agieren, bessere Geschäftsentscheidungen treffen und Digitalisierungsprojekte beschleunigen.‣ weiterlesen

GBTEC und Proalpha haben angekündigt, zukünftig in den Bereichen Process Mining und Business Intelligence zusammenzuarbeiten. Kunden sollen so einen Mehrwert bei der digitalen Transformation erhalten.‣ weiterlesen

Beim Anlagen- und Werkzeugbau setzt die Volkswagen AG auf Datendurchgängigkeit. Die Projektmanagement-Software Coman vernetzt die Projektbeteiligten dazu durchgängig und digital, bis hin zu den Zulieferern. Denn wenn Manager Giuseppe Lo Presti früh erkennt, dass es in einem Gewerk gerade nicht rund läuft, können gezielte Maßnahmen erfolgen.‣ weiterlesen

Mehr als eine Milliarde Schadprogramme verzeichnet das Bundesamt für Sicherheit in der Informationstechnik im aktuellen Lagebericht. Und auch die Corona-Pandemie wirkt sich auf die aktuelle Sicherheitslage aus.‣ weiterlesen

Eine Voraussetzung bei der Entwicklung von industriellen KI-Anwendungen sind ausreichende Daten. Diese sind jedoch nicht immer in der benötigten Menge, Qualität oder Struktur vorhanden. Anhand eines konkreten Beispiels erläutert dieser Beitrag, wie sich ein Data Lake anlegen und mit Daten füllen lässt, bis er ein Fundament für quasi beliebige KI-Applikationen bildet.‣ weiterlesen

CIOs setzen auf Automatisierung und KI, um wachsende Kluft zwischen begrenzten IT-Ressourcen und steigender Cloud-Komplexität zu überbrücken. Dies geht aus einer Studie von Dynatrace hervor.‣ weiterlesen

Zahlreiche Geräte verbinden sich heutzutage mit dem Firmennetzwerk. Neben offensichtlichen Geräten wie Büro-PCs und Maschinensensoren gibt es meist auch solche, die keiner auf dem Radarschirm hat. In diesem verborgenen Internet of Things könnten Einfallstore für Cyberkriminelle sein.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige