Unsere Lösungen

Wir haben für alles eine Lösung – und was noch wichtiger ist: Alle Lösungen arbeiten durch unseren Ökosystem-Ansatz optimal zusammen. In unseren derzeit sieben Kompetenzbereichen stehen wir Ihnen mit unserem umfassenden Know-how mit Rat und Tat zur Seite.

Alle Lösungen

Software

Software

Mit unserem Werum PAS-X MES – am Standort oder in der Cloud installiert – und unseren Softwarelösungen für Datenanalyse, Track & Trace, vernetzte Fabriken und intelligente Verpackungen sind wir der weltweit führende Anbieter und Partner der Pharma- und Biotechindustrie. Mit unserem ganzheitlichen Verständnis und Einsatz der Digitalisierung bleiben Sie zukunftssicher und verbinden digitale Innovation mit Nachhaltigkeit.

Übersicht Software

Transportsysteme

Transportsysteme

Suchen Sie nach Wegen, die Komplexität Ihrer Produktion zu reduzieren und gleichzeitig flexibel auf Veränderungen in der Pharmaindustrie zu reagieren? Sie wünschen sich perfekt abgestimmte Produktionslinien, die nahtlos mit Ihrer bestehenden Software und Ihren Maschinen zusammenarbeiten? Wir sind Spezialisten für komplette Transportsysteme im Bereich Pharma- und Medizinprodukte. Unsere Lösungen sind maßgebend im Bereich des kontaktlosen und sicheren Transports von z.B. Glasspritzen.

Übersicht Transportsysteme

Inspektionsmaschinen

Inspektion

Als weltweit führender Inspektionsexperte entwickeln wir Lösungen für die Pharma- und Biotechindustrie. Unser Angebot reicht von KI-gestützten Hochleistungsmaschinen und Halbautomaten über Laboreinheiten bis Inspektionsapplikationen für die Inprozesskontrolle. Als Pionier auf diesem Gebiet sorgen wir stets dafür, dass Maschinen und Software die gleiche Sprache sprechen.

Übersicht Inspektion

Maschinen-Finder

Verpackungsmaschinen

Verpackungsmaschinen

Wir sind führender Anbieter von Verpackungsmaschinen für flüssige und feste pharmazeutische- sowie für medizinische Produkte. Mit unseren Blister-, Sachet- und Stickpackmaschinen bieten wir Lösungen für Primärverpackungen. Unsere Side- und Topload-Kartonierer setzen weltweit Standards für die Sekundärverpackung. Unser Ökosystem-Ansatz stellt sicher, dass alle Maschinen, Software und anderen Komponenten harmonisch und auf höchstem Niveau zusammenarbeiten.

Übersicht Verpackungsmaschinen

K.Pak Topload Case Packer

Introducing our latest solution from Körber; the K.Pak Topload Case Packer! Created specifically for the pharmaceutical industry, the K.Pak solution provides operator-friendly machines to complete any production line. Our solution focuses on innovative technology, high-quality design and expert handling and packaging of your product. It’s time to start connecting the dots with Körber!

Verpackungslösungen

Verpackungslösungen

Als langjährige Spezialisten entwickeln wir Verpackungslösungen für innovative und hochwertige Pharma-Sekundärverpackungen aus Karton. Wir bieten Ihnen Lösungen für Fälschungssicherheit, Standard- Faltschachteln und vieles mehr.

Übersicht Verpackungslösungen

Beratung

Beratung

Unsere Experten beraten Sie nach der Analyse Ihrer Anforderungen, zeigen Ihnen Optimierungspotenziale auf und unterstützen Sie bei der Implementierung von Projekten in allen Bereichen der Pharma-, Biotech- und Medizinproduktindustrie. Unser Ziel ist die ganzheitliche Optimierung Ihrer Factory of Excellence.

Übersicht Beratung

Services

Services

Sie benötigen Hilfe bei einem bestimmten Produkt oder haben Fragen zu einem unserer Kompetenzbereiche? Skalieren und entwickeln Sie Ihre Factory of Excellence optimal weiter – mit Körber. Wir bieten Ihnen proaktive, datengestützte Beratung und Services für nachhaltigen Erfolg.

Alle Services

Ken Fountain
Vice President Scientific Applications, TetraScience

Prof. Dr. Christoph Herwig
Senior Scientific Advisor, Körber-Geschäftsfeld Pharma

Blog

Ein neues Paradigma in der Bioprozessintelligenz für eine schnellere Markteinführung

Wie können biopharmazeutische Unternehmen ihre Produktion optimieren und die Markteinführung beschleunigen? Der Schlüssel liegt darin, Daten mithilfe einer ganzheitlichen Datenstrategie und KI-gestützter Analysen in verwertbare Erkenntnisse umzuwandeln und gleichzeitig die Einhaltung gesetzlicher Vorgaben zu gewährleisten.

In diesem Q&A werden die Branchenexperten Prof. Dr. Christoph Herwig von Körber und Ken Fountain von TetraScience auf folgende Punkte eingehen:

  • Herausforderungen und Lösungen bei der Umwandlung wissenschaftlicher Daten in allen Phasen des Produktlebenszyklus in analytische und KI-fähige Formate
  • Nutzung dieser Daten für fortschrittliche Analysen, die Echtzeit-Prozesseinblicke, Vorhersagen, Überprüfungen und Korrelationen zwischen Critical Process Parameters (CPPs) und Critical Quality Attributes (CQAs) ermöglichen
  • Eine überzeugende Fallstudie eines globalen biopharmazeutischen Unternehmens, das cloudbasierte Daten für Echtzeit-Einblicke und kürzere Markteinführungszeiten nutzt.

Christoph und Ken, können Sie uns etwas über Ihren beruflichen Werdegang und Ihre Expertise in der biopharmazeutischen Industrie erzählen?

Christoph: Natürlich! Mein Name ist Christoph Herwig, ich bin Bioverfahrenstechniker und habe auf dem Gebiet der Bioprozessidentifikation promoviert. Ich hatte das Privileg, eine ordentliche Professur für Bioverfahrenstechnik an der Technischen Universität Wien zu bekleiden, wobei ich mich auf Data-Science-Methoden für die effiziente Entwicklung von Bioprozessen konzentrierte. Meine Erfahrungen in der Branche, u.a. bei Lonza, umfassen die Planung und Inbetriebnahme biopharmazeutischer Großanlagen. Jetzt bin ich bei Körber und konzentriere mich im Speziellen auf "PAS-X Savvy" – unsere wegweisende Data-Science-Software für den biopharmazeutischen Lebenszyklus.

Ken: Ich bin Ken Fountain, Vizepräsident für wissenschaftliche Anwendungen bei TetraScience. Mein beruflicher Werdegang begann als Chemiker mit der Entwicklung von analytischen Methoden zur Charakterisierung biologischer Wirkstoffe. Im Laufe der Jahre habe ich in verschiedenen Positionen bei der Waters Corporation und der Genzyme Corporation gearbeitet und dabei umfangreiche Erfahrungen auf dem Gebiet der analytischen und biopharmazeutischen Technologie gesammelt. Derzeit leite ich ein Team, das schwerpunktmäßig Pharma- und Biotechnologieunternehmen dabei unterstützt, ihre wissenschaftlichen Daten für fortschrittliche Analysen und KI/ML in die Cloud zu verlagern und neu zu strukturieren.

Was sind die aktuellen Herausforderungen in der Bioprozessentwicklung und -produktion, insbesondere im Zusammenhang mit Initiativen zur Datenintegrität im Rahmen von Pharma 4.0?

Christoph: Die Antwort auf diese Frage ist vielschichtig.

  • Die Zeit bis zur Markteinführung ist lang. Der gesamte Lebenszyklus eines neuen Produkts, von der Entdeckung über die Entwicklung bis hin zur Prozessvalidierung und Lizenzierung für die Herstellung dauert immer noch 6-10 Jahre und ist mit sehr hohen Kosten von bis zu 2 Mrd. USD für jede erfolgreiche Markteinführung verbunden.
  • In der Produktion sind wir immer noch mit einem alten Prozessdesign mit nicht optimierter Produktivität und hoher Variabilität von Charge zu Charge konfrontiert. Wir wissen, dass die Intensivierung von Prozessen, wie z.B. die integrierte kontinuierliche Bioproduktion, eine wirtschaftliche Chance darstellt. Um diese Prozesse jedoch robust zu gestalten, benötigen wir eine solide wissenschaftliche CMC-Kontrollstrategie unter Berücksichtigung der ICH-Richtlinie Q12, die auch in Echtzeit anwendbar ist.
  • Die digitale Transformation gilt als Schlüsselfaktor für die Steigerung von Produktivität, Fertigungsflexibilität und Produktqualität. Dies wird in den von der ISPE geförderten Pharma-4.0-Initiativen zusammengefasst. Diese definieren Datenintegrität und Datenreife als die wichtigsten Voraussetzungen für eine erfolgreiche digitale Produktion und einen erfolgreichen Produktlebenszyklus. Derzeit haben wir jedoch Probleme mit der Datenintegrität, was zu zahlreichen Warnbriefen der FDA und EMA geführt hat.

Ken, warum stehen wir Ihrer Meinung nach heute vor diesen Problemen?

Ken: Die Ursache für diese Herausforderungen liegt in der Fragmentierung von Daten – Daten werden in isolierten Silos gespeichert, wodurch sie für eine effektive Analyse und Nutzung durch KI und maschinelles Lernen ungeeignet sind. Woran liegt das?

  • Ein Hauptproblem ist die manuelle Übertragung von Daten zwischen verschiedenen Quellen und Zielen, z.B. von Versuchsaufbauten (ELN) zu Analysesoftware (CDS, Bioreaktoren). Diese manuelle Übertragung ist nicht nur zeitraubend, sondern auch fehleranfällig.
  • Es besteht eine Diskrepanz zwischen den Datentypen – kontinuierliche Daten aus Bioreaktoren müssen mit diskreten analytischen Messungen abgeglichen werden. Dieser Abgleich wird derzeit manuell durchgeführt – ein ineffizientes Verfahren, bei dem die Daten nicht wiederverwendet werden können.
  • Ein weiteres Problem besteht darin, dass nicht kontextualisierte Daten aufgrund von Inkonsistenzen in Datenformaten, Namenskonventionen, Metadaten usw. eine effiziente Suche erschweren.
  • Unter diesen isolierten Datensilos leiden auch der Datenaustausch und die Zusammenarbeit. Der interne und externe Datenaustausch ist umständlich und führt zu doppelt durchgeführten Experimenten und Zeitverlust.
  • Die Visualisierung und Analyse der Daten stellt ebenfalls eine Herausforderung dar. Die Verknüpfung von Zeitreihendaten aus Bioreaktoren mit den zugehörigen analytischen Prozessdaten erfordert häufig den Einsatz von USB-Laufwerken und mehreren Excel-Tabellen. Dieser disjunkte Prozess verhindert eine umfassende Visualisierung dieser Datensätze und erschwert eine effektive Analyse.

Christoph, welche Lösungsansätze gibt es für dieses Problem und was sind die Voraussetzungen für einen Erfolg?

Christoph: Wir alle wissen, dass Daten das neue Gold sind, und die biopharmazeutische Industrie muss sich ihrer Bedeutung bewusstwerden und sich entsprechend anpassen. Um den Herausforderungen wirksam zu begegnen, brauchen wir einen ganzheitlichen Ansatz für die Datennutzung. Dazu gehört die Erfassung von Daten aus jeder Stufe der Prozesskette, zumindest aber vom Upstream zum Downstream – idealerweise auch aus der Formulierung, der Abfüllung und vom Patienten selbst. Neben der Dimension der Prozesskette müssen auch Daten aus dem gesamten Produktlebenszyklus importiert werden.

Es reicht jedoch nicht aus, die Daten lediglich in einem Repository wie einem Data Lake oder einem Historian zu sammeln. Wir müssen die importierten Daten kontextualisieren – verschiedene Informationsebenen miteinander verknüpfen, um eine ganzheitliche Datenanalyse zu ermöglichen.

Dies beinhaltet:

  • Hinzufügen von Metadaten: Z.B. mit Informationen zu Schichtpersonal und Losnummern.
  • Identifizierung von Prozessphasen und Ereignissen: Verstehen, wie die Daten in die Prozessphasen und Ereignisse passen.
  • Konvertierung von Daten in Informationen: Umwandlung von Rohdaten in Einheiten, die unabhängig von Maßstab und Ausgangsbedingungen sind.
  • Umgang mit Datenvariabilität: Entwicklung von Routinen für den Umgang mit verschiedenen Datentypen, Dimensionen und Häufigkeiten, z.B. Entfaltung von Zeitreihen oder Extraktion von Merkmalen aus Spektren oder Bildern.

Diese Kontextualisierung kann durch Fachpersonen oder durch automatisierte Funktionen, die in Datenimporte, Analyseroutinen oder Ontologien integriert sind, erfolgen.

Es ist wichtig, dass es keine Schnittstelle zwischen Datenmanagement und Datenanalyse gibt. Andernfalls besteht die Gefahr, dass die Integrität der Daten verletzt wird. Als produktunabhängige technische Anforderung muss das System daher nahtlosen Datenimport, Datenverwaltung, Kontextualisierung und Datenanalyse ermöglichen.

Wenn es einen ganzheitlichen Ansatz für die Datennutzung gäbe, was könnte eine solche Lösung leisten?

Ken: Die Lösung könnte den skizzierten Herausforderungen wirksam begegnen und neue Erkenntnisse und Zusammenhänge in verschiedenen Datensätzen aufdecken. Dies würde den Einsatz von KI/ML zur Prozessoptimierung ermöglichen und Informationen über die Quellen der Variabilität liefern. Außerdem könnte sie die Erstellung originalgetreuer digitaler Zwillinge erleichtern, die für die Skalierung von Bioprozessen, den Technologietransfer und die laufende Validierung unerlässlich sind. Der Zugriff auf die Daten in der Cloud wäre ein Garant für nahtlose gemeinsame Nutzung und Skalierbarkeit auf globaler Ebene.

Christoph: Denken Sie an aktuelle Lösungen für die multivariate Datenanalyse: Die Daten werden von Excel in eine eigenständige Insellösung kopiert, die für die Hauptkomponentenanalyse verwendet wird. Wird ein Ausreißer identifiziert, kehrt der Analytiker zu den Rohdaten zurück, extrahiert die Daten in Excel und importiert sie erneut. Nach sechs Monaten wird sich niemand mehr daran erinnern können, welche Daten für einen Plot verwendet wurden, welche in einem IND- oder BLA-Antrag enthalten sein könnten oder welche für OOS verwendet wurden. Mit einer nahtlosen Lösung vermeiden wir jeden Zweifel an der Datenintegrität, ganz gleich, ob wir uns in der Prozessentwicklung oder der Prozesscharakterisierung befinden, die nicht notwendigerweise der Part 11-Konformität unterliegt, oder in der regulierten Umgebung der Prozessvalidierung oder der Produktion selbst. Diese Lösung stellt eine konsequente Auslegung der Leitlinien für Pharma 4.0 dar..

Neben der Verbesserung der Datenqualität durch Vermeidung manueller Fehler erreichen wir natürlich auch eine deutliche Beschleunigung des Datenhandlings. Wir befreien die Fachpersonen vom manuellen Kopieren und Einfügen von Daten, damit sie sich auf das konzentrieren können, wofür sie eigentlich bezahlt werden: die Datenanalyse. Dies gilt für alle Tätigkeiten während des gesamten Produktlebenszyklus.

Uns bietet sich dann die Möglichkeit, alle Daten für eine ganzheitliche Datenanalyse zu nutzen, wie z.B:

  • Analyse der Wechselwirkungen zwischen den einzelnen Arbeitseinheiten statt isolierter Entwicklung einzelner Arbeitseinheiten
  • Verknüpfung von Daten aus verschiedenen Phasen des Produktlebenszyklus, die zu fundierten Iterationen von Prozesscharakterisierungsstudien und einer echten kontinuierlichen Prozessüberwachung (Continued Process Verification, CPV) führt und damit eine dauerhafte Verbesserung ermöglicht – die eigentliche Triebfeder der CPV.

Im Wesentlichen entwickeln wir eine umfassende Kontrollstrategie, die aufgrund eines Lebenszyklus gemäß ICH Q12 immer auf dem neuesten Stand ist.

Christoph und Ken, können Sie uns die gemeinsame Lösung erläutern, die Körber und TetraScience gefunden haben, um diese Probleme zu lösen?

Ken: TetraScience kümmert sich um das Replatforming von Daten in die Cloud und das anschließende Reengineering dieser Daten, um sicherzustellen, dass sie konform, liquide und für Analysen und KI/ML zugänglich sind. Dies ermöglicht den Vergleich von Variablen über verschiedene Chargen, Einheiten und Standorte hinweg sowie die Zusammenführung von diskreten und kontinuierlichen Daten, was heute entweder nicht einfach oder gar nicht möglich ist.

Christoph: Basierend auf den Daten der TetraScience-Plattform bietet Körber mit PAS-X Savvy eine umfassende SaaS-Data-Intelligence-Suite an. Dies umfasst die Kontextualisierung von Daten und fortschrittliche Analysen, einschließlich Prozessvorhersage, kontinuierliche Prozessüberwachung (CPV), Korrelationsanalyse zwischen Critical Process Parameters (CPPs) und Critical Quality Attributes (CQAs) sowie Echtzeit-Erkennung von Prozessabweichungen. Darüber hinaus ermöglicht PAS-X Savvy eine Kontrolle in Echtzeit, um die Leistung des Prozesses während der Produktion zu optimieren. Die Plattform erleichtert die Teamarbeit und die gemeinsame Nutzung von Ergebnissen durch die automatische Erstellung von Berichten für GMP- oder CPV-Zwecke.

Broschüre: Werum PAS-X Savvy

Werum PAS-X Savvy revolutioniert die Verwaltung, Analyse und das Reporting Ihrer Pharma- und Biotech-Prozessdaten.

Download (Sprache: Englisch)

Welche Vorteile bietet die gemeinsame Lösung von Körber und TetraScience?

Christoph: Die gemeinsame Lösung verspricht eine umfassende Nutzung der Daten auf Basis des Data Maturity Models von Pharma 4.0. Es geht über die bloße Visualisierung dessen, was geschieht, hinaus, liefert Einblicke in die Gründe, warum es geschieht, und gewährleistet ein ganzheitliches Verständnis kritischer Aspekte wie CMC und Prozesstransparenz. Zur Vorhersage zukünftiger Ereignisse bietet die Lösung zudem Prognosefunktionen. Sie verfügt über Selbstoptimierungsfunktionen, wobei die Datenintegrität in jeder Phase der Datenreife, auch in der frühen Prozessentwicklung, gewahrt bleibt.

Bei einem der 25 weltweit führenden Biopharmaunternehmen haben Sie diese Lösung kürzlich als POC (Proof of Concept) implementiert. Können Sie uns mehr darüber erzählen?

Ken: Sicherlich. In einem kürzlich durchgeführten Kundenprojekt im Bereich der biopharmazeutischen Prozessentwicklung stießen wir auf mehrere datenbezogene Herausforderungen: Aus verschiedenen Quellen wie Hochdurchsatzgeräten, USP und DSP, Offline-Analysen, LIMS und ELN standen uns große Datenmengen zur Verfügung.
Die Probleme, auf die wir gestoßen sind, waren zahlreich. Die vorhandenen makrobasierten Tabellenkalkulationsprogramme erforderten ständige Wartung, und ihre Verwendung war aufgrund des nötigen Spezialwissens auf einige wenige Personen in der Gruppe beschränkt, was zu einem Engpass und einem weiteren Datensilo führte. Darüber hinaus war für die Analyse der Daten häufig ein manueller Transfer zwischen verschiedenen Softwarepaketen erforderlich, was den Arbeitsablauf erschwerte. Insbesondere die Erfassung der DSP-Daten auf Chargenebene erwies sich aufgrund der sich ändernden Nomenklatur als schwierig, so dass die Daten manuell abgerufen werden mussten. Der Vergleich von Daten über mehrere Versuchsblöcke hinweg stellte sich als mühsam und zeitaufwändig heraus. Außerdem musste die Netzwerkstruktur verbessert werden, um einen schnelleren Datentransfer sowohl innerhalb des Unternehmens als auch mit externen Partnern zu ermöglichen.

Christoph: Unser Ziel war klar: ein globales Repository für die nahtlose Sammlung, Harmonisierung und den Zugriff auf Daten zu schaffen und die Benutzeroberfläche für die Verknüpfung und gemeinsame Nutzung von Daten aus verschiedenen Quellen innerhalb der PharmScience-Datenlandschaft zu verbessern. Wir strebten eine umfassende Datenkontextualisierung, robuste Visualisierungstools und effiziente Datenanalyseprozesse an, um die bestehenden Excel-basierten Arbeitsabläufe zu ersetzen. Darüber hinaus haben wir versucht, die Prozesse für die Verteilung, die Veröffentlichung und die Archivierung der Daten zu verbessern. Das übergeordnete Ziel war eine sorgfältige Datenmodellierung, bei der Daten aus verschiedenen Quellen und manuelle Eingaben logisch miteinander verknüpft wurden, um eine kohärente Ontologie und Datenwolke zu erstellen.

Ken, können Sie das genauer erklären? Wie wurden die Anforderungen erfüllt?

Ken: Sicherlich. TetraScience spielte eine entscheidende Rolle bei der Erfüllung dieser Anforderungen, da es sich nahtlos in verschiedene wissenschaftliche Arbeitsabläufe in der Bioverfahrenstechnik integrieren lässt. Die während dieser Arbeitsprozesses gesammelten Daten wurden transformiert. Das Ergebnis dieser Transformation bezeichnen wir als „Tetra-Daten“. Diese konvertierten Daten können dann in nachgelagerten Analyseanwendungen verwendet werden.

Wichtige Identifikatoren wie Projekt-IDs, Standort-IDs, Benutzer-IDs und Verbund-IDs wurden sorgfältig in diese Tetra-Daten eingebettet, um wichtigen Kontext zu liefern. Um eine effiziente Überwachung und Abfrage dieser kontextbezogenen Daten zu gewährleisten, nutzt PAS-X Savvy Aufrufe des EQL-API-Endpunkts für die Suche und ermöglicht so die Echtzeitverfolgung neu eingespeister Dateien sowie das Abrufen relevanter Labels.

Die Schnittstelle von PAS-X Savvy wurde so gestaltet, dass der Anwender anhand definierter Datenfelder innerhalb der Tetra-Daten bestimmte Daten für die Visualisierung auswählen kann. Dieser nahtlose Integrations- und Datentransformationsprozess schuf eine solide Grundlage für eine umfassende Datenvisualisierung und -analyse, die den definierten Anforderungen entsprach.

Welche Vorteile hat Ihr umfassender Ansatz dem Top-25-Biotech-Unternehmen gebracht?

Christoph: Das Unternehmen erzielte bedeutsame Ergebnisse, darunter:

  1. Verringerter Zeitaufwand: Die automatische Erfassung von Daten hat es uns ermöglicht, die Produktivität um 50 % zu steigern.
  2. Verringerte Risiken: Durch die Abschaffung der manuellen Transkription von Daten konnten wir die Fehlerquote um 75 % senken. Darüber hinaus trug langfristiges Data Trending zur proaktiven Erkennung von OOS-, OOT- und OOE-Ereignissen bei.
  3. Schnellerer Markteintritt und erweiterte Exklusivität: Unser Ansatz beschleunigte den Technologietransfer und die Prozessentwicklung um 6 bis 12 Monate, was dank einem schnelleren Markteintritt und einer verlängerten Marktexklusivität zu möglichen zusätzlichen Einnahmen von 250 bis 550 Millionen US-Dollar führen könnte.

Sind Sie bereit, Ihre Datenerfassung zu revolutionieren?

Fordern Sie jetzt eine kostenlose Demo an!

Kommentare

Keine Kommentare

Kommentar schreiben

* Diese Felder sind erforderlich

nach oben
nach oben