English China

HPLC Quality by Design in der HPLC

Autor / Redakteur: Hans-Werner Bilke* und Stefan Moser** / Dipl.-Chem. Marc Platthaus

Nach der Etablierung von „Qualität by Design“-Konzepten (QbD) in der pharmazeutischen Entwicklung und Herstellung werden QbD-Konzepte zunehmend auch zur Sicherung der Qualität von analytischen Methoden in pharmazeutischen Unternehmen benutzt [1, 2].

Anbieter zum Thema

Abb. 1: Empirisches Prozessmodell [8] für 7-Parameter-Optimierung
Abb. 1: Empirisches Prozessmodell [8] für 7-Parameter-Optimierung
(Bild: Bilke)

Um einem höheren Standard der HPLC-Methodenqualität zu sichern, fordert die Zulassungsbehörde FDA zunehmend eine systematischere Planung von Versuchen zur Methodenentwicklung anstatt chaotischem „Trail and Error“ [3]. Der Wert eines Methodenparameters sollte innerhalb bestimmter Grenzen ohne Verlust an Selektivität der chromatographischen Trennung variiert werden können. Die entsprechenden „Parameter-Fenster“ laufen auf ein mehrdimensionales geometrisches Gebilde hinaus, in dem Anpassungen nicht als Änderungen betrachtet werden können. Der so genannte Design Space ist ein neues Schlagwort in der HPLC. Für dessen Definition müssen die Methodenparameter und deren Einstellungen sowie die Qualitätskriterien festgelegt werden. Solange man sich bei Änderungen der HPLC-Parameter im „Design Space“ bewegt, bedarf es keiner erneuten umfangreichen Experimente zur Validierung der HPLC-Methode. Die Anwendung von Quality by Design auf die flüssigchromatographische Methodenentwicklung sichert Qualität durch die Beachtung mehrerer Grundsätze:

  • Systematische Beschreibung des Methodenbereiches durch multivariate Parameter-Optimierung,
  • Risikominimierung durch die Entwicklung robuster Methoden,
  • Nutzung wissenschaftlicher Kenntnisse und computergestützter Methoden zur Visualisierung des so genannten „Design Space“.

Die Verwendung der Grundsätze von Quality by Design in der Flüssigchromatographie:

Bildergalerie
  • gibt Aussagen zum Design Space der HPLC-Methode und ihrer Methodenfähigkeit,
  • bietet ein besseres Verständnis der HPLC-Methode hinsichtlich ihrer Möglichkeiten und Grenzen,
  • gewährleistet so eine größere Chance auf Erfolg der nachgeschalteten Methodenvalidierung und -übertragung.

„Trial and Error“ nicht optimal

Die Entwicklung einer HPLC-Trennung ist ein sehr zeitaufwändiger Prozess und noch heute wird dabei vorwiegend nach der Methode „Trial & Error“ verfahren. Eine effiziente Arbeitsweise kann hierbei hauptsächlich durch eine durchgängige Verwendung von DoE (Design of Experiments) erreicht werden.

Obwohl eine gute Säule immer noch das Herz des HPLC-Systems ist, sollte immer mehr Aufmerksamkeit auf optimale Werte für Methodenparameter wie pH, Temperatur (T), Gradientenzeit (tG) und ternäre Eluentzusammensetzung (tC) gerichtet werden. Weitere Methodenparameter wie Gradientenform, Flussrate (F) oder Verweilvolumen können in der Gradienten­elution von Bedeutung sein. Eine mehr als drei Methodenparameter umfassende multifaktorielle Entwicklung einer HPLC-Trennung ist durch Verknüpfung von chromatographischer Modellierungssoftware und statistischer DoE-Software realisierbar. Das vorgeschlagene QbD-Konzept für die Sicherung der Qualität von HPLC-Methoden verbindet deshalb die sehr effektiven Arbeitsweisen von Computer-unterstützter HPLC-Trennoptimierung (CMD) und statistischer Versuchsplanung (DoE).

Trennoptimierung

Zur Optimierung wichtiger HPLC-Methodenparameter wie Gradientenzeit, Säulentemperatur, ternäre Eluentzusammensetzung oder pH des wässrigen Eluenten sind 12 x 3 = 36 Experimente notwendig. Die experimentellen Chromatogramme aller 36 Grundläufe liefern die Daten (Retentionszeiten und Peakflächen) für eine exakte Peakzuordnung mit dem Softwaretool „Peakmatch“ als Voraussetzung zur 3D-Modellierung der Einflussgrößen Gradientenzeit, Temperatur, ternäre Eluentzusammensetzung und pH in Abhängigkeit von der Auflösung des jeweiligen kritischen Peakpaares. Wenn nur drei HPLC-Parameter für die Trennung signifikant sind, bringt die Strategie der 3-Faktor-Optimierung mit der chromatographischen Modellierungssoftware Drylab 4 einen wesentlichen Fortschritt für das Aufspüren und Verifizieren des „globalen Optimums“ der Trennung. Aufgrund dieser Limitierung können mit den 3-Faktor-Modellen „tG-T-pH“ und „tG-T-tC“ die multidimensionale Kombinationen und Wechselwirkungen aller signifikanten HPLC-Parameter (in der Regel sind es weit mehr als drei Parameter) nicht gleichzeitig betrachtet werden, wie in der „Design-Space“-Definition [5] gefordert.

Tatsache ist aber, dass das wahre Optimum, d.h. das „globale Optimum“, nur gefunden werden kann, wenn alle signifikanten Faktoren einer HPLC-Trennung gleichzeitig variiert werden können. Um global zu optimieren, wäre z.B. ein x-Faktor-Modell zur simultanen Variierung der HPLC-Parameter notwendig. Man muss sich hierfür ein multidimensionales Gebilde vorstellen, in dem man genau die Einstellung an Faktoren finden muss, die zur Trennung aller Peaks führt [6].

Statistische Versuchsplanung

Mit statistischer Versuchsplanung [7] zu arbeiten, bedeutet bereits vor Beginn einer Versuchsreihe klare Ziele zu definieren und systematisch vorzugehen. Mit wenigen Versuchen kann der Wirkzusammenhang zwischen sieben Einflussgrößen und zwei Zielgrößen der HPLC-Methode ermittelt und gut durch ein empirisches Prozessmodell (s. Abb. 1) beschrieben werden. Da die Schätzung von Wechselwirkungen zwischen den Einflussgrößen in der Optimierung von HPLC-Trennungen sehr wichtig ist, wird hier ein Rechtschaffner-Versuchsplan für „Response Surface Modeling“ [9] zur Lösung der Aufgabenstellung einer multifaktoriellen Trennoptimierung verwendet. Dieser Versuchsplan-Typ erlaubt die Untersuchung aller linearen Haupteffekte, deren eventuelle Nichtlinearität in quadratischer Näherung sowie aller Wechselwirkungen ohne Vermengungen. Alle SVP-Experimente wurden mit dem Drylab tG-T-tC-Modell simuliert. Zu beachten sind die „negativen“ Auflösungswerte der Peakpaare [10]. Diese Peakpaare weisen in Abhängigkeit von den experimentellen Bedingungen eine Peakumkehr auf.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Statistische Absicherung

Grundlage der Monte-Carlo-Simulation (MCS) ist es, einen zuverlässigen, robusten Arbeitspunkt innerhalb des Faktorraums zu finden, welcher auch die Unschärfe des Models berücksichtigt. Dies geschieht mittels Simplex-Verfahren indem die Einflussgrößen der Methode solange variiert werden, bis eine maximale Annäherung an die Zielgrößen erreicht ist. Um zu verhindern, dass die Optimierung im lokalen Optimum einzelner Zielgrößen endet, werden immer von mehreren Startpunkten Optimierungsschleifen simultan und konkurrierend gestartet. Ist die Faktoreinstellung eines globalen Optimums gefunden, ist es notwendig die natürlichen Einstellgenauigkeiten der Methode zu untersuchen. Dies bedeutet, dass untersucht wird, ob die Methode noch robust ist, wenn alle Faktoren unabhängig voneinander innerhalb ihrer Ungenauigkeit variieren.

Eine standardisierte Methode diese Unschärfe zu untersuchen, stellt die Monte-Carlo-Simulation dar. Für diese Simulation werden die zukünftig anzunehmenden Toleranzen der Faktoren aus den Gerätespezifikationen entnommen beziehungsweise abgeschätzt und anschließend über eine Vielzahl unabhängiger Variationen innerhalb der MCS auf ihren Einfluss hin ausgewertet.

Robuster HPLC-Design-Space

Im Mittelpunkt des QbD-Ansatzes steht die Schätzung eines Design-Space. Mit ihm kann dargestellt werden, wie die Faktor-Einstellungen um einen ausgewählten Arbeitspunkt variiert werden dürfen, ohne die Einhaltung der Zielgrößen-Spezifikation(en) zu gefährden. Zur Absicherung des geringsten Risikos muss berücksichtigt werden, welche Auswirkungen die Unsicherheit in den Faktoren sowie die Unsicherheit aus den Einzel­modellen auf die Zielgrößen haben. Eine Risikoabschätzung selbst in den Grenzbereichen ist berechenbar und wird als Fehlerrisiko in % oder DPMO im „Probability Contour Plot“ [11] als Konturlinien angezeigt. Der „Probability Contour Plot“ (s. Abb. 2) ist somit ein robustes Werkzeug zur Verifikation des Design Space. Hier zeigen die roten Bereiche den experimentellen Bereich an, in dem das Risiko für Fehler (59%) hoch ist und somit die Wahrscheinlichkeit, dass die Spezifikationen (Rs ≥ 1,5 und tRmax ≤ 20 min) eingehalten werden kann, gering ist. Gut ist auch zu erkennen, dass die Einflussgrößen tG, T und tC enger gefasst werden müssen, mit dem Ziel die Trennung mit einem geringen Fehlerrisiko ausführen zu können. Die grünen Bereiche stellen den Subbereich des experimentellen Bereiches dar. Für eine selektive und robuste Trennung mit einem Fehlerrisiko von 0,5% sind die Einstellbereiche der HPLC-Faktoren für eine realistische Schätzung des Design-Space in Tabelle 1 dargestellt.

Zusammenfassung

Die vorgestellte Vorgehensweise zeigt eine Methodik auf, wie den Forderungen nach QbD bei einer HPLC-Trennung sehr effizient nachgekommen werden kann. Mit der Verwendung der Design-Space-Schätzung und des Probability Contour Plots ist eine Methodik zur Identifizierung eines robusten Design Space auch in der HPLC gegeben. Das Ergebnis ist eine realistische Schätzung des HPLC-Bereiches, in dem das Risiko für Fehler gering und die Wahrscheinlichkeit, dass die Spezifikationen eingehalten werden kann, hoch ist. Die Anwendung chromatographischer Modellierungssoftware zur Methodenentwicklung und zur Simulation der Experimente des Versuchsplans sowie dessen Erstellung und Auswertung mit statistischer DoE-Software ermöglichen eine effiziente Arbeitsweise in der multifaktoriellen HPLC-Trennoptimierung.

Literatur:

[1] P. Nethercote, et al., "QbD for Better Method Validation and Transfer," Pharmamanuf. online, www.pharmamanufacturing.com/articles/2010/060.html, accessed June 10, 2012.

[2] P. Nethercote and J. Ermer, “QbD for Analyticals Methods: Implication for method Validation and Transfer.”Pharm Tech., 36 (10), 74-79 (2012)

[3] M. Nasr, FDA, Lecture on “Quality by Design in HPLC: The Balance Between Chromatography and Chemometrics” at Pittsburgh Conference, Atlanta, USA, March 2011.

[4] K.E. Monks, “High Performance Liquid Chromatography Method Development Strategy for Pharmaceutical Applications within a Quality by Design Framework”, Dissertation, Freie Universität Berlin, (2012).

[5] ICH Q8 (R2) – Guidance for Industry, Pharmaceutical Development, 2009.

[6] M. Pfeffer, in HPLC richtig optimiert: Ein Handbuch für Praktiker, WILEY-VCH Verlag GmbH & Co. KGaA, Weinheim 2006, 627-650.

[7] Taschenbuch Versuchsplanung: „Praxisreihe Qualitätswissen“, Wilhelm Kleppmann, Hanser Verlag, 2008, 323 Seiten.

[8] Th.Wember,“Technische Statistik und statistische Versuchsplanung“, (Eigenverlag als Kursunterlagen, (2006).

[9] L. Eriksson et.al.,“Design of Experiments: principles and applications“, MKS Umetrics AB, 2008.

[10] Y. Vander Heyden, “Common Problems with Method Optimization in pharmaceutical Analysis”, LCGC Europe, 24(8), 423 (2011).

[11] AppNote 24 ConturProbabilityPlot, MKS Umetrics AB, (2012) p.6.

* Dr. H.-W. Bilke: LC-Pharm-HPLC-Expert Service, 83098 Brannenburg

* *S. Moser: Moser Process Optimization, 83131 Nußdorf

(ID:38276710)