Ableitung der Richtigkeit aus der Linearität – Weg 1: Normalisierung
Im heutigen Blogbeitrag wollen wir uns einem durchaus öfter auftretenden Problem bei Methodenvalidierungen annehmen und an einem praktischen Beispiel aufzeigen, welche Lösungsmöglichkeiten es gibt.
Validiert werden soll eine SE-HPLC Methode, die zur Reinheitsbestimmung eines Arzneimittels eingesetzt werden soll. Es ist bekannt, dass Verunreinigungen (dabei handelt es sich z.B. um Aggregate und / oder Bruchstücke des Produktes) zu einem geringen Prozentsatz auftreten können.
Im Chromatogramm gibt es einen Hauptpeak, der dem intakten Produkt entspricht und ein paar kleinere Nebenpeaks, die den Verunreinigungen entsprechen und als Summe zusammengefasst werden. Betrachten wollen wir jetzt den Validierungsparameter Richtigkeit ("accuracy"). Leider kann man weder die Verunreinigungen separat erhalten und zum Spiken einsetzen, noch steht eine alternative unabhängige Bestimmungsmethode zur Verfügung. In diesem Fall erlaubt die Validierungsrichtlinie ICH Q2(R1) dann eine dritte Möglichkeit zur Bestimmung der Richtigkeit: „Accuracy may be inferred once precision, linearity and specificity have been established“ (4.1.1 c / 4.1.2 c).
Das klingt interessant. Nehmen wir also an, der Beweis der Spezifität wäre kein Problem, dann müssten wir also die Richtigkeit aus der Linearität ableiten können und prüfen, ob die Ergebnisse dabei auch noch präzise sind. Das klingt durchaus realisierbar.
Schauen wir uns dies an einem konkreten Beispiel an. Für die Bestimmung der Linearität waren 5 Konzentrationen geplant (Untersuchungslevel: 80%, 90%, 100%, 110%, 120% der Testkonzentration, die konkreten Konzentrationen lassen wir zur Vereinfachung weg). Da wir dabei die Richtigkeit ja gleich mit abdecken möchten, haben wir für jede dieser Konzentrationen 3 unabhängige Verdünnungen angesetzt. Nach Durchführung der Experimente haben wir diesen Datensatz hinsichtlich der absoluten Peakflächen erhalten:
Absolute Peakfläche [µAU*s] | ||
Untersuchungs-level (%) | Summe der Nebenpeaks | Hauptpeak |
120 | 99104 | 15949990 |
96153 | 15988085 | |
97723 | 15879248 | |
110 | 89383 | 14567078 |
87474 | 14592610 | |
88355 | 14558575 | |
100 | 77587 | 13275901 |
76162 | 13264078 | |
78209 | 13285496 | |
90 | 65802 | 11513839 |
67811 | 11937356 | |
68012 | 12037029 | |
80 | 54208 | 10489899 |
55611 | 10594228 | |
56819 | 10683872 |
Für die Bestimmung der Linearität wurden sowohl für die Summe der Nebenpeaks als auch für den Hauptpeak die Peakflächen gegen die tatsächlichen Konzentrationen aufgetragen und Regressionsgeraden mit jeweils einem Bestimmtheitsmaß von R2 > 0.99 erhalten (hier jetzt nicht gezeigt). Damit ist das vordefinierte Akzeptanzkriterium für die Linearität erfüllt und auf jeden Fall eine eindeutige Linearität gegeben. Somit können diese Daten dann auch für die Evaluierung der Richtigkeit herangezogen werden.
Bevor wir uns der Auswertung dieses Datensatzes zuwenden, sollten wir uns noch einmal vor Augen halten, was wir eigentlich zeigen wollen. Die Richtigkeit ist folgendermaßen definiert: „The accuracy of an analytical procedure expresses the closeness of agreement between the value which is accepted either as a conventional true value or an accepted reference value and the value found.“. Konkret heißt das, dass wir zeigen wollen, wie gut ein gemessener Wert dem tatsächlichen theoretischen Wert entspricht. Messwerte haben wir, aber wie ermitteln wie die tatsächlichen theoretischen Werte? Dafür gibt es verschiedene Ansätze – heute machen wir es mit einer Normalisierung und in einem folgenden Blogbeitrag werden wir einen anderen Weg aufzeigen.
Hm, wie geht das jetzt mit dem Normalisieren?
Durch das Normalisieren wollen wir alle erhaltenen Messwerte mit dem Wert für das Untersuchungslevel 100% vergleichen. Dafür wird der jeweilige Messwert mit 100 multipliziert und durch sein Untersuchungslevel dividiert (z.B. erster Nebenpeak-Wert: 100 * 99104 / 120 = 82587). Wir rechnen sie sozusagen alle auf 100% um. Damit sieht unser umgerechneter Datensatz dann so aus:
Absolute Peakfläche [µAU*s] | |||
Untersuchungs-level (%) | Normalisiertes Level (%) | Summe der Nebenpeaks | Hauptpeak |
(120) | 100 | 82587 | 13291658 |
80127 | 13323404 | ||
81436 | 13232706 | ||
(110) | 81257 | 13242798 | |
79521 | 13266009 | ||
80322 | 13235068 | ||
(100) | 77587 | 13275901 | |
76162 | 13264078 | ||
78209 | 13285496 | ||
(90) | 73114 | 12793154 | |
75345 | 13263729 | ||
75569 | 13374477 | ||
(80) | 67759 | 13112373 | |
69513 | 13242785 | ||
71024 | 13354840 |
Wir stellen beim Betrachten der Zahlen fest, dass zumindest die Zahlen des Hauptpeaks alle recht ähnlich sind und die der Summe des Nebenpeaks auch nicht so stark voneinander abweichen. Was aber heißt jetzt „nicht so stark“? Mathematisch können wir durch dies durch die relative Standardabweichung (RSD) ausdrücken. Dafür berechnen wir zunächst den Mittelwert und die Standardabweichung (SD) und teilen dann die Standardabweichung durch den Mittelwert und multiplizieren mit 100, wodurch wir das Ergebnis in Prozent haben.
Bei unserem Beispiel erhalten wir folgende Daten:
Summe der Nebenpeaks | Hauptpeak | |
Mittelwertabsolute Peakfläche [µAU*s] | 76635 | 13237232 |
SDabsolute Peakfläche [µAU*s] | 4581 | 136803 |
RSD [%] | 6,0 | 1,0 |
Wie wir schon visuell an den Zahlen erkennen konnten, ist die relative Standardabweichung des Hauptpeaks mit 1% und die der Summe der Nebenpeaks mit 6% noch in sehr gutem bzw. absolut vertretbaren Rahmen. Wenn wir jetzt wieder an die Definition der Richtigkeit denken, was heißt das also? Es heißt, dass unsere gemessenen Werte, wenn wir sie auf 100% umrechnen, dem theoretischen Wert sehr gut entsprechen und damit unsere Messung wirklich recht richtig ist. Wir können also die relative Standardabweichung normalisierter Werte als Akzeptanzkriterium für die Bestimmung der Richtigkeit basierend auf den Linearitätsdaten heranziehen. Welche konkreten Grenzwerte als Akzeptanzkriterien zu wählen sind, kann nicht pauschal gesagt werden. Das beruht auf dem jeweils zulässigen Fehler und der maximal möglichen Richtigkeit der Methode. In unserem Beispiel jedoch wäre man mit einem Akzeptanzkriterium von RSD ≤ 10% für die Summe der Nebenpeaks und von RSD ≤ 2% für den Hauptpeak im grünen Bereich ;-)
Da war doch noch was… – wie sieht das mit der Präzision aus?
Ja, richtig, die ICH Q2(R1) gab dabei doch auch vor, dass die Präzision ebenfalls zu betrachten sei, siehe „Accuracy may be inferred once precision, linearity and specificity have been established“.
Dafür nehmen wir uns wieder unseren Datensatz, schauen uns dafür aber jetzt nicht die absoluten Peakflächen, sondern die relativen Peakflächen in area% an. Üblicherweise werden die bereits von der Software des Chromatografie-Systems mit ausgewertet und angeben. Alternativ könnte man sie sich natürlich auch selbst ausrechnen, in dem man für den jeweiligen Peak seinen Anteil an der Summe aller Peaks berechnet. In unserem Beispiel sieht das so aus:
Relative Peakfläche [area%] | ||
Untersuchungs-level (%) | Summe der Nebenpeaks | Hauptpeak |
120 | 0,6175 | 99,3825 |
0,5978 | 99,4022 | |
0,6116 | 99,3884 | |
110 | 0,6099 | 99,3901 |
0,5959 | 99,4041 | |
0,6032 | 99,3968 | |
100 | 0,5810 | 99,4190 |
0,5709 | 99,4291 | |
0,5852 | 99,4148 | |
90 | 0,5683 | 99,4317 |
0,5648 | 99,4352 | |
0,5618 | 99,4382 | |
80 | 0,5141 | 99,4859 |
0,5222 | 99,4778 | |
0,5290 | 99,4710 |
Theoretisch erwarten wir, dass wenn wir die Peakflächen zueinander ins Verhältnis setzen, diese unabhängig von der Verdünnung immer gleich sein sollten und damit lediglich den Schwankungen der Präzision ausgesetzt sind. Daher berechnen wir auch hier die relative Standardabweichung:
Summe der Nebenpeaks | Hauptpeak | |
Mittelwertrelative Peakfläche [area%] | 0,5756 | 99,4244 |
SDrelative Peakfläche [area%] | 0,0330 | 0,0330 |
RSD [%] | 5,73 | 0,03 |
Wir stellen fest, dass obige These für den Hauptpeak auch durchaus zutrifft, für die Summe der Nebenpeaks jedoch durchaus ein Verdünnungseffekt zu beobachten ist (bei 120% liegt der Anteil im Durchschnitt bei 0,61 area%, bei 100% bei 0,58 area% und bei 80% nur noch bei 0,52 area%). Entsprechend ist die Präzision bei diesen sehr geringen Mengen auch nicht so toll wie die des vorherrschenden Hauptpeaks. Je nachdem, welche Akzeptanzkriterien gewählt wurden, kann dies jedoch noch absolut vertretbar sein.
Damit können wir zusammenfassend festhalten, dass wir bei gegebener Spezifität (das haben wir jetzt hier einfach mal vorausgesetzt) die Richtigkeit aus den Linearitätsdaten (absolute Peakflächen) durch Normalisierung auf 100% und Betrachtung der relativen Abweichung davon sowie durch Evaluierung der Präzision mit Hilfe der relativen Peakflächen ableiten können.