Ermittlung der Richtigkeit und Präzision an der Bestimmungsgrenze

Vor einiger Zeit hat mich als Reaktion auf den Blogbeitrag „Wie bestimme ich die LOD mit Hilfe der Kalibrierfunktion?“ die Anfrage erreicht, wie man denn bei Methodenvalidierungen für Arzneimittel die Richtigkeit und die Präzision an der Bestimmungsgrenze (limit of quantitation, LOQ) ermitteln könnte.
Stellen wir uns vor, wir haben eine HPLC-Methode, mit der wir Verunreinigungen quantifizieren wollen. Während der Methodenentwicklung haben wir im Rahmen einer Feasibility Study bereits eine Abschätzung der Bestimmungsgrenze gemacht. In unserem Beispiel sagen wir, wir wissen, dass sie bei ca. 0,2% der Arbeitskonzentration liegt. Die Methodenvalidierungsguideline ICH Q2(R1) gibt uns vor, dass die Bestimmungsgrenze durch eine geeignete Anzahl an Proben mit einer Konzentration nahe oder gleich der Bestimmungsgrenze validiert werden soll („The limit should be subsequently validated by the analysis of a suitable number of samples known to be near or prepared at the quantitation limit.“). Entsprechend könnten wir für die Validierung der Methode jetzt z.B. 6 individuell hergestellte 0,2%-Verdünnungen der Probe injizieren und mit Hilfe des Signal-to-Noise-Verfahrens hinsichtlich der Bestimmungsgrenze auswerten. Dabei stellen wir dann hoffentlich fest, dass das Signal zu Rausch Verhältnis (S/N) aller injizierten Proben größer als 10 ist, womit wir ein zuvor im Validierungsplan definiertes Akzeptanzkriterium erfüllt haben.