LOD: Wo kommt eigentlich die "3,3" her oder: die zugrundeliegende Statistik

Geschrieben von Dr. Janet Thode Veröffentlicht in Methodenvalidierung

Wer sich schon einmal gefragt hat, warum man die Nachweisgrenze (Limit of detection, LOD) eigentlich mit der Formel

LOD = 3,3 x Standardabweichung / SteigungKalibriergrade

berechnet und wo da die 3,3 eigentlich herkommt, dem mag dieser Beitrag vielleicht ein wenig Licht ins Dunkel bringen.

 

Dem Ganzen zu Grunde liegt ein Konzept von Wahrscheinlichkeiten. Man könnte als Null-Hypothese postulieren, dass sich das Ergebnis einer Probe mit einer sehr geringen Analytkonzentration statistisch nicht vom Blindwert unterscheidet und dies mit einem t-Test prüfen.

Wenn wir also andersrum denken, ist die Nachweisgrenze daher auch als diejenige kleinste Analytkonzentration definiert, deren umgebendes 95%-Konfidenzintervall sich nicht mit dem Blindwert (Blank) überschneidet [1]. Sie ist also diejenige Analytkonzentration, die sich zuverlässig vom Limit of Blank (LOB) unterscheiden lässt.

Unter dem LOB wird diejenige Analytkonzentration verstanden, unterhalb dessen sich 95% der Messsignale befinden, wenn man eine Blindprobe mehrfach misst. Die verbleibenden 5% repräsentieren falsch-positive Signale (also Signale, die eine sehr niedrige Konzentration eines Analyten in der Probe vorgaukeln, obwohl gar kein Analyt enthalten ist), statistisch gesprochen also den α-Fehler. Bei einer Wahrscheinlichkeit von α = 0,05 (= 5%) ergibt sich ein einseitiger Student t-Wert von 1,65 (bei unendlich vielen Freiheitsgraden). Damit berechnet sich der LOB wie folgt LOB = MittelwertBlank + 1.65 x StandardabweichungBlank [2]. Alle Werte oberhalb des LOBs sollten als positiv deklariert werden.

Im Falle, dass sich der wahre Wert der Analytkonzentration einer Probe genau auf dem LOB befinden würde, würde das bedeuten, dass sich 50% der Messergebnisse unterhalb des LOBs befänden, was einem Fehlerrisiko von 50% für falsch-negative Ergebnisse entspräche. Da dies nicht gerade besonders praktisch ist, wird daher für den β-Fehler (also für das Eintreffen falsch-negativer Ergebnisse) analog des α-Fehlers auch 5% angesetzt. Diese 5% entsprechen wieder einem einseitigen Student t-Wert von 1,65 und die Nachweisgrenze muss daher 1.65 x Standardabweichung über dem LOB liegen, woraus sich dann der Gesamtfaktor von 1,65 + 1,65 = 3,3 x SD ergibt.

Das klingt alles gut und schön und nehmen wir auch so hin, ohne uns jedoch Gedanken um den Freiheitsgrad zu machen, denn natürlich messen wir unsere Blindprobe nicht unendlich oft. Aus diesem Grunde wird im Eurachem Guide erwähnt, dass „für eine statistisch strenge Schätzung der Nachweisgrenze der verwendete Multiplikationsfaktor die Anzahl der mit der Schätzung der Standardabweichung verbundenen Freiheitsgrade berücksichtigen sollte“ und erläutert an einem Beispiel, dass sich bei 10 Wiederholungsmessungen (also 9 Freiheitsgraden) ein Student t-Wert von 1,83 für α = 0.05 ergibt und sich die Nachweisgrenze also mit 3,7 x SD berechnet [3].

 

Referenzen

[1] Kromidas S. (2011). Validierung in der Analytik, Wiley-VCH Verlag GmbH & Co KGaA, Weinheim, ISBN 978-3-527-32939-7

[2] Armbruster D. A., Pry T. (2008). Limit of Blank, Limit of Detection and Limit of Quantitation. Clin Biochem Rev, Vol 29 Suppl (i):49-52

[3] B. Magnusson and U. Ornemark (eds.) Eurachem Guide: The Fitness for Purpose of Analytical Methods – A Laboratory Guide to Method Validation and Related Topics (2nd ed. 2014)