walidacja.pdf

(307 KB) Pobierz
SPIS TREŚCI
M ETODY STATYSTYCZNE W WALIDACJI PROCESÓW TECHNOLOGICZNYCH
Michał Iwaniec, StatSoft Polska Sp. z o.o., ul. Kraszewskiego 36, 30-110 Kraków
Marek Skowronek, PLIVA Kraków S.A., ul. Mogilska 80, 31-546 Kraków
Artykuł jest poświęcony metodom statystycznym wykorzystywanym podczas walidacji procesów technologicznych
w przemyśle farmaceutycznym. Przed wprowadzeniem produktu leczniczego do sprzedaży, wymagane jest, aby
stosowane procesy wytwarzania produktów leczniczych były zwalidowane. W ocenie zdolności procesu do
spełnienia założonych kryteriów zalecane jest stosowanie statystycznych metod analizy danych, jednak przepisy
nie precyzują, jakiego rodzaju metody należy zastosować podczas walidacji procesu. Artykuł ma na celu
zaproponowanie odpowiednich metod statystycznych oraz przykładów ich użycia. W celu poprawnego
przeprowadzenia procesu walidacji, należy postępować według odpowiedniego schematu. W artykule zostały
wyszczególnione i opisane poszczególne etapy walidacji, w których niezbędne jest użycie metod statystycznych
oraz opisane zostały zależności pomiędzy poszczególnymi etapami.
The article is devoted to statistical methods used in pharmaceutical process validation. Process validation is
demanded as the means of ensuring and providing documentary evidence that processes (within their specified
parameters) are capable of consistency producing a finished product of the required quality. In judging of
process capability to meet criterions it is recommended to use statistical methods of data analysis, but it is not
specified, what the statistical methods should be. The article proposes appropriate methods and examples of
their use. To carry out the validation process properly it should be done in a right pattern. The article describes
individual stages of the validation process, in which using statistical method is essential. There are also
described dependences between individual stages.
Słowa kluczowe: Walidacja – Profil uwalniania – Stabilność procesu – Normalność zbioru danych –
Autokorelacja – Zdolność procesu
1
I. Wstęp
analiz. Plan powinien zawierać również wyraźnie
określone kryteria akceptacji. Walidacja
prospektywna procesu powinna być wykonana dla co
najmniej trzech kolejnych serii w skali produkcyjnej
w ostatecznie ustalonych warunkach.
Walidacja procesów technologicznych powinna
przebiegać według następującego schematu:
1) Analiza krytyczności procesu
2) Analiza założeń procesu
3) Analiza stabilności procesu
4) Analiza zdolności procesu
Przejście do kolejnego etapu procesu walidacji
powinno być poprzedzone pomyślnym
zakończeniem poprzedniego etapu, w przeciwnym
przypadku najprawdopodobniej nie będą spełnione
odpowiednie założenia, których wymagają
stosowane procedury statystyczne.
Rezultaty walidacji powinny być ujęte w zwięzłym
raporcie końcowym, zawierającym podsumowanie
analiz oraz wnioski i zalecenia dotyczące procesu.
Organy państwowe sprawujące nadzór nad produkcją
leków wymagają, aby procesy wytwarzania
produktów leczniczych były zwalidowane. Zakład
farmaceutyczny zobowiązany jest dostarczyć
władzom odpowiednie dane, które pochodzą z
walidacji procesu w celu uzyskania zgody na
dopuszczenie danego produktu leczniczego do
obrotu. Ogólne zasady przeprowadzania walidacji
procesu zostały określone w wytycznych do
przepisów Dobrej Praktyki Wytwarzania. Regulacje
te definiują walidację procesu jako dostarczenie
udokumentowanych dowodów na to, że proces
prowadzony jest w ustalonym zakresie parametrów,
przebiega skutecznie i w sposób powtarzalny oraz
umożliwia wytwarzanie produktu leczniczego
spełniającego z góry ustalone wymagania
specyfikacji. W ocenie zdolności procesu do
spełnienia założonych kryteriów zalecane jest
stosowanie statystycznych metod analizy danych,
jednak przepisy nie precyzują, jakiego rodzaju
metody należy zastosować. Artykuł ten ma na celu
zaproponowanie odpowiednich metod statystycznych
oraz rozwiązań informatycznych, które pozwalają na
sprawną walidację procesów technologicznych.
III. Analiza krytyczności procesu
Przed rozpoczęciem prac walidacyjnych niezbędne
jest przeprowadzenie analizy krytyczności procesu,
której celem jest wyznaczenie etapów procesu
technologicznego, które mają potencjalnie
największy wpływ na jakość produktu leczniczego.
W przypadku nowych procesów, krytyczne operacje
jednostkowe oraz kluczowe parametry procesu
identyfikowane są w ramach prac badawczo-
rozwojowych prowadzonych w skali laboratoryjnej.
Doświadczenia laboratoryjne powinny umożliwić
zbudowanie modelu podstawowych zależności
pomiędzy parametrami wejściowymi (zmiennymi
procesu) a parametrami wyjściowymi (odpowiedzią
procesu) oraz określenie optymalnych wartości
nominalnych i dozwolonego zakresu tolerancji. Na
podstawie badań rozwojowych zakład powinien
wykazać, że proces został zoptymalizowany, że
zostały zidentyfikowane jego punkty krytyczne i że
został opracowany protokół walidacji, którego celem
jest potwierdzenie stabilności i zdolności procesu do
spełnienia założonych kryteriów akceptacji w skali
produkcyjnej. Analiza krytyczności procesu może
być zilustrowana za pomocą prostych narzędzi
graficznych takich jak schemat blokowy czy diagram
przyczynowo skutkowy (zwany też diagramem ryby
lub diagramem Ishikawy).
II. Ogólne założenia walidacji procesów
technologicznych
Walidacja powinna zostać przeprowadzona dla
nowych procesów lub dla procesów, które były
zwalidowane niemniej zostały zmodyfikowane.
Walidacja powinna być zakończona przed
rozpoczęciem dystrybucji i sprzedaży produktu
leczniczego (walidacja prospektywna – walidacja
przeprowadzana przed uruchomieniem rutynowego
wytwarzania produktów leczniczych przeznaczonych
do sprzedaży). W wyjątkowych sytuacjach, gdy nie
jest to możliwe, dokonuje się zwalidowania procesu
podczas rutynowej produkcji (walidacja
równoczesna). Walidacja powinna obejmować
wszystkie etapy wytwarzania od momentu
opracowania technologii, aż do fazy przekazania
procesu do rutynowej produkcji. Pomieszczenia,
urządzenia i media powinny być poddane
kwalifikacji a metody badań analitycznych
zwalidowane przed przystąpieniem do walidacji
procesu. Pracownicy uczestniczący w pracach
walidacyjnych powinni być odpowiednio
przeszkoleni. Przygotowanie i wykonanie walidacji
powinno przebiegać zgodnie z opracowanym do tego
celu planem, zawierającym wyraźnie zdefiniowany
cel każdego testu, schemat próbkowania,
odpowiedzialność za pobór próbek i wykonanie
2
1. Przykład oceny krytyczności procesu
Poniższy przykład przedstawia proces wytwarzania
tabletek metodą bezpośredniej kompresji, który
składa się z następujących operacji:
♦ Naważania
♦ Przesiewania
♦ Mieszania
♦ Tabletkowania
Jednym z głównych celów prac rozwojowych było
takie zaprojektowanie procesu mieszania, który nie
spowoduje segregacji cząstek podczas transferu
mieszaniny do fazy tabletkowania i zapewni
otrzymanie produktu końcowego o akceptowalnej
jednorodności zawartości substancji czynnej. Na
etapie prac badawczo-rozwojowych określone
zostały krytyczne etapy, parametry procesu oraz
podstawowe zależności pomiędzy zmiennymi
procesu a odpowiedzią procesu. Wygodnym
sposobem zilustrowania ogólnego modelu procesu
wraz z zaznaczonymi krytycznymi parametrami
wejściowymi i wyjściowymi jest schemat blokowy
(Rys. 1).
Rys. 2. Diagram Ishikawy dla jednorodności zawartości.
Operacjami krytycznymi w tym procesie są operacje
mieszania i tabletkowania. Celem operacji mieszania
substancji wejściowych jest otrzymanie homogennej
mieszaniny z jednorodnym rozkładem substancji
czynnej. Operacja tabletkowania jest natomiast
odpowiedzialna za zawartość substancji czynnej w
jednostce produktu leczniczego. Bezpośredni wpływ
na zawartość substancji czynnej w jednostce
produktu leczniczego ma jednorodność mieszaniny,
która z kolei zależy od następujących zmiennych
procesowych: kolejności załadunku surowców,
wypełnienia bina, czasu oraz prędkości mieszania.
Jednorodność zawartości substancji czynnej w
tabletkach zależy od masy tabletek, która jest
kontrolowana poprzez utrzymanie stałej siły zgniotu,
poprzez regulowanie ilości dozowanej mieszaniny.
Czynnikami wpływającymi na zachowanie stałej
masy są również prędkość tabletkowania oraz
własności fizyczne mieszaniny: gęstość, czas zsypu,
rozkład cząstek.
Rys. 1. Schemat blokowy procesu tabletkowania.
Relacje pomiędzy parametrami wejściowymi a
wybranym parametrem odpowiedzi procesu ilustruje
przykład jednorodności zawartości substancji
czynnej w finalnej formie produktu leczniczego
(Rys. 2).
IV. Analiza założeń procesu
Po przeprowadzeniu analizy krytyczności niezbędna
jest weryfikacja założeń, jakim powinny podlegać
zbiory danych zebrane dla poszczególnych
parametrów wyjściowych. Podstawowym
założeniem, które musi być spełnione aby móc użyć
większości analiz statystycznych przytoczonych w
następnych rozdziałach, jest by dane generowane
przez proces podlegały rozkładowi normalnemu o
wartości oczekiwanej μ i zmienności σ. Zakłada się,
że zarówno μ jak i σ są stałe lecz nieznane.
Najlepszym przybliżeniem μ jest wartość średnia x
definiowana wzorem:
x
=
1
=
n
x
n
i
i
1
Najlepszym przybliżeniem σ jest natomiast
odchylenie standardowe wyrażane wzorem:
3
217064058.001.png
=
n
(
x
x
)
2
Do wizualnej oceny normalności rozkładu zbioru
danych bardzo przydane jest dopasowanie do
histogramu teoretycznej krzywej rozkładu
normalnego. Parametry teoretycznego rozkładu
normalnego (μ oraz σ) zostały obliczone na
podstawie zbioru danych. Warto zauważyć, że w
przypadku oceny normalności nie jest ważne
uporządkowanie zbioru. W celu weryfikacji hipotezy
o normalności rozkładu często stosuje się testy
statystyczne, których rezultatem jest pojedyncza
wartość liczbowa, w oparciu o którą można przyjąć
bądź odrzucić stawianą hipotezę. Najczęściej
stosowanym testem normalności rozkładu jest test
Shapiro-Wilka. Parametrem, który ocenia
normalność rozkładu w tym przypadku jest parametr
W . Jeżeli wartość p odpowiadająca otrzymanemu W
jest większa od 0,05, wtedy nie ma podstaw aby
odrzucić hipotezę o normalności rozkładu (Rys. 3).
Inną graficzną metodą oceny normalności zbioru
danych jest wykres normalności, który otrzymywany
jest w następujący sposób. Najpierw wszystkie
wartości zmiennej porządkowane są w kolejności
rosnącej i przyporządkowane są im rangi (ranga –
kolejny numer obserwacji, uzyskany po
uporządkowaniu obserwacji według ich wartości).
Następnie dla kolejnych rang obliczane są
odpowiadające im wartości Z (według
standaryzowanego rozkładu normalnego). Mówiąc
dokładniej, wartość normalna z j dla j -tej wartości
ustawionej w kolejności rosnącej (rangi), zmiennej o
sumarycznej liczbie obserwacji równej n , obliczana
jest według wzoru:
i
s
=
i
1
n
1
Ponadto dane generowane przez proces nie mogą być
od siebie zależne. Można więc powiedzieć, że jeżeli
proces jest ustabilizowany to zmienność parametru
wyjściowego w czasie t , może być reprezentowana
przez następujący model:
x
t
=
μ
+
ε
t
t
=
1
2
.
.
.
gdzie: realizacja składnika losowego ε podlega
rozkładowi normalnemu (z brakiem korelacji
pomiędzy poszczególnymi składnikami) o wartości
oczekiwanej równej zero i odchyleniu standardowym
s . Model ten jest często nazywany modelem
Shewarta procesu.
Zatem w celu weryfikacji czy odpowiedź procesu
spełnia założenia modelu Shewarta, sprawdzić trzeba
czy zbiór danych wygenerowany przez dany
parametr procesu spełnia następujące założenia:
♦ Normalność – składnik losowy ε powinien
podlegać rozkładowi normalnemu
♦ Niezależność – dane nie powinny być wzajemnie
ze sobą skorelowane
Weryfikacja powyższych założeń powinna być
przeprowadzona dla każdego parametru procesu,
który będzie podlegał ocenie statystycznej w ramach
walidacji procesu.
1. Weryfikacja założenia normalności
Przystępując do statystycznej oceny jakiegokolwiek
parametru najlepiej jest zacząć od wizualizacji
danych, która pozwoli wstępnie ocenić analizowany
zbiór danych. W przypadku oceny normalności
dobrą metodą wizualizacji jest histogram (Rys. 3).
j
1
z j
=
Φ
1
3
n
+
1
3
Φ jest funkcją odwrotną do dystrybuanty
rozkładu normalnego (przekształcającą
prawdopodobieństwo p w wartość zmiennej Z ).
Tak otrzymane wartości Z odkładane są na osi
pionowej wykresu (oczekiwana normalna). Jeżeli
wartości obserwacji (odkładane na osi poziomej)
podlegają rozkładowi normalnemu, to otrzymane
punkty powinny układać się mniej więcej na linii
prostej (Rys. 4). Znaczące odchylenia od prostej
wskazują, że analizowana zmienna podlega
rozkładowi innemu niż normalny.
Rys. 3. Histogram dla parametru procesu.
4
gdzie
217064058.002.png
Rys. 4. Wykres normalności dla parametru procesu.
aby zbiór danych był uszeregowany względem
czasu.
Bardzo prostym sposobem sprawdzenia
autokorelacji, jest policzenie współczynnika
korelacji pomiędzy analizowanym szeregiem
danych a tym samym szeregiem przesuniętym o
jedną wartość ( k = 1). Jeżeli otrzymany
współczynnik korelacji będzie miał dużą
wartość wtedy jest to równoważne autokorelacji
pomiędzy i a i -1 elementem szeregu. Niestety
współczynnik korelacji jest statystyką bardzo
czułą na wartości odstające i w przypadku
badania korelacji pomiędzy różnymi zbiorami
danych, należy zwrócić uwagę, czy na wykresie
rozrzutu nie ma wartości odstających. Na
szczęście w przypadku oceny autokorelacji
(Rys. 6), taka sytuacja nie wystąpi, gdyż tak
naprawdę badany jest jeden zestaw danych.
Następną metodą oceny normalności, która dostarcza
konkretnych informacji o rozkładzie, jest metoda
polegająca na obliczeniu wartości skośności i
kurtozy. Poniżej (Rys. 5), przedstawione są
przykładowe statystyki opisowe dla parametru
procesu z włączoną skośnością i kurtozą.
Rys. 5. Statystyki opisowe parametru procesu.
Jeżeli wartości skośności lub kurtozy są różne od
zera, wtedy są podstawy aby twierdzić, że
analizowany zbiór danych nie podlega
rozkładowi normalnemu. Bardzo istotne jest,
żeby zwrócić uwagę na to czy otrzymane
wartości kurtozy i skośności są istotne
statystycznie, czy też są wynikiem naturalnej
zmienności wewnątrz danych. W przypadku
rozważanego parametru procesu (Rys. 5),
wartości błędów standardowych zarówno dla
skośności jak i kurtozy są większe od wartości
tych parametrów. Zatem można stwierdzić, że
rozkład analizowanego zbioru danych nie
posiada skośności ani kurtozy, tak więc nie ma
podstaw do stwierdzenia odstępstw od
normalności.
Rys. 6. Wykres rozrzutu
Wadą tej metody oceny autokorelacji jest to, że
bardzo mało mówi o procesie jako o całości,
gdyż pozwala na obliczenie korelacji tylko dla
jednej wartości opóźnienia. Może się zdarzyć
np. tak, że dla opóźnienia równego 1
współczynnik korelacji będzie bardzo mały,
natomiast dla innych opóźnień korelacja może
być duża.
Statystyką, która podsumowuje całą
autokorelację szeregu jest współczynnik
autokorelacji (Rys. 7), pozwalający na szybką
ocenę autokorelacji dla różnych opóźnień.
Wartość autokorelacji dla danego opóźnienia
jest istotna statystycznie, jeżeli odpowiadająca
mu wartość korelacji (reprezentowana słupkiem)
jest większa od przedziału ufności zaznaczonego
linią przerywaną. W przypadku wyraźniej
autokorelacji statystyka ta pozwala także ocenić
jej naturę (np. okresowość).
2. Weryfikacja niezależności składnika
losowego
Drugim bardzo ważnym założeniem dla zbioru
danych jest brak autokorelacji składnika
losowego w analizowanym zbiorze danych.
Autokorelacja jest to korelacja szeregu danych z
nim samym, przesuniętym o określoną liczbę
obserwacji (oznaczoną przez k i nazywaną
opóźnieniem). W tym przypadku kluczowe jest
5
217064058.003.png 217064058.004.png
Zgłoś jeśli naruszono regulamin