3.7 Neyman–Pearson lemma
rs \(X_1 , \cdots, X_n \overset {iid}{\sim} f(x_1 , \cdots, x_n ; \theta)\)이고, $H_0 : =_0, ; ; ; H_1 : =_1 $. 이때 이하를 만족하면 rejection region \(R\)은 MP test의 기각역.
\(\exists k \ge 0\):
- \(\pmb x \in R\) if \(f(\pmb x \vert \theta_1) > k f(\pmb x \vert \theta_0)\).
- \(\pmb x \in R^c\) if \(f(\pmb x \vert \theta_1) < k f(\pmb x \vert \theta_0)\).
- \(\mathbb{P}_{\theta_0} \left( \pmb X \in R \right) = \alpha\) for the prefiexed significance level \(\alpha\).
Proof:
\[\begin{align} P(\pmb X \in A \vert \theta) &= \int_A L(\theta ; \pmb x) d \pmb x \\ &= \int_A f(\pmb x ; \theta) d \pmb x \end{align}\]
이므로, \(A \subset C^\ast\)라면
\[\begin{alignat}{4} \int_A f(\pmb x ; \theta) d \pmb x &\le \int_A && k \ast f(\pmb x ; \theta) d \pmb x \\ \\ P(\pmb X \in A \vert \theta_0) &\le && k \ast P(\pmb X \in A \vert \theta_1) \end{alignat}\]
마찬가지 방법으로 \(A \subset \left( C^\ast \right)^c\)라면 \(P(\pmb X \in A \vert \theta_0) \ge k \ast P(\pmb X \in A \vert \theta_1)\).
\(C^\ast\)의 유의수준이 \(\alpha\)라 하고, 유의수준이 동일한 임의의 RR \(C\)를 가정하자. 이때 두 RR은 각각
\[\begin{align} C^\ast &= (C^\ast \cap C) \cup (C^\ast \cap C^c) \\ C &= (C^\ast \cap C) \cup ({C^\ast}^c \cap C) \end{align}\]
로 표현할 수 있으며, 두 RR에 대한 power function은 각각
\[\begin{alignat}{4} \pi^\ast(\theta) &= P(\pmb X \in C^\ast \vert \theta) &&= P(\pmb X \in C^\ast \cap C \vert \theta) &&+ P(\pmb X \in C^\ast \cap C^c \vert \theta) \\ \pi(\theta) &= P(\pmb X \in C \vert \theta) &&= P(\pmb X \in C^\ast \cap C \vert \theta) &&+ P(\pmb X \in {C^\ast}^c \cap C \vert \theta) \\ \end{alignat}\]
이때 \(H_0\)에서 두 power의 차이는
\[\begin{alignat}{4} \pi^\ast(\theta_1) -\pi(\theta_1) &= && P(\pmb X \in C^\ast \cap C^c \vert \theta_1) - P(\pmb X \in {C^\ast}^c \cap C \vert \theta_1) \\ &\ge \dfrac{1}{k} && \left\{ P(\pmb X \in C^\ast \cap C^c \vert \theta_0) - P(\pmb X \in {C^\ast}^c \cap C \vert \theta_0) \right\} \\ &= \dfrac{1}{k} && \left\{ P(\pmb X \in C^\ast \cap C^c \vert \theta_0) - P(\pmb X \in {C^\ast}^c \cap C \vert \theta_0) \\ + P(\pmb X \in C^\ast \cap C \vert \theta_0) - P(\pmb X \in C^\ast \cap C \vert \theta_0) \right\} \\ &= \dfrac{1}{k} && \left\{ \pi^\ast (\theta_0) - \pi (\theta_0) \right \} \\ &=0 && \end{alignat}\]
이에 의해 MP test의 정의를 만족한다. 이때 \(C\)의 유의수준이 \(< \alpha\)인 경우, \(\pi^\ast (\theta_1) > \pi (\theta_1)\)이 되므로, \(C^\ast\)의 \(H_1\)에서의 power인 \(\pi^\ast(\theta_1)\)은 유의수준이 \(\le \alpha\)인 모든 RR의 power보다 크거나 같음을 알 수 있다.
3.7.1 Overview
- Example
\(x\) | 1 | 2 | 3 | 4 | 5 | 6 |
---|---|---|---|---|---|---|
\(f(x \vert \theta_0)\) | .01 | .02 | .02 | .05 | .10 | .80 |
\(f(x \vert \theta_1)\) | .03 | .05 | .15 | .10 | 0 | .67 |
$ $ | .33 | .4 | .13 | .5 | \(\infty\) | 1.19 |
유의수준이란 기본적으로 \(H_0\)이 사실인데 \(H_1\)을 선택할 확률. 선택한 RR에 해당하는 \(H_0\)와 \(H_1\)에서의 density가 각각 있다면, \(H_0\)에서의 density의 합이 된다. 기각을 해버렸는데 \(H_0\)가 발생해버렸다는 소리니까.
power란 RR에서의 \(H_1\)이 발생할 확률.
test 자체가 \(H_1\)에 마음을 두고 시작하는 거임. power는 무조건 \(H_1\)에만 직결. 실패하면 어쩌지? 무지성으로 \(H_1\) 골라버리자. 이랬다가 \(H_0\) 발생해버리면? 난 망하는거잖아. 이 망함의 risk를 고정해두자. 이게 \(\alpha\).
power function은 \(H_0\)와 \(H_1\) 각각에 대해서 존재한다. 이는 각각에서의 pdf이다.
즉, 표본을 통한 $ $의 값이 크면 \(H_0\)를 기각할 이유가 없고, 작으면 기각할 근거를 갖는다. 이 값이 얼마나 작아야 기각할 수 있는가는 유의수준에 의해 결정. 이와 같이 rs의 LR을 통해 MP test의 RR을 찾을 수 있다. 이때 RR과 검정법은 실제로 동일한 것이므로 혼돈이 없다는 전제 하에 test라는 단어를 주로 사용한다.
\(LR(\theta_0, \theta_1 ; \pmb x) = \dfrac{L(\theta_0 ; \pmb x)} {L(\theta_1 ; \pmb x)}\) 는 표본의 \(\theta_0\)에 대한 지지 (그리고 \(\theta_1\)에 대한 반증)의 정도를 표현한다고 볼 수 있다.
3.7.2 Generalized LRT
rs \(\pmb X_n \overset {iid}{\sim} f(\pmb x ; \theta)\), \(H_0: \theta \in \Omega_0\), \(H_0: \theta \in \Omega_1 (=\Omega - \Omega_0)\).
$
(x) = =
$
rs \(X_1, \cdots, X_n\)의 pdf가 \(f(x ; \theta), \; \; \; \theta \in \Omega\)라고 하자. 확률구간 \(\left[ L(\pmb X_n ), U(\pmb X_n ) \right]\)가
\[ P \left[ L(\pmb X_n ) \le \theta \le U(\pmb X_n ) \right] = 1- \alpha \]
를 만족하면 이를 패러미터 \(\alpha\)의 \(100(1-\alpha) \%\) CI라 부른다.
rs \(\pmb X_n\) 의 분포가 pdf \(f(x ; \theta), \; \; \; \theta \in \Omega\)를 따른다 하자. 이때 샘플과 패러미터 \(\theta\)의 함수인 random quantity \(T(\pmb X_n ; \theta)\)의 분포가 패러미터 \(\theta\)에 의존하지 않으면 이는 pivotal quantity.
\(H_0: \theta \in \Omega_0, H_1: \theta \in \Omega - \Omega_0\) 에 대한 RR \(C^\ast\)가 이하를 만족하면 이는 UMP test. \(\pi^\ast\)가 이 test의 power function이라면
$$
{ ^() _0 } =,
$$
모든 다른 power function에 대해 위의 기각역에서의 power 가 최대.
rs $X_n $ 의 joint pdf가 \(f(\pmb X_n ; \theta)\)일 때, \(LR( \theta_1 ,\theta_2 ; \pmb X_n) = \dfrac{L(\theta_1 ; \pmb X_n)}{L(\theta_1 ; \pmb X_n)}\)가 \(\theta_1 < \theta_2\)에 대해 \(T(\pmb X_n)\)의 non-dec 혹은 non-inc라면 \(L(\theta)\)는 \(T(\pmb X_n)\)에 대해 monotone LR를 갖는다.
- Karlin-Rubin
\(H_0: \theta \le \theta_0, H_1: \theta \ge \theta_0\). \(T\)가 \(\theta\)에 대한 SS임을 가정하고, \(T\)의 pdf의 family는 MLR을 가짐. then \(\forall t_0\), reject \(H_0 \; \; \; \iff \; \; \; T>t_0\) 하는 test는 level \(\alpha\)의 UMP test이다. 이때, \(\alpha = P_{\theta_0} (T>t_0)\).
\(L(\theta ; \pmb X_n)\)이 \(T(\pmb X_n)\)에 대해 non-inc인 MLR. 이때
\(H_0: \theta \le \theta_0, H_1: \theta \ge \theta_0\)에 대한 level \(\alpha\)의 UMP test는 \(C = \left\{ \pmb X_n : T(\pmb X_n) \ge k \right\}\) 이며, 상수 \(k\)는 \(P[T(\pmb X_n) \ge k \vert H_0 ] = \alpha\)에 의해 결정.
\(H_0: \theta \ge \theta_0, H_1: \theta \le \theta_0\)는 \(C = \left\{ \pmb X_n : T(\pmb X_n) \le k \right\}\).
MLE의 불변성
MLE의 함수는 MLE
서로 독립인 rv X Y의 공통된 성공 확률 p의 MLE. f(X)와 f(Y)를 곱해서 쓴다.
\(\pmb X_n \sim U(\theta - \tfrac{1}{2}, \theta + \tfrac{1}{2})\). 이때 LF로 MLE 구하는 건 굳이 log 안 거쳐도 가능함. 안 거쳐야 증명이 깔끔한 부분이 있음.
$$
= f(x;)
$$
에 의해
$$
E {
f(X;)
}^2
E {
f(X;)
}
=0
$$
\(X \sim U(0, \theta)\)일 때, \(\theta^2\)의 UE는? \(E(X^2) = \dfrac{\theta^2}{3}\)이므로 \(T(X)=3X^2\)는 \(\theta\)의 UE.
\(\pmb X_n \sim U(-\theta, \theta)\)일 때, \(c(X_{(n)}-X_{(1)}\)가 \(\theta\)의 UE가 되기 위한 c의 값은?
\(\pmb X_n \sim N(\mu, \sigma^2 )\). 이때 \(cS = c \sqrt{\dfrac{\sum (X_i - \bar X)^2}{n-1}}\)가 \(\sigma\)의 UE가 되도록 하는 c의 값은?
\(Y=(n-1)\dfrac{S^2}{sigma^2}\)이 카이제곱을 따르는 rv임을 이용하여 \(E(\sqrt{Y})\)를 구하라.
\(Var \left( \sum a_i \hat \theta_i \right)\)는 \(a_i = \dfrac{\tfrac{1}{\sigma^2_i}}{\sum \tfrac{1}{\sigma^2_i}}\)일 때 최소화.
통계량 \(S(X)\)의 분포가 패러미터 \(\theta\)에 의존하지 않는다면 이는 ancillary statistic.
최소 SS가 존재한다면, 모든 CSS는 MSS이다.