3.4 Optimal Testing Method

항상 옳은 결과를 가져다주는 검정법을 사용할 수 있다면 가장 좋겠지만, 샘플에서 주어지는 정보만을 가지고 모집단의 특성에 대한 결론을 내려야 하는 상황에서 언제나 옳은 결과를 가져다주는 test 방법을 찾을 수는 없다. 그렇기에 이 장의 목표는 옳은 결과를 가져다주는 빈도가 높은 test 방법을 찾는 것이 된다. 잘못된 결론을 내릴 확률은 두 가지 오류로 표현되므로, 제 1종 오류와 제 2종 오류의 발생확률을 낮게 하는 test 방법을 찾아야 한다. 불행히도, 샘플의 크게가 정해져 있는 경우 둘 다를 최소로 하는 test 방법을 찾는 거은 불가능하다. 예를 들면, \(\alpha\)를 최소로 하는 가장 간단한 방법은 언제나 \(H_0\)를 채택하는 것이지만 (\(\alpha = 0\)), 이는 \(H_1\)에서의 power를 0으로 최소화시키고, 즉, \(\beta\)를 극대화시킨다.


let \(\pmb X_{25} \overset {\text{iid}} {\sim} N(\mu, 10^2 )\).

\[ H_0 : \mu = 100, \; \; \; \; \; H_1 : \mu > 100 \]

hi

이때. \(\mu=100\)에서의 power는 유의수준 \(\alpha\)와 같고, \(\mu>100\)일 경우에는 \(\pi(\mu) = 1-\beta(\mu)\). 이인즉

$$ \[\begin{align*} \lim_{\mu \downarrow 100} \beta(\mu) &= 1- \pi(100) \\ &= 1- \alpha \end{align*}\] $$

따라서 \(H_0\)\(H_1\)의 경계점에서 \(\alpha + \beta = 1\)이 된다. 즉, 샘플의 크기가 일정할 때 \(\alpha\)를 줄이고자 하면 경계점에서 \(\beta\)의 값이 커지며, 이 역 또한 성립한다. 이를 power로 표현하면, \(H_0\) 하에서 power는 큰 것이 바람직하나 power \(\pi (\mu)\)를 늘이고자 하면 \(\alpha\)의 값이 같이 커지게 되므로 제1종 오류의 확률 (\(\alpha\))의 확률을 최소화하면서 power를 최대화하는 일은 sample의 크기가 정해져 있는 경우 불가능하다.

만약 sample의 크기를 늘인다면, \(\alpha\)의 값을 고정시킨 상태에서 주어진 \(H_1\) 하에서의 \(\mu\) 값에서의 power를 크게 할 수 있다.


이 절에서는 power function \(\pi(\cdot)\)을 기준으로 하는 Optimal Testing Method (최량검정법)에 대해 살펴볼 것이다. 우선, \(H_0\)\(H_1\)이 모두 simple인 경우를 생각해보자. 위에서 이야기하였듯 \(\alpha\)를 최소화하면서 \(H_0\) 하에서의 power를 최대화하는 것은 불가능하므로, 이에 대한 합리적 대안으로 \(\alpha\) (제1종 오류를 범할 확률)을 주어진 작은 값으로 제한한 상태에서, power를 최대화하는 의미에서의 OTM을 다음과 같이 정의한다.


$$

H_0: = _0, ; ; ; ; ; H_1: = _1

$$

에 대한 rejection region \(C^\ast\) 가 다음 조건을 만족할 때 이를 유의수준 \(\alpha\) 에서의 MPT의 RR, 또는 MPRR이라고 한다.

\(\pi^\ast\)\(C^\ast\)에 해당하는 power function이라 하면, 1. \(\pi^\ast (\theta_0) = \alpha\), 2. \(\forall \text{ RR } C, \; \text{whose 유의수준과 power function } \alpha, \pi: \pi^\ast(\theta_1) \ge \pi(\theta_1)\).