Определение 13.8:
Статистический критерий называется состоятельным, если $\beta(\mu)\to0$ при $n\to\infty$,
то есть вероятность ошибки второго рода стремится к нулю при росте объема выборки.
Пример 13.7:
Пусть $\xi\sim{N}(\mu,\sigma^2)$, где $\sigma^2$ известно, $\mu$ неизвестно.
Построим критерий для проверки гипотезы $H_0$: $\mu\geq\mu_0$ против альтернативы $H_1$: $\mu<\mu_0$.
Рассмотрим критерий:
$$\begin{cases}\overline{x}\geq{\mu_0}-\delta\Rightarrow{H}_0 \\ \overline{x}<\mu_0-\delta\Rightarrow{H}_1\end{cases}.$$
$$
\alpha(\mu)=P(H_1/H_0)=P\left\{\overline{x}<\mu_0-\delta/H_0\right\}=P\left\{\frac{\overline{x}-\mu}{\sigma}\sqrt{n}<
\frac{\mu_0-\delta-\mu}{\sigma}\sqrt{n}/H_0\right\}=\Phi\left(\frac{\mu_0-\delta-\mu}{\sigma}\sqrt{n}\right)
$$
Так как функция $\Phi(x)$ возрастающая, то
$$\sup_{\mu\geq\mu_0}\alpha(\mu)=\alpha(\mu_0).$$
Пусть $\alpha_0$ ошибка первого рода (уровень значимости критерия), тогда
$$\alpha_0\geq\sup_{\mu\geq\mu_0}\alpha(\mu)=\alpha(\mu_0)=\Phi\left(\frac{-\delta\sqrt{n}}{\sigma}\right).$$
Так как функция $\Phi(x)$ возрастает, то можем применить к неравенству обратную функцию $\Phi^{-1}$, тогда
$$t_{\alpha_0}\geq\frac{-\delta\sqrt{n}}{\sigma}\Rightarrow\delta\leq-\frac{\sigma{t}_{\alpha_0}}{\sqrt{n}}.$$
Таким образом, положив $\delta=-\sigma{t}_{\alpha_0}/\sqrt{n}$ получим критерий уровня значимости $\alpha_0$ с вероятностью ошибки второго рода
$$
\beta(\mu)=P(H_0/H_1)=P\{\overline{x}\geq\mu_0-\delta/H_1\}=
P\left\{\frac{\overline{x}-\mu}{\sigma}\sqrt{n}\geq\frac{\mu_0-\delta-\mu}{\sigma}\sqrt{n}/H_1\right\}=
1-\Phi\left(\frac{\mu_0-\delta-\mu}{\sigma}\sqrt{n}\right)=1-\Phi\left(\frac{\mu_0-\mu}{\sigma}\sqrt{n}+t_{\alpha_0}\right).
$$
Следовательно, полученный критерий является состоятельным, так как функция $\Phi(x)\to1$ при $x\to\infty$, следовательно, $\beta(\mu)\to0$ при $n\to\infty$.
Функция мощности критерия есть
$$W(\mu)=\begin{cases}\alpha(\mu), & \mu\geq\mu \\ 1-\beta(\mu), & \mu<\mu_0\end{cases}.$$
Пример 13.8:
Для проверки гипотезы $H_0$: $\mu=\mu_0$ против альтернативы $H_1$: $\mu\neq\mu_0$ можно использовать критерий
$$\begin{cases}|\overline{x}-\mu_0|<\delta\Rightarrow{H}_0 \\ |\overline{x}-\mu_0|\geq\delta\Rightarrow{H}_1\end{cases},$$
где $\delta$ находится аналогично примеру 13.7.
Пример 13.9:
Для проверки гипотезы $H_0$: $\mu_0<\mu<\mu_1$ против альтернативы $H_1$: $\mu\notin(\mu_0,\mu_1)$ можно использовать критерий
$$\begin{cases}\mu_0-\delta<\overline{x}<\mu_1+\delta & \Rightarrow{H}_0\\ \overline{x}\notin(\mu_0-\delta,\mu_1+\delta) & \Rightarrow{H}_1\end{cases},$$
где $\delta$ находится аналогично примеру 13.7.
Пример 13.10: Критерий Стьюдента.
Пусть $\xi\sim{N}(\mu,\sigma^2)$, где $\mu$ и $\sigma^2$ неизвестны.
Построим критерий для проверки гипотезы $H_0$: $\mu=\mu_0$ против альтернативы $H_1$: $\mu\neq\mu_0$. Несмотря на то,
что множество значений параметра $\mu$ состоит из одного элемента гипотеза $H_0$ является сложной,
так как она не определяет однозначно распределение случайной величины $\xi$, в силу того, что $\sigma^2$ неизвестно.
Пусть $(X_1,\ldots,X_n)$ выборка над $\xi$, тогда при верной $H_0$
$$\frac{\overline{x}-\mu_0}{\sigma}\sqrt{n}\sim{N}(0,1),\,\frac{nS^2}{\sigma^2}\sim\chi_{n-1}^2,$$
см. например доказательство теоремы Фишера (теорема 12.9).
Тогда аналогично п. 2 примера 13.9 при верной $H_0$
$$\frac{\overline{x}-\mu}{\sigma}\sqrt{n}=\frac{\overline{x}-\mu_0}{\sigma}\sqrt{n}:\sqrt{\frac{nS^2}{\sigma^2(n-1)}}\sim{St}_{n-1}.$$
Следовательно, для проверки гипотезы $H_0$ можно использовать критерий
$$
\begin{cases}
|(\overline{x}-\mu_0)\sqrt{n-1}/S|<\delta\Rightarrow{H}_0 \\
|(\overline{x}-\mu_0)\sqrt{n-1}/S|\geq\delta\Rightarrow{H}_1,
\end{cases}
$$
где $\delta$ при фиксированном значении ошибки первого рода $\alpha$ находим из условия
$$
\alpha=P(H_1/H_0)=P\left\{\left|\frac{\overline{x}-\mu_0}{S}\sqrt{n-1}\right|\geq\delta/H_0\right\}=
2-2P\left\{\frac{\overline{x}-\mu_0}{S}\sqrt{n-1}<\delta\right\}\Rightarrow\delta=t_{1-\alpha/2}.
$$
где $t_{1-\alpha/2}$ квантиль уровня $1-\alpha/2$ распределения Стьюдента с $n-1$ степенью свободы.
Пример 13.11:
Пусть $\xi\sim{N}(\mu,\sigma^2)$ где $\mu$ известно, а $\sigma^2$ нет.
Построим критерий для проверки гипотезы $H_0$: $\sigma^2\leq\sigma_0^2$ против альтернативы $H_1$: $\sigma^2>\sigma_0^2$. Обозначим выборочную дисперсию
$$S_0^2:=\frac1{n}\sum_{i=1}^n(x_i-\mu)^2.$$
Рассмотрим критерий
$$\begin{cases}S_0^2/\sigma_0^2\leq1+\delta\Rightarrow{H_0} \\ S_0^2/\sigma_0^2>1+\delta\Rightarrow{H}_1 \end{cases},$$
где при фиксированной ошибке первого рода $\alpha$ находим $\delta$ из условия
$$
\alpha(\sigma^2)=P(H_1/H_0)=P\left\{\frac{S_0^2}{\sigma_0^2}>1+\delta/H_0\right\}=P\left\{\frac{nS_0^2}{\sigma^2}>
\frac{n(1+\delta)\sigma_0^2}{\sigma^2}\right\}=1-P\left\{\frac{nS_0^2}{\sigma^2}>\frac{n(1+\delta)\sigma^2}{\sigma_0^2}\right\}.
$$
Так как для любого $i\in\overline{1,n}$ $(X_i-\mu)/\sigma\sim{N}(0,1)$, то
$$\frac{nS_0^2}{\sigma^2}=\sum_{i=1}^n\left(\frac{x_i-\mu}{\sigma}\right)^2\sim\chi_n^2.$$
Следовательно, обозначив функцию распределения $\chi_n^2$ как $F_n(x)$ получим
$$\alpha=1-F_n\left(\frac{n(1+\delta)\sigma_0^2}{\sigma^2}\right).$$
При верной гипотезе $H_0$: $\sigma^2\leq\sigma_0^2$, следовательно, в силу возрастания функции распределения
$$\alpha(\sigma^2)\leq\alpha(\sigma_0^2)=1-F_n(n(1+\delta)).$$
Тогда обозначив квантиль уровня $1-\alpha$ для распределения $\chi_n^2$ как $t_{1-\alpha}$ и
положив $\delta=t_{1-\alpha}/n-1$ получим критерий уровня значимости $\alpha$ с вероятностью ошибки второго рода
$$
\beta(\sigma^2)=P(H_0/H_1)=P\left\{\frac{S_0^2}{\sigma_0^2}<1+\delta/H_1\right\}=
P\left\{\frac{nS_0^2}{\sigma^2}<\frac{n(1+\delta)\sigma_0^2}{\sigma^2}/H_1\right\}=F_n\left(\frac{n(1+\delta)\sigma_0^2}{\sigma^2}\right)
$$
Если $\mu$ не известно, то вместо статистики $S_0$ используют статистику
$$S^2:=\frac1{n}\sum_{i=1}^n(X_i-\overline{X})^2$$
при этом для определения $\delta$ используют теорему Фишера (теорема 12.9) из которой следует, что
$$\frac{nS^2}{\sigma^2}\sim\chi_{n-1}^2.$$
Критерий будет такой же при $\delta=t_{1-\alpha}/n-1$, где $t_{1-\alpha}$ квантиль уровня $1-\alpha$ для распределения $\chi_{n-1}^2$.
Пример 13.12: Проверка гипотезы о равенстве математических ожиданий двух нормальных совокупностей.
Пример 13.13:
Пусть $\{A_1,\ldots,A_r\}$ множество значений случайной величины $\xi$, $\{B_1,\ldots,B_s\}$
множество значений случайной величины $\eta$. Пусть $((X_1,Y_1),\ldots, (X_n,Y_n))$ - совместная выборка над $\xi$ и $\eta$,
где для любого $i\in\overline{1,n}$ $X_i\sim\xi$, $Y_i\sim\eta$. Для любого $i\in\overline{1,r}$,
$j\in\overline{1,s}$ обозначим $p_{i,j}$ вероятность того, что элемент выборки принимает значение $(A_i,B_j)$, тогда
$$p_{i\cdot}:=P(\xi=A_i)=\sum_{j=1}^sp_{i,j};\,p_{\cdot{j}}:=P(\eta=B_j)=\sum_{i=1}^rp_{i,j}.$$
Построим критерий для проверки гипотезы $H_0$: $p_{i,j}=p_{i\cdot}p_{\cdot{j}}$ для любого $i\in\overline{1,r}$, $j\in\overline{1,s}$.
Обозначим $\nu_{i,j}$ как число элементов выборки равных $(A_i,B_j)$, тогда $\sum_{i,j}\nu_{i,j}=n$.
Значения $p_{1\cdot},\ldots,p_{r\cdot}$, $p_{\cdot{1}},\ldots,p_{\cdot{s}}$ неизвестны, но так как
$$\sum_{i=1}^rp_{i\cdot}=\sum_{j=1}^sp_{\cdot{j}}=1,$$
то число оцениваемых параметров равно $m=r+s-2$.
Пременив для оценки параметров метод $\chi^2$ (замечание 12.3) получим
$$
\begin{cases}
\sum_{i=1}^r\sum_{j=1}^s\frac{\nu_{i,j}}{p_{i\cdot}p_{\cdot{j}}}\frac{\partial(p_{i\cdot}p_{\cdot{j}})}{\partial{p}_l}=0;\,l\in\overline{1,r-1} \\
\sum_{i=1}^r\sum_{j=1}^s\frac{\nu_{i,j}}{p_{i\cdot}p_{\cdot{j}}}\frac{\partial(p_{i\cdot}p_{\cdot{j}})}{\partial{p}_k}=0;\,k\in\overline{1,s-1}.
\end{cases}
$$
Так как при $r\neq{l}$
$$\frac{\partial{p}_{r\cdot}}{\partial{p_{l\cdot}}}=\frac{\partial(1-p_{1\cdot}-\cdots-p_{r-1\cdot})}{\partial{p}_{l\cdot}}=-1,$$ то
$$\frac{\partial{p}_{i\cdot}}{\partial{p}_{l\cdot}}=\begin{cases}1, & i = l \\ 0, & i\neq{l},i\neq{r} \\ -1, & i = r\end{cases},$$
аналогично
$$\frac{\partial{p}_{\cdot{j}}}{\partial{p}_{\cdot{k}}}=\begin{cases}1, & j = k \\ 0, & j\neq{k},j\neq{r} \\ -1, & j = r\end{cases},$$
следовательно,
$$
\begin{cases}
\sum_{i=1}^r\left(\frac{\nu_{i,k}}{p_{\cdot{k}}}-\frac{\nu_{i,s}}{p_{\cdot{s}}}\right)=0;\,l\in\overline{1,r-1} \\
\sum_{j=1}^s\left(\frac{\nu_{l,j}}{p_{l\cdot}}-\frac{\nu_{r,j}}{p_{r\cdot}}\right)=0;\,k\in\overline{1,s-1}.
\end{cases}
$$
Обозначим $\nu_{l\cdot}:=\sum_{j=1}^s\nu_{l,j}$, $\nu_{\cdot{k}}:=\sum_{i=1}^r\nu_{i,k}$, тогда
$$
\begin{cases}
\frac{\nu_{l\cdot}}{p_{l\cdot}}-\frac{\nu_{r\cdot}}{p_{r\cdot}}=0;\,l\in\overline{1,r-1} \\
\frac{\nu_{\cdot{k}}}{p_{\cdot{k}}}-\frac{\nu_{\cdot{s}}}{p_{\cdot{s}}}=0;\,k\in\overline{1,s-1}
\end{cases}
$$
Обозначим $c_1:=\nu_{r\cdot}/p_{r\cdot}$, $c_2:=\nu_{\cdot{s}}/p_{\cdot{s}}$, тогда
$$
\begin{cases}
\nu_{l\cdot}/p_{l\cdot}=c_1;\, l\in\overline{1,r} \\
\nu_{\cdot{k}}/p_{\cdot{k}}=c_2;\, k\in\overline{1,s}
\end{cases}\Rightarrow
\begin{cases}
\nu_{l\cdot}=c_1p_{l\cdot};\, l\in\overline{1,r} \\
\nu_{\cdot{k}}=c_2p_{\cdot{k}};\, k\in\overline{1,s}
\end{cases}\Rightarrow
\begin{cases}
c_1\sum_{l=1}^rp_{l\cdot}=\sum_{l=1}^r\nu_{l\cdot}=n \\
c_2\sum_{k=1}^sp_{\cdot{k}}=\sum_{k=1}^s\nu_{\cdot{k}}=n
\end{cases}\Rightarrow
\begin{cases}c_1=n \\ c_2 = n\end{cases}\Rightarrow
\begin{cases}
p_{l\cdot}=\frac{\nu_{l\cdot}}{n};\, l\in\overline{1,r} \\
p_{\cdot{k}}=\frac{\nu_{\cdot{k}}}{n};\, k\in\overline{1,s}
\end{cases}
$$
Тогда по теореме Пирсона (теорема 12.7) при верной гипотезе $H_0$
$$
\chi^2=\sum_{i,j}\frac{(\nu_{i,j}-p_{i\cdot}p_{\cdot{j}})^2}{np_{i\cdot}p_{\cdot{j}}}=
\sum_{i,j}\frac{(\nu_{i,j}-\nu_{i\cdot}\nu_{\cdot{j}}/n)^2}{\nu_{i\cdot}\nu_{\cdot{j}}/n}\sim\chi_{(r-1)(s-1)-1}^2.
$$
Следовательно, искомый критерий может быть сформулирован в следующем виде
$$\begin{cases}\chi^2<c\Rightarrow{H_0} \\ \chi^2\geq{c}\Rightarrow{H}_1\end{cases},$$
где значение $c$ при известной ошибке первого рода $\alpha$ находится из соотношения
$$\alpha=P(H_1/H_0)=p\{F(\overline{x},\overline{y})\geq{c}/H_0\},$$
обратное значение для функции $F$ находится по таблицам распределения $\chi_{(r-1)(s-1)-1}^2$.
previous contents next