previous contents next

13. Статистические гипотезы и критерии.

13.1 Выбор критерия значимости.

Определение 13.1: Всякое предположение о функции распределения случайной величины или её свойствах называется статистической гипотезой.
Если статистическая гипотеза однозначно определяет функцию распределения, то она называется простой, в противном случае статистическая гипотеза называется сложной.

Пример 13.1: Пусть $$\xi\sim\begin{pmatrix}1, & 0 \\ p, & 1-p\end{pmatrix},$$ тогда предположение $p=1/2$ есть простая статистическая гипотеза о распределении случайной величины $\xi$, а предположение $p>1/2$ - сложная статистическая гипотеза о распределении случайной величины $\xi$.

Пример 13.2: Пусть $\xi\sim{N}(\mu,\sigma^2)$, тогда предположение $\mu=0$, $\sigma^2=1$ есть простая статистическая гипотеза о распределении случайной величины $\xi$, а предположение $\mu=0$ - сложная статистическая гипотеза о распределении случайной величины $\xi$.

Определение 13.2: Правило по которому на основании выборки $(X_1,\ldots,X_n)$ принимается или отвергается статистическая гипотеза называется статистическим критерием значимости или просто критерием.
Пусть $R$ - выборочное пространство (т. е. множество всех возможных значений выборки); $R_0$, $R_1$ такие, что $R=R_0\sqcup{R}_1$ и статистическая гипотеза $H_1$ принимается тогда и только тогда, когда $(X_1,\ldots,X_n)\in{R}_1$, тогда множество $R_1$ назыается критической областью статистической гипотезы $H_1$.

Определение 13.3: Пусть $(X_1,\ldots,X_n)$ выборка над $\xi\sim{F}(x;\theta)$, $\Theta$ множество всех значений параметра $\theta$, $\Theta_0\subset\Theta$. Гипотеза $H_0$ гласит, что $\theta\in\Theta_0$, гипотеза $H_1$, что $\theta\notin\Theta_0$. Если $(X_1,\ldots,X_n)\in{R}_0$, то принимается гипотеза $H_0$, если $(X_1,\ldots,X_n)\in{R}_1$, то принимается гипотеза $H_1$, тогда вероятност $$\alpha(\theta):=p(H_1/H_0)=p((X_1,\ldots,X_n)\in{R}_1/H_0)$$ того что значение выборки содержится в $R_1$, но $\theta\in\Theta_0$, называется ошибкой первого рода.
Вероятность $$\beta(\theta):=p(H_0/H_1)=p((X_1,\ldots,X_n)\in{R}_0/H_1)$$ называется ошибкой второго рода.
Функция $$W_{R_1}(\theta):=\begin{cases}\alpha(\theta), & \theta\in\Theta_0 \\ 1-\beta(\theta), & \theta\notin\Theta_0\end{cases}$$ называется функцией мощности критерия $R_1$.
Если $W_{R_1}=0$, при $\theta\in\Theta_0$ и $W_{R_1}=1$ при $\theta\notin\Theta_0$, то $\alpha(\theta)\equiv\beta(\theta)\equiv0$ и критерий $R_1$ называется совершенным.

Определение 13.4: Пусть существует $\alpha\in[0,1]$ такое, что $\alpha(\theta)\leq\alpha$ для любого $\theta\in\Theta_0$, тогда $\alpha$ называется уровнем значимости критерия.
Критрий с критической областью $R_1$ и уровнем значимости $\alpha$ будем обозначать $R_{1,\alpha}$.

Замечание 13.1:
Если уровень значимости критерия (т. е. максимально допустимая ошибка первого рода) задан, то среди всех возможных областей $R_1$ при которых достигается заданный уровень значимости, надо выбирать такую, при которой минимизируется ошибка второго рода. То есть максимизируется функция $W_{R_1}(\theta)$ при $\theta\in\Theta/\Theta_0$.

Определение 13.5: Критерий $R_{1,\alpha}^*$ называется равномерно наиболее мощным чем критерий $R_{1,\alpha}$ если

  1. $W_{R_{1,\alpha}^*}(\theta)\leq{W}_{R_{1,\alpha}}(\theta)$, $\forall\theta\in\Theta_0$;
  2. $W_{R_{1,\alpha}^*}(\theta)\geq{W}_{R_{1,\alpha}}(\theta)$, $\forall\theta\in\Theta/\Theta_0$.

Определение 13.6: Критерий $R_{1,\alpha}^*$ называется равномерно наиболее мощным для гипотезы $H_0$ против альтернативы $H_1$, если он равномерно наиболее мощен чем любой другой критерий для данной гипотезы.

Если $|\Theta/\Theta_0|=1$, то равномерно наиболее мощный критерий называется наиболее мощным.

Лемма 13.1: Лемма Неймона-Пирсона.
Пусть $p(x;\theta)$ плотность распределения случайной величины $\xi$. Множество значений $\theta$: $\{\theta_0,\theta_1\}$, гипотеза $H_0$: $\theta=\theta_0$, гипотеза $H_1$: $\theta=\theta_1$. Обозначим $p_0(x):=p(x;\theta_0)$, $p_1(x):=p(x;\theta_1)$, $(X_1,\ldots,X_n)$ - выборка над $\xi$, $$L_0(x_1,\ldots,x_n):=\prod_{i=1}^np_0(x_i)$$ - функция правдободобия, если верна гипотеза $H_0$, $$L_1(x_1,\ldots,x_n):=\prod_{i=1}^np_1(x_i)$$ - функция правдоподобия, если верна гипотеза $H_1$, положим $$L(\overline{x}):= \begin{cases} L_1(\overline{x})/L_0(\overline{x}), & L_0(\overline{x})\neq0 \\ 0, & L_0(\overline{x})=L_1(\overline{x})=0 \\ \infty, & L_0(\overline{x})=0,L_1(\overline{x})\neq0. \end{cases} $$ Вероятность ошибки первого рода равна $\alpha$, а $c_{\alpha}$ - это решение уравнения $p(L(x_1,\ldots,x_n)>c/H_0)=\alpha$ относительно $c$. Положим $$R_{1,\alpha}:=\{(x_1,\ldots,x_n)\mid{L}(x_1,\ldots,x_n)>c_{\alpha}\},$$ тогда критерий $R_{1,\alpha}$ является наиболее мощным критерием.

Доказательство:
Пусть критическая область $S\neq{R}_{1,\alpha}$ такая, что вероятность ошибки первого рода $\alpha_S$ для неё не больше $\alpha$, то есть $$\alpha_S:=p\{\overline{x}\in{S}/H_0\}=\int\limits_SL_0(\overline{x})d\overline{x}\leq\alpha=\int\limits_{R_{1,\alpha}}L_0(\overline{x})d\overline{x}.$$ Докажем, что вероятность ошибки второго рода $\beta_S$ для критической области $S$ не меньше чем вероятность ошибки второго рода $\beta$ для критической области $R_{1,\alpha}$. Действительно $$ 1-\beta_S=p(\overline{x}\in{S}/H_1)=\int\limits_SL_1(\overline{x})d\overline{x}=\int\limits_{S/R_{1,\alpha}}L_1(\overline{x})d\overline{x}+\int\limits_{SR_{1,\alpha}}L_1(\overline{x})d\overline{x}, $$ аналогично $$1-\beta=\int\limits_{R_{1,\alpha}/S}L_1(\overline{x})d\overline{x}+\int\limits_{SR_{1,\alpha}}L_1(\overline{x})d\overline{x}.$$ Из определения выбранного критерия следует, что $$ \overline{x}\in{R}_{1,\alpha}/S\Rightarrow\overline{x}\in{R}_{1,\alpha}\Rightarrow\frac{L_1(\overline{x})}{L_0(\overline{x})}= L(\overline{x})>c_{\alpha}\Rightarrow{L}_1(\overline{x})>c_{\alpha}L_0(\overline{x}), $$ аналогично $$\overline{x}\in{S}/R_{1,\alpha}\Rightarrow\overline{x}\notin{R}_{1,\alpha}\Rightarrow{L}_1(\overline{x})\leq{c}_{\alpha}L_0(\overline{x}).$$ Тогда \begin{multline*} \beta_S-\beta=\int\limits_{R_{1,\alpha}/S}L_1(\overline{x})d\overline{x}-\int\limits_{S/R_{1,\alpha}}L_1(\overline{x})d\overline{x}> \int\limits_{R_{1,\alpha}/S}c_{\alpha}L_0(\overline{x})d\overline{x}-\int\limits_{S/R_{1,\alpha}}c_{\alpha}L_0(\overline{x})d\overline{x}=\\= c_{\alpha}\left(\int\limits_{R_{1,\alpha}/S}L_0(\overline{x})d\overline{x}+\int\limits_{SR_{1,\alpha}}L_0(\overline{x})d\overline{x}-\int\limits_{SR_{1,\alpha}}L_0(\overline{x})d\overline{x}-\int\limits_{S/R_{1,\alpha}}L_0(\overline{x})d\overline{x}\right)= c_{\alpha}\left(\int\limits_{R_{1,\alpha}}L_0(\overline{x})d\overline{x}-\int\limits_SL_0(\overline{x})d\overline{x}\right)=c_{\alpha}(\alpha-\alpha_S)>0 \end{multline*}

Пример 13.3: Пусть $\xi\sim{N}(\mu,\sigma^2)$, где $\sigma^2$ известно, а $\mu$ нет. Построим наиболее мощный критерий для проверки гипотезы $H_0$: $\mu=\mu_0$ против альтернативы $H_1$: $\mu=\mu_1$. Вероятность ошибки первого рода равна $\alpha$. $$p_0(x):=p(x;\mu_0)=\frac1{\sqrt{2\pi}\sigma}\exp\left(-\frac{(x-\mu_0)^2}{2\sigma^2}\right),$$ $$p_1(x):=p(x;\mu_1)=\frac1{\sqrt{2\pi}\sigma}\exp\left(-\frac{(x-\mu_1)^2}{2\sigma^2}\right),$$ \begin{multline*} L(\overline{x})=\frac{L_1(\overline{x})}{L_2(\overline{x})}=\frac{\exp\left(-\frac1{2\sigma^2}\sum_{i=1}^n(x_i-\mu_1)^2\right)}{\exp\left(-\frac1{2\sigma^2}\sum_{i=1}^n(x_i-\mu_0)^2\right)}= \exp\left(\frac1{2\sigma^2}\sum_{i=1}^n\left((x_i-\mu_1)^2-(x_i-\mu_0)^2\right)\right)=\exp\left(\frac{\mu_0-\mu_1}{2\sigma^2}\sum_{i=1}^n(2x_i-\mu_0-\mu_1)\right). \end{multline*} Тогда, если б. о. о. $\mu_1>\mu_0$, то неравенство $L(\overline{x}>c)$ равносильно неравенству \begin{multline*} -\frac{\mu_0-\mu_1}{2\sigma^2}\sum_{i=1}^n(2x_i-\mu_0-\mu_1)>\ln{c}\Rightarrow-\frac{\mu_0-\mu_1}{\sigma^2}\sum_{i=1}^nx_i+\frac1{2\sigma^2}(\mu_0-\mu_1)n(\mu_0+\mu_1)>\ln{c}\Rightarrow\\\Rightarrow -\frac{\mu_0-\mu_1}{\sigma^2}\sum_{i=1}^nx_i>\ln{c}-\frac{n}{2\sigma^2}(\mu_0^2-\mu_1^2)\Rightarrow\overline{x}=\frac1{n}\sum_{i=1}^nx_i>\frac{\sigma^2\ln{c}}{n(\mu_0-\mu_1)}-\frac{\mu_0+\mu_1}{2} \end{multline*} Таким образом, для построения критерия небоходимо решить уравнение $$\alpha=P(H_1/H_0)=P\{\overline{x}>\tilde{c}/H_0\}$$ относительно $\tilde{c}$. Из теоремы 4.11 следует, что при верной $H_0$ $\overline{X}\sim{N}(\mu_0,\sigma^2/n)$. Тогда $$ \alpha=P\left\{\frac{\overline{x}-\mu_0}{\sigma}\sqrt{n}>\frac{\tilde{c}-\mu_0}{\sigma}\sqrt{n}/H_0\right\}= 1-P\left\{\frac{\overline{x}-\mu_0}{\sigma}\sqrt{n}\leq\frac{\tilde{c}-\mu_0}{\sigma}\sqrt{n}/H_0\right\}= 1-\Phi\left(\frac{\tilde{c}-\mu_0}{\sigma}\sqrt{n}\right) $$ Пусть $t_{1-\alpha}$ - квантиль уровня $1-\alpha$ для стандартного номального распределения, тогда $$\frac{\tilde{c}-\mu_0}{\sigma}\sqrt{n}=t_{1-\alpha}\Rightarrow\tilde{c}=\frac{\sigma{t}_{1-\alpha}}{\sqrt{n}}+\mu_0.$$ Таким образом, искомый критерий $$R_{1,\alpha}=\left\{(x_1,\ldots,x_n)\left|\frac1{n}\sum_{i=1}^nx_i>\frac{\sigma{t}_{1-\alpha}}{\sqrt{n}}+\mu_0\right.\right\}$$ Так как $\overline{X}\sim{N}(\mu_1,\sigma^2/n)$ при верной $H_1$, то ошибка второго рода равна $$ \beta=P(H_0/H_1)=P\{\overline{x}>\tilde{c}/H_1\}=P\left\{\frac{\overline{x}-\mu_1}{\sigma}\sqrt{n}\leq\frac{\tilde{c}-\mu_1}{\sigma}\sqrt{n}/H_1\right\}= \Phi\left(\frac{\tilde{c}-\mu_1}{\sigma}\sqrt{n}\right) $$ Если вероятности ошибки первого и второго рода $\alpha$ и $\beta$ заданы то объем выборки необходимый для построения наиболее мощного критерия можно найти из системы $$ \begin{cases} t_{1-\alpha}=(\tilde{c}-\mu_0)\sqrt{n}/\sigma \\ t_{\beta}=(\tilde{c}-\mu_1)\sqrt{n}/\sigma. \end{cases} $$ Вычитая из первого уравнения второе получим $$t_{1-\alpha}-t_{\beta}=\frac{\mu_1-\mu_0}{\sigma}\sqrt{n}\Rightarrow{n}=\left(\frac{(t_{1-\alpha}-t_{\beta})\sigma}{\mu_1-\mu_0}\right)^2.$$

Пример 13.4: Выбор критической области в случае распределения отличного от нормального.
Пусть $\xi$ абсолютно непрерывная случайная величина с плотостью распределения $p(x)$. Построим наиболее мощный критерий уровня $\alpha$ для проврки гипотезы $H_0$: $p(x)=p_0(x)$ против альтернативы $p(x)=p_1(x)$. По лемме Неймона-Пирсона (лемма 13.1) критическая область имеет вид $\{(x_1,\ldots,x_n)\mid{L}(x_1,\ldots,x_n)>c\}$, где $c$ - решение уравнения $$\alpha=P(L(x_1,\ldots,x_n)>c/H_0),$$ a $$L(\overline{x})=\frac{L_1(\overline{x})}{L_0(\overline{x})}=\frac{\prod_{i=1}^np_1(x_i)}{\prod_{i=1}^np_0(x_i)}.$$ Тогда прологорифмировав получим для критической области условие $$\sum_{i=1}^n\ln{\frac{p_1(x_i)}{p_0(x_i)}}>\ln{c}.$$ Для любого $i\in\overline{1,n}$ обозначим $\eta_i:=\ln(p_1(x_i)/p_0(x_i))$, $\mu_0=E\eta_i$, $\sigma_0^2:=D\eta_i$ при верной гипотезе $H_0$; $\mu_1:=E\eta_i$, $\sigma_1^2:=D\eta_i$ при верной гипотезе $H_1$. Тогда при больших $n$ из ЦПТ (теорема 7.12) следует, что $$ \sum_{i=1}^n\eta_i\sim\begin{cases}N(n\mu_0,n\sigma_0^2)\,\text{при верной}\,H_0 \\ N(n\mu_1,n\sigma_1^2)\,\text{при верной}\,H_1\end{cases} $$ Тогда $$ \alpha=P(H_1/H_0)=P\left\{\sum_{i=1}^n\eta_i>c/H_0\right\}=P\left\{\frac{\sum_{i=1}^n\eta_i-n\mu_0}{\sigma_0\sqrt{n}}>\frac{c-n\mu_0}{\sigma_0\sqrt{n}}\right\}= 1-\Phi\left(\frac{c-n\mu_0}{\sigma_0\sqrt{n}}\right)\Rightarrow\frac{c-n\mu_0}{\sigma_0\sqrt{n}}=t_{1-\alpha}\Rightarrow{c}=\sigma_0t_{1-\alpha}\sqrt{n}+n\mu_0. $$ Вероятность ошибки второго рода равна $$ P=P(H_0/H_1)=P\left\{\sum_{i=1}^n\eta_i\leq{c}/H_1\right\}=P\left\{\frac{\sum_{i=1}^n\eta_i-n\mu_1}{\sigma_1\sqrt{n}}\leq \frac{c-n\mu_1}{\sigma_1\sqrt{n}}\right\}=\Phi\left(\frac{c-n\mu_1}{\sigma_1\sqrt{n}}\right) $$

Пример 13.5: Пример равномерно наиболее мощного критерия.
Пусть $\xi\sim{N}(\mu,\sigma^2)$, где $\sigma^2$ известно, а $\mu$ нет, гипотезы $H_0$: $\mu=\mu_0$, $H_1$: $\mu=\mu_1$, $\alpha$ - вероятность ошибки первого рода, $\tilde{c}:=\sigma{t}_{1-\alpha}/\sqrt{n}+\mu_0$. В примере 12.3 было показано, что для любого $\mu_1>\mu_0$ критерий $$\begin{cases}\overline{x}\leq\tilde{c}\Rightarrow{H}_0 \\ \overline{x}<\tilde{c}\Rightarrow{H}_1\end{cases}$$ является наиболее мощным критерием уровня значимости $\alpha$. Тогда для гипотез $H_0$: $\mu=\mu_0$ и $H_1$: $\mu>\mu_0$ этот критерий является равномерно наиболее мощным.

13.2 Понятие о рандомизированном критерии.

Определение 13.7: Пусть $R_1$ - критическая область, тогда если функция $\varphi(\overline{x}):=P(H_1/X=\overline{x}):\mathbb{R}^n\to[0,1]$ не является индикатором множества $R_1$, то критерий называется рандомизированным. В этом случае $$P(H_1)=\int\limits_{R_1}\varphi(\overline{x})L_1(\overline{x})d\overline{x},$$ а функцию $\varphi(\overline{x})$ называют критической функцией.

Замечание 13.2:
При рассмотрении леммы Неймона-Пирсона (лемма 13.1) предполагалось, что уравнение $\alpha=P(L(\overline{x})>c/H_0)$ имеет решение относительно $c$. Однако, если распределение дискретно, то решения может не быть. В этом случае для обеспечения заданной ошибки первого рода применяют рандомизацию.

Пример 13.6:
Пусть $$\xi\sim\begin{pmatrix}1 & 0 \\ p & 1-p\end{pmatrix},$$ $\alpha$ - вероятность ошибки первого рода, $H_0$: $p=p_0$, $H_1$: $p=p_1$, где б. о. о. $p_1>p_0$ и $p_0^n<\alpha$, $(x_1,\ldots,x_n)$ значение выборки, где, очевидно, для любого $i\in\overline{1,n}$ $x_i\in\{0,1\}$. Обозначим $\nu=\sum_{i=1}^nx_i$ (число единиц в выборке), тогда $$L_1(\overline{x})=\prod_{i=1}^nP(x_i/H_1)=p_1^{\nu}(1-p_1)^{n-\nu},$$ $$L_0(\overline{x})=\prod_{i=1}^nP(x_i/H_0)=p_0^{\nu}(1-p_0)^{n-\nu}.$$ Тогда условие $L(\overline{x})\geq{c}$ имеет вид $$ \frac{p_1^{\nu}(1-p_1)^{n-\nu}}{p_0^{\nu}(1-p_0)^{n-\nu}}\geq{c}\Rightarrow\left(\frac{p_1(1-p_0)}{p_0(1-p_1)}\right)^{\nu}\geq {c}\left(\frac{1-p_0}{1-p_1}\right)^n. $$ Так как $p_1>p_0$, то $p_1/p_0>1$, $(1-p_0)/(1-p_1)>1$, следовательно, неравество можно логорифмировать $$\nu\ln\frac{p_1(1-p_0)}{p_0(1-p_1)}\geq\ln{c}+n\ln\frac{1-p_0}{1-p_1}\Rightarrow\nu\geq\frac{\ln{c}+n\ln\frac{1-p_0}{1-p_1}}{\ln\frac{p_1(1-p_0)}{p_0(1-p_1)}}.$$ Таким образом, для построения не рандомизированного критерия необходимо решить относительно $\tilde{c}$ уравнение $$\alpha=P(H_1/H_0)=P(\nu\geq\tilde{c}/H_0)=\sum_{i=\tilde{c}}^n\binom{n}{i}p_0^i(1-p_0)^{n-i}.$$ Однако, правая часть равенства может принимать не более $n$ различных значений, в то время как $\alpha\in[0,1]$. С другой стороны, так как по условию $\alpha>p_0^n$, то существует $\tilde{c}\in\overline{1,n}$ такое, что $$\sum_{i=\tilde{c}+1}^n\binom{n}{i}p_0^i(1-p_0)^{n-i}<\alpha\leq\sum_{i=\tilde{c}}\binom{n}{i}p_0^i(1-p_0)^{n-i}.$$ Обозначим $$\alpha':=\sum_{i=\tilde{c}}^n\binom{n}{i}p_0^i(1-p_0)^{n-i},$$ $$\gamma_0:=P(\nu=\tilde{c})=\binom{n}{\tilde{c}}p_0^{\tilde{c}}(1-p_0)^{n-\tilde{c}},$$ тогда рандомизированный критерий с критической функцией $$\varphi(\overline{x}):=\begin{cases}1, & \nu>\tilde{c} \\ (\gamma_0+\alpha-\alpha')/\gamma_0, & \nu=\tilde{c} \\ 0, & \nu<\tilde{c}\end{cases},$$ имеет вероятность ошибки первого рода равной $$P(H_1/H_0)=P\left\{\nu>\tilde{c}/H_0\right\}+P\{\nu=\tilde{c}\}\frac{\gamma_0+\alpha-\alpha'}{\gamma_0}=\alpha'-\gamma_0+\gamma_0+\alpha-\alpha'=\alpha.$$

previous contents next