Утверждение 5.1: Тройка $(\Omega^n,\mathcal{P}(\Omega^n),P_n)$ является вероятностным пространством.
Доказательство:
Достаточно проверить, что функция $P_n$ является вероятностной мерой на измеримом пространстве $(\Omega^n,\mathcal{P}(\Omega^n))$.
Определение 5.1:
Вероятностное пространство $(\Omega^n,\mathcal{P}(\Omega^n),P_n)$ называется схемой Бернулли $n$ независимых испытаний или биномиальной схемой $n$
независимых испытаний.
Определим функцию $\xi:\Omega^n\to\mathbb{R}$ такую, что для любого
$\overline{\omega}:=(\omega_{i_1},\ldots,\omega_{i_n})$ $\xi(\overline{\omega})=|\{k\in\overline{1,n}\mid{i}_k=1\}|$, то есть число $\omega_1$ в векторе
$\overline{\omega}$ или, как говорят число "успехов" в последовательности испытаний $(\omega_{i_1},\ldots,\omega_{i_n})$.
Утверждение 5.2: Функция $\xi$ является случайной величиной.
Доказательство:
Поскольку $\mathcal{P}(\Omega^n)$ есть множество всех подмножеств $\Omega^n$, то для любого $B\in\mathcal{B}$ $\xi^{-1}(B)\in\mathcal{P}(\Omega^n)$.
Исследуем распределение случайной величины $\xi$ числа успехов в $n$ независимых испытаниях схемы Бернулли.
$$P_n(\xi=k)=P_n(\mathcal{E}(k))=\binom{n}{k}p^kq^{n-k}.$$
$$P_n(k_1\leq\xi\leq{k}_2)=\sum_{k=k_1}^{k_2}\binom{n}{k}p^kq^{n-k}.$$
Определим максимум функции $P_n(\xi=k)$ по $k$, то есть наиболее вероятное число успехов. Для любого $k\in\overline{0,n-1}$
$$
\frac{P_n(\xi=k+1)}{P_n(\xi=k)}=\frac{\binom{n}{k+1}p^{k+1}q^{n-k-1}}{\binom{n}{k}p^kq^{n-k}}=
\frac{n!}{(k+1)!(n-k-1)!}\frac{k!(n-k)!}{n!}\frac{p}{q}=\frac{n-k}{k+1}\frac{p}{q}.
$$
Таким обрзом,
$$
P_n(k+1)>P_n(k)\Leftrightarrow{n}p-kp>kq+q\Leftrightarrow{n}p-q>k(p+q)=k
$$
То есть функция $P_n(\xi=k)$ возрастает при $k<np-q$, убывает при $k>np-q$ и достигает максимума в точке $np-q$ если $np-q\in\mathbb{Z}$.
Если $np-q\not\in\mathbb{Z}$, то функция $P_n(\xi=k)$ достигает максимума в при $k=[np-q]+1$.
Пример 5.1:
Найдем наиболее вероятное число выпадений шести очков при стадвадцати бросаниях игральной кости.
Вероятность успеха $p=P(\{\omega_1\})=\frac16$, тогда $q=P(\{\omega_2\})=\frac56$, следовательно $k_0=[np-q]+1=20$.
Утверждение 5.3: Тройка $(\Omega^n,\mathcal{P}(\Omega^n),P_n)$ является вероятностным пространством.
Доказательство:
Достаточно доказать, что функция $P_n$ является вероятностной мерой на измеримом пространстве $(\Omega^n,\mathcal{P}(\Omega^n))$.
Определение 5.2:
Вероятностное пространство $(\Omega^n,\mathcal{P}(\Omega^n),P_n)$ называется полиномиальной схемой $n$ независимых испытаний.
Для любого $k\in\overline{1,m}$ определим функцию $\xi_k:\Omega^n\to\mathbb{R}$ такую, что для любого $\overline{E}:=(E_{i_1},\ldots,E_{i_n})\in\Omega^n$
$$\xi_k(E_{i_1},\ldots,E_{i_n}):=|\{s\in\overline{1,n}\mid{i}_s=k\}|.$$
То есть $\xi_k(\overline{E})$ равно числу появлений элемента $E_k$ в векторе $\overline{E}$.
Вектор $\overline\xi:=(\xi_1,\ldots,\xi_m)$ называют полиномиальным вектором.
Определение 5.3:
Пусть $\xi_1,\ldots,\xi_n$ случайные величины, тогда матрица $\Sigma:=(\sigma_{i,j})_{n\times{n}}$ такая,
что для любых $i,j\in\overline{1,n}$ $\sigma_{i,j}:=\cov(\xi_i,\xi_j)$ называется ковариационной матрицей вектора
$\overline{\xi}:=(\xi_1,\ldots,\xi_n)$.
Если случайные величины независимы, то
$$\cov(\xi_i,\xi_j)=\begin{cases}0,&i\neq{j} \\ D\xi_i,&i=j\end{cases}\Rightarrow\Sigma=\diag(D\xi_1,\ldots,D\xi_n).$$
Согласно примеру 4.5 обратное неверно.
Однако, случайные величины полиномиального вектора $(\xi_1,\ldots,\xi_m)$ зависимы, так как имеет место равенство $\sum_{k=1}^m\xi_k=n$.
То есть ковариационная матрица не обязательно является диагональной, найдем ее.
Для любого $k\in\overline{1,n}$ определим вектор случайных величин
$$\overline{\mathcal{E}^{(k)}}:=(\mathcal{E}_1^{(k)},\ldots,\mathcal{E}_m^{(k)}).$$
Где для любoго $i\in\overline{1,n}$ $\mathcal{E}_i^{(k)}=1$, если в $k$-том испытании появляется $E_i$, в противном случае $\mathcal{E}_i^{(k)}=0$. То есть
$$(\mathcal{E}_i^{(k)})^{-1}(\{1\})=\{(E_{j_1},\ldots,E_{j_n})\in\Omega^n\mid{j}_k=i\}$$
и $\mathcal{E}_i^{(k)}\sim\left(\begin{smallmatrix}1, & 0 \\ p_i, & 1-p_i\end{smallmatrix}\right)$. Тогда
$$\forall{i}\in\overline{1,m}\left(\xi_i=\sum_{k=1}^n\mathcal{E}_i^{(k)}\right)$$
и из раздела 5.1 следует, что для любого $i\in\overline{1,m}$ $\xi_i\sim{B}(n,p_i)$,
тогда из п. 3 примера 4.3 имеем $E\xi_i=np_i$, $D\xi_i=np_i(1-p_i)$.
Вычислим значения $E(\xi_i\xi_j)$ для любых неравных $i,j\in\overline{1,m}$.
Пусть $i\neq{j}$, тогда
$$
E(\xi_i\xi_j)=E\left(\sum_{k=1}^n\mathcal{E}_i^{(k)}\sum_{s=1}^n\mathcal{E}_j^{(s)}\right)=\sum_{k,s=1}^nE(\mathcal{E}_i^{(k)}\mathcal{E}_j^{(s)})=
\sum_{\substack{k,s=1\\k\neq{s}}}^nE\mathcal{E}_i^{(k)}E\mathcal{E}_j^{(s)},
$$
где последнее равенство в силу того, что при $k\neq{s}$ случайные величины $\mathcal{E}_i^{(k)}$, $\mathcal{E}_j^{(s)}$ независимы
(см. п. 3 примера 4.3), а при $k=s$ $\mathcal{E}_i^{(k)}\mathcal{E}_j^{(s)}\equiv0$,
так как на одном и том же $k$-том месте не могут стоять одновременно два различных значения $E_i$ и $E_j$. Таким образом, для любых различных $i,j\in\overline{1,n}$
$$E(\xi_i\xi_j)=\sum_{k,s=1}^np_ip_j-\sum_{k=1}^np_ip_j=(n^2-n)p_ip_j$$
и
$$\cov(\xi_i,\xi_j)=E(\xi_i\xi_j)-E\xi_iE\xi_j=(n^2-n)p_ip_j-np_inp_j=-np_ip_j$$
$$
\Sigma=
\begin{pmatrix}
np_1(1-p_1) &-np_1p_2 &\cdots &-np_1p_n \\
-np_2p_1 &np_2(1-p_2) &\cdots &-np_2p_n \\
\vdots & &\ddots &\vdots \\
-np_np_1 &-np_np_2 &\cdots &np_n(1-p_n) \\
\end{pmatrix}
$$
Так как $\xi_1+\cdots+\xi_m=n$ и по п. 3 теоремы 4.21
знак ковариации определяется знаком коэффициента пропорциональности линейного соотношения,
то знак ковариации $\cov(\xi_i,\xi_j)$ можно было определить не вычисляя ее значения.
previous contents next