previous contents next $\newcommand{\rang}{\operatorname{rang}}$ $\newcommand{\cov}{\operatorname{cov}}$ $\newcommand{\diag}{\operatorname{diag}}$

8 Многомерное нормальное распределение.

8.1 Плотность многомерного нормального распределения.

Определение 8.1: Говорят, что случайный вектор $\overline{\xi}=(\xi_1,\ldots,\xi_n)$ имеет $n$-мерное нормальное распределение, если его плотность имеет вид $$p(x_1,\ldots,x_n)=k\exp\left(-\frac12(x^{\downarrow}-b^{\downarrow})^TA(x^{\downarrow}-b^{\downarrow})\right),$$ где $k\in\mathbb{R}$, $A$ - положительно определённая квадратичная форма ранга $n$, $\overline{x}=(x_1,\ldots,x_n)$, $\overline{b}=(b_1,\ldots,b_n)\in\mathbb{R}^n$.

Утверждение 8.1: Если $n$-мерный случайный вектор $\overline{\xi}=(\xi_1,\ldots,\xi_n)$ имеет нормальное распределение и его плотность равна $$p(x_1,\ldots,x_n)=k\exp\left(-\frac12(x^{\downarrow}-b^{\downarrow})^TA(x^{\downarrow}-b^{\downarrow})\right),$$ то $k=\sqrt{\det{A}}/(2\pi)^{n/2}$.

Доказательство:
Так как $\rang{A}=n$, то по теоремам 16.2 DM, 16.4 DM существует невырожденая замена переменных $x^{\downarrow}-b^{\downarrow}=Cy^{\downarrow}$ такая, что $C^TAC=E_{n,n}$. Тогда $$ -\frac12(x^{\downarrow}-b^{\downarrow})^TA(x^{\downarrow}-b^{\downarrow})=-\frac12\overline{y}C^TACy^{\downarrow}=-\frac12\overline{y}y^{\downarrow}= -\frac12\sum_{i=1}^ny_i^2 $$ и $$ \forall{i}\in\overline{1,n}\left(x_i-b_i=\sum_{j=1}^nc_{i,j}y_j\right)\Rightarrow\forall{i,j}\in\overline{1,n}\left(\frac{\partial{x_i}}{\partial{y_j}}=c_{i,j}\right)\Rightarrow \left|\frac{\partial{(x_1,\ldots,x_n)}}{\partial{(y_1,\ldots,y_n)}}\right|= \begin{vmatrix} \frac{\partial{x_1}}{\partial{y_1}} & \cdots & \frac{\partial{x_1}}{\partial{y_n}} \\ \vdots & \ddots & \vdots \\ \frac{\partial{x_n}}{\partial{y_1}} & \cdots & \frac{\partial{x_n}}{\partial{y_n}} \\ \end{vmatrix}=\det{C}. $$ Следоваельно, по теоремам 14.3.5 MA, 14.3.4 MA \begin{multline*} \int\limits_{-\infty}^{\infty}p(x_1,\ldots,x_n)d\overline{x}=k\int\limits_{-\infty}^{\infty}\exp{\left(-\frac12(x^{\downarrow}-b^{\downarrow})^TA(x^{\downarrow}-b^{\downarrow})\right)}d\overline{x}= k|\det{C}|\int\limits_{-\infty}^{\infty}\exp{\left(-\frac12\sum_{i=1}^ny_i^2\right)}d\overline{y}=k|\det{C}|\prod_{i=1}^n\int\limits_{-\infty}^{\infty}e^{-y_i^2/2}dy_i=\\= k|\det{C}|\left(\sqrt{2\pi}\right)^n=1\Rightarrow{k}=\frac1{\left(\sqrt{2\pi}\right)^n|\det{C}|}. \end{multline*} Так как $C^TAC=E$, то по теореме 3.6 DM, утверждению 3.7 DM $$ \det{(C^TAC)}=\det{C^T}\det{A}\det{C}=(\det{C})^2\det{A}=\det{E}=1, $$ следовательно, $$|\det{C}|=\frac1{\sqrt{\det{A}}}\Rightarrow{k}=\frac{\sqrt{\det{A}}}{(2\pi)^{n/2}}.$$
Пусть $Z:=(\xi_{i,j})_{m\times{n}}$ - матрица элементами, которой являются случайные величины. Будем обозначать $EZ:=(E\xi_{i,j})_{m\times{n}}$ как матрицу, элементами которой являются математические ожидания соответствующих случайных величин. Тогда по пп. 2, 3 теоремы 4.4, если $B$, $C$, $D$ числовые матрицы подходящих размеров, то $E(BZC+D)=B(EZ)C+D$.

Определение 8.2: Пусть $\overline{\xi}=(\xi_1,\ldots,\xi_n)$ случайный вектор, тогда матрица $$\Sigma:=\cov{(\xi^{\downarrow}\overline{\xi})}:=(\cov{(\xi_i,\xi_j)})_{n\times{n}}$$ называется ковариационной матрицей случайного вектора $\overline{\xi}$.

В рамках введённых выше обозначений $\Sigma=E\left((\xi^{\downarrow}-E\xi^{\downarrow})(\xi^{\downarrow}-E\xi^{\downarrow})^T\right)$.
Так как для любого $i\in\overline{1,n}$ $\cov{(\xi_i,\xi_i)}=D\xi_i$, то на диагонали матрицы $\Sigma$ стоят дисперсии случайных величин вектора $\overline{\xi}$.

Теорема 8.1: Если $n$-мерный случайный вектор $\overline{\xi}=(\xi_1,\ldots,\xi_n)$ имеет нормальное распределение и его плотность равна $$p(x_1,\ldots,x_n)=\frac{\sqrt{\det{A}}}{(2\pi)^{n/2}}\exp\left(-\frac12(x^{\downarrow}-b^{\downarrow})A(x^{\downarrow}-b^{\downarrow})^T\right),$$ то $b^{\downarrow}=E\xi^{\downarrow}$, $A=\Sigma^{-1}$.

Доказательство:
Так как как $\rang{A}=n$, то по теоремам 16.2 DM, 16.4 DM существует невырожденная замена переменных $x^{\downarrow}-b^{\downarrow}=Cy^{\downarrow}$ такая, что $C^TAC=E$. Положим $\eta^{\downarrow}:=C^{-1}(\xi^{\downarrow}-b^{\downarrow})$, тогда из теоремы 14.3.5 MA и доказательства утверждения 8.1 следует \begin{multline*} p_{\overline{\eta}}(y_1,\ldots,y_n)=p_{\overline{\xi}}\left(\sum_{j=1}^nc_{1,j}y_j-b_1,\ldots,\sum_{j=1}^nc_{n,j}y_j-b_n\right)\left|\frac{\partial{(x_1,\ldots,x_n)}}{\partial{(y_1,\ldots,y_n)}}\right|= \frac{\sqrt{\det{A}}}{(2\pi)^{n/2}}\exp\left(-\frac12(Cy^{\downarrow})^TA(Cy^{\downarrow})\right)|\det{C}|=\\= \frac1{(2\pi)^{n/2}}\exp{\left(-\frac12\sum_{i=1}^ny_i^2\right)}=\prod_{k=1}^n\frac1{\sqrt{2\pi}}e^{-y_k^2/2}. \end{multline*} По п. 2 теоремы 3.8 для любого $k\in\overline{1,n}$ $$ p_k(y_k)=\int\limits_{-\infty}^{\infty}\cdots\int\limits_{-\infty}^{\infty}p_{\overline{\eta}}(y_1,\ldots,y_n)dy_1\cdots{d}y_{k-1}dy_{k+1}\cdots{d}y_n= \int\limits_{-\infty}^{\infty}\cdots\int\limits_{-\infty}^{\infty}\prod_{k=1}^n\frac1{\sqrt{2\pi}}e^{-y_k^2/2}dy_1\cdots{d}y_{k-1}dy_{k+1}\cdots{d}y_n=\frac1{\sqrt{2\pi}}e^{-y_k^2/2}, $$ следовательно, для любого $k\in\overline{1,n}$ $\eta_k\sim{N}(0,1)$ и $$p_{\overline{\eta}}(y_1,\ldots,y_n)=\prod_{k=1}^np_k(y_k).$$ Тогда по теореме 3.14 случайные величины $\eta_1,\ldots,\eta_n$ независимы. Следовательно, $E\eta^{\downarrow}=0^{\downarrow}$, $D\eta^{\downarrow}=1^{\downarrow}$ и в силу попарной независимости $\eta_1,\ldots,\eta_n$ $\Sigma_{\overline{\eta}}=\cov{(\eta^{\downarrow}\overline{\eta})}=\diag{(D\eta_1,\ldots,D\eta_n)}=E_{n,n}$. Тогда $$\xi^{\downarrow}=C\eta^{\downarrow}+b^{\downarrow}\Rightarrow{E}\xi^{\downarrow}=CE\eta^{\downarrow}+b^{\downarrow}=b^{\downarrow}$$ и $$ \Sigma=\cov{(\xi^{\downarrow}\overline{\xi})}=E\left((\xi^{\downarrow}-b^{\downarrow})(\xi^{\downarrow}-b^{\downarrow})^T\right)=E\left(C\eta^{\downarrow}(C\eta^{\downarrow})^T\right)= CE(\eta^{\downarrow}\overline{\eta})C^T=C\Sigma_{\overline{\eta}}C^T=CC^T. $$ Тогда по замечанию 2.1 DM $$C^TAC=E\Rightarrow{A}=\left(C^T\right)^{-1}C^{-1}=\left(CC^T\right)^{-1}=\Sigma^{-1}.$$
Из утверждения 8.1 и теоремы 8.1 следует окончательный вид нормальной плотности $$p(x_1,\ldots,x_n)=\frac1{(2\pi)^{n/2}\sqrt{\det{\Sigma}}}\exp\left(-\frac12(x^{\downarrow}-\mu^{\downarrow})^T\Sigma^{-1}(x^{\downarrow}-\mu^{\downarrow})\right).$$

Задача 8.1: Доказать, что для любого (нормального?) случайного вектора $\overline\xi$ его ковариационная матрица $\Sigma$ неотрицательно определена.

Пример 8.1: В частности при $n=2$: $\overline{\xi}=(\xi_1,\xi_2)$, $\overline{\mu}=E\overline{\xi}=(\mu_1,\mu_2)$, $D\overline{\xi}=(\sigma_1^2,\sigma_2^2)$. Тогда по определению 4.8 $\cov{(\xi_1,\xi_2)}=\cov{(\xi_2,\xi_1)}=\rho\sigma_1\sigma_2$, где $\rho:=\rho(\xi_1,\xi_2)$ - коэффициент корреляции случайных величин $\xi_1$, $\xi_2$. Тогда $$ \det{\Sigma}=\begin{vmatrix}\sigma_1^2 & \rho\sigma_1\sigma_2 \\ \rho\sigma_1\sigma_2 & \sigma_2^2 \end{vmatrix}=\sigma_1^2\sigma_2^2-\rho^2\sigma_1^2\sigma_2^2= \sigma_1^2\sigma_2^2(1-\rho^2). $$ и из доказательства теоремы 3.8 DM следует \begin{multline*} \Sigma^{-1}=\frac1{\sigma_1^2\sigma_2^2(1-\rho^2)}\begin{pmatrix}\sigma_2^2 & -\rho\sigma_1\sigma_2 \\ -\rho\sigma_1\sigma_2 & \sigma_1^2\end{pmatrix}= \frac1{1-\rho^2}\begin{pmatrix}1/\sigma_1^2 & -\rho/(\sigma_1\sigma_2) \\ -\rho/(\sigma_1\sigma_2) & 1/\sigma_2^2\end{pmatrix}\Rightarrow Q(x_1,x_2):=(x^{\downarrow}-\mu^{\downarrow})^T\Sigma^{-1}(x^{\downarrow}-\mu^{\downarrow})=\\= (x_1-\mu_1,x_2-\mu_2)\begin{pmatrix}1/\sigma_1^2 & -\rho/(\sigma_1\sigma_2) \\ -\rho/(\sigma_1\sigma_2) & 1/\sigma_2^2\end{pmatrix}\binom{x_1-\mu_1}{x_2-\mu_2}\frac1{1-\rho^2}= \frac1{(1-\rho^2)}\left(\left(\frac{x_1-\mu_1}{\sigma_1}\right)^2-\frac{2\rho(x_1-\mu_1)(x_2-\mu_2)}{\sigma_1\sigma_2}+\left(\frac{x_2-\mu_2}{\sigma_2}\right)^2\right) \end{multline*} Таким образом, функция $$p(x_1,x_2)=\frac1{2\pi\sqrt{(1-\rho^2)}\sigma_1\sigma_2}e^{-Q(x_1,x_2)/2}$$ задаёт поверхность "холма" элиптической формы с вершиной в точке $(\mu_1,\mu_2)$. Плотность $p(x_1,x_2)$ постоянна на кривых вида $$\left(\frac{x_1-\mu_1}{\sigma_1}\right)^2-\frac{2\rho(x_1-\mu_1)(x_2-\mu_2)}{\sigma_1\sigma_2}+\left(\frac{x_2-\mu_2}{\sigma_2}\right)^2=const,$$ которые являются эллипсами. Если случайные величины $\xi_1$ и $\xi_2$ независимы, то $\rho=0$ и второе слагаемое квадратичной формы $Q(x_1,x_2)$ равно нулю, тогда $$p(x_1,x_2)=p_{\xi_1}(x_1)p_{\xi_2}(x_2)=\frac1{\sigma_1\sqrt{2\pi}}e^{-(x_1-\mu_1)^2/(2\sigma_1^2)}\frac1{\sigma_2\sqrt{2\pi}}e^{-(x_2-\mu_2)^2/(2\sigma_2^2)}.$$

8.2 Независимость подвекторов нормального вектора.
Введём некоторые обозначения.
Пусть $\overline{\xi}=(\xi_1,\ldots,\xi_n)\sim{N}(\overline{\mu},\Sigma)$ $n$-мерный нормальный вектор. Обозначим $\overline\xi_1:=(\xi_1,\ldots,\xi_m)$, $\overline\xi_2:=(\xi_{m+1},\ldots,\xi_n)$, $\overline\mu_1:=E\overline\xi_1$, $\overline\mu_2:=E\overline\xi_2$, ${\Sigma_{11}:=\cov{(\overline\xi_1,\xi_1^{\downarrow})}}$, $\Sigma_{22}:=\cov{(\overline\xi_2,\xi_2^{\downarrow})}$, $\Sigma_{12}:=\cov{(\overline\xi_1,\xi_2^{\downarrow})}$, $\Sigma_{21}:=\cov{(\overline\xi_2,\xi_1^{\downarrow})}$, тогда $$\Sigma=\begin{pmatrix}\Sigma_{11} & \Sigma_{12} \\ \Sigma_{21} & \Sigma_{22}.\end{pmatrix}$$ Так как для любых $i,j\in\overline{1,n}$ $\cov{(\xi_i,\xi_j)}=\cov{(\xi_j,\xi_i)}$, то $\Sigma_{12}=\Sigma_{21}^T$.

Теорема 8.2: Пусть $\overline\xi=(\overline\xi_1,\overline\xi_2)\sim{N}(\overline\mu,\Sigma)$, тогда вектора $\overline\xi_1$ и $\overline\xi_2$ независимы и нормально распределены тогда и только тогда, когда $\Sigma_{12}=0$.

Доказательство:
$\Rightarrow)$ Так как для любого $B\in\mathcal{B}$ $B\times\mathbb{R}^k\in\mathcal{B}^{k+1}$, то для любых $i\in\overline{1,m}$, $j\in\overline{1,n-m}$, $B_1,B_2\in\mathcal{B}$ $$ P(\xi_{1i}\in{B}_1,\xi_{2j}\in{B}_2)=P(\xi_1\in{B}_1\times\mathbb{R}^{m-1},\xi_2\in{B}_2\times\mathbb{R}^{n-m-1})= P(\xi_1\in{B}_1\times\mathbb{R}^{m-1})P(\xi_2\in{B}_2\times\mathbb{R}^{n-m-1})=P(\xi_{1i}\in{B}_1)P(\xi_{2j}\in{B}_2). $$ То есть из независимости $\overline\xi_1$ и $\overline\xi_2$ следует независимость $\xi_{1i}$ и $\xi_{2j}$ для любых $i\in\overline{1,m}$, $j\in\overline{1,n-m}$. Тогда $$\forall{i}\in\overline{1,m},\,\forall{j}\in\overline{1,n-m}(\cov{(\xi_{1i},\xi_{2j})=0})\Rightarrow\Sigma_{12}=0.$$ $\Leftarrow)$ Пусть $\Sigma_{12}=\Sigma_{21}=0$, тогда $$ \Sigma=\begin{pmatrix}\Sigma_{11} & 0 \\ 0 & \Sigma_{22}\end{pmatrix}\Rightarrow\left(\Sigma^{-1}= \begin{pmatrix}\Sigma_{11}^{-1} & 0 \\ 0 & \Sigma_{22}^{-1}\end{pmatrix}\wedge|\Sigma|=|\Sigma_{11}||\Sigma_{22}|\right). $$ Так как $$p_{\overline\xi}(x_1,\ldots,x_n)=\frac1{(2\pi)^{n/2}}|\Sigma|^{-1/2}e^{-Q(x_1,\ldots,x_n)/2},$$ где $Q(x_1,\ldots,x_n):=(x^{\downarrow}-\mu^{\downarrow})^T\Sigma^{-1}(x^{\downarrow}-\mu^{\downarrow})$, то обозначив $\overline{x}_1:=(x_1,\ldots,x_m)$, $\overline{x}_2:=(x_{m+1},\ldots,x_n)$, получим $$ Q(x_1,\ldots,x_n)=(\overline{x}_1-\overline\mu_1,\overline{x}_2-\overline\mu_2)\begin{pmatrix}\Sigma_{11}^{-1} & 0 \\ 0 & \Sigma_{22}^{-1}\end{pmatrix}\binom{x_1^{\downarrow}-\mu_1^{\downarrow}}{x_2^{\downarrow}-\mu_2^{\downarrow}}= (\overline{x}_1-\overline\mu_1)\Sigma_{11}^{-1}(x_1^{\downarrow}-\mu_1^{\downarrow})+(\overline{x}_2-\overline\mu_2)\Sigma_{22}^{-1}(x_2^{\downarrow}-\mu_2^{\downarrow}). $$ Обозначим $$Q_1(x_1,\ldots,x_m):=(\overline{x}_1-\overline\mu_1)\Sigma_{11}^{-1}(x_1^{\downarrow}-\mu_1^{\downarrow}),$$ $$Q_2(x_{m+1},\ldots,x_n):=(\overline{x}_2-\overline\mu_2)\Sigma_{22}^{-1}(x_2^{\downarrow}-\mu_2^{\downarrow}),$$ тогда $$ P_{\overline\xi}(x_1,\ldots,x_n)=\left(\frac1{(2\pi)^{m/2}}|\Sigma_{11}|^{-1/2}e^{-Q_1(x_1,\ldots,x_m)/2}\right)\times \left(\frac1{(2\pi)^{(n-m)/2}}|\Sigma_{22}|^{-1/2}e^{Q(x_{m+1},\ldots,x_n)/2}\right). $$ Обозначим множители последнего выражения как $h(x_1,\ldots,x_m,\overline\mu_1,\Sigma_{11})$ и $h(x_{m+1},\ldots,x_n,\overline\mu,\Sigma_{22})$ и докажем, что $p_{\overline\xi_1}(x_1,\ldots,x_m)=h(x_1,\ldots,x_m,\overline\mu_1,\Sigma_{11})$ и $p_{\overline\xi_2}(x_{m+1},\ldots,x_n)=h(x_{m+1},\ldots,x_n,\overline\mu_2,\Sigma_{22})$. Действительно, по п. 2 теоремы 3.8 \begin{multline*} p_{\overline\xi_1}(x_1,\ldots,x_m)=\int\limits_{-\infty}^{\infty}p_{\overline\xi}(x_1,\ldots,x_n)dx_{m+1}\cdots{d}x_n= \int\limits_{-\infty}^{\infty}h(x_1,\ldots,x_m,\overline\mu_1,\Sigma_{11})h(x_{m+1},\ldots,x_n,\overline\mu_2,\Sigma_{22})dx_{m+1}\cdots{d}x_n=\\= h(x_1,\ldots,x_m,\overline\mu_1,\Sigma_{11})\int\limits_{-\infty}^{\infty}h(x_{m+1},\ldots,x_n,\overline\mu_2,\Sigma_{22})dx_{m+1}\cdots{d}x_n= h(x_1,\ldots,x_m,\overline\mu_1,\Sigma_{11}), \end{multline*} здесь последнее равенство в силу того, что под знаком интеграла стоит плотность нормального распределения от пременных $x_{m+1},\ldots,x_n$. Аналогично показывается, что ${p_{\overline\xi_2}(x_{m+1},\ldots,x_n)=h(x_{m+1},\ldots,x_n,\overline\mu_2,\Sigma_{22})}$. Таким образом $$ p_{\overline\xi}(x_1,\ldots,x_n)=h(x_1,\ldots,x_m,\overline\mu_1,\Sigma_{11})h(x_{m+1},\ldots,x_n,\overline\mu_2,\Sigma_{22})= p_{\overline\xi_1}(x_1,\ldots,x_m)p_{\overline\xi_2}(x_{m+1},\ldots,x_n), $$ тогда по теореме 3.14 случайные величины $\overline\xi_1$ и $\overline\xi_2$ независимы.

Замечание 8.1: При доказательстве достаточности нормальность векторов $\overline\xi_1$ и $\overline\xi_2$ не использовалась, следовательно, для любых независимых случайных векторов $\xi_1$ и $\xi_2$ $\Sigma_{12}=0$

Следствие 8.1: Пусть вектор $\overline\xi=(x_1,\ldots,x_n)\sim{N}(\overline\mu,\Sigma)$ нормальный, $i_1,\ldots,i_m\in\overline{1,n}$, $\overline\xi_1:=(\xi_{i_1},\ldots,\xi_{i_m})$, вектор $\overline\xi_2$ составлен из всех остальных случайных величин, тогда $\cov{(\overline\xi_1,\xi_2^{\downarrow})}=0$.

Доказательство:
Доказывается аналогично теореме 8.2.

Следствие 8.2: Пусть $\overline\xi=(\xi_1,\ldots,\xi_n)\sim{N}(\overline\mu,\Sigma)$, тогда случайные величины $\xi_1,\ldots,\xi_n$ независимы тогда и только тогда, когда матрица $\Sigma$ диагональна.

Доказательство:
По следствию 8.1 для любого $k\in\overline{1,n}$ $\xi_k$ независима с остальными случайными величинами из $\overline\xi$ тогда и только тогда, когда ${\cov{(\xi_k,\xi_i)}=0}$ для любого $i\in\overline{1,n}$ такого, что $i\neq{k}$.

Следствие 8.3: Если подвекторы $\xi_1$, $\xi_2$ случайного вектора $\xi$ независимы, то $\Sigma_{12}=0$.

Доказательство:
Следует из замечания 8.1.

Следствие 8.4: Если случайные величины $\xi_1,\ldots,\xi_n$ независимы, то матрица $\Sigma$ диагональна.

Доказательство:
Из определения ковариационной матрицы $\Sigma$ (определение 8.2) следует, что если случайные величины $\xi_1,\ldots,\xi_n$ независимы, то $\Sigma=\diag{(D\xi_1,\ldots,D\xi_n)}$


previous contents next