Утверждение 15.1: Обозначим $C:=(c_{i,j})_{n\times{m}}$, $\vec\varepsilon=(\varepsilon_1,\ldots,\varepsilon_n)$ - вектор ошибок измерений, $\vec\theta:=(\theta_1,\ldots,\theta_m)$ - вектор оцениваемых параметров, $A^{\downarrow}:=C\theta^{\downarrow}$, $\vec{Y}:=\vec{A}+\vec\varepsilon$ - вектор измерений, $\tilde\theta:=(\tilde\theta_1,\ldots,\tilde\theta_m)$ - вектор ОНК. Тогда, если матрица $C^TC$ невырождена, то $$\tilde\theta^{\downarrow}=(C^TC)^{-1}C^TY^{\downarrow}.$$
Доказательство:
Согласно введенным обозначениям
$$\psi(\theta_1,\ldots,\theta_m)=(Y^{\downarrow}-C\theta^{\downarrow})^T(T^{\downarrow}-C\theta^{\downarrow}).\quad(*)$$
Согласно утверждению 12.4.1 MA,
вектор $\tilde\theta$ параметров минимизирующий функцию $\psi(\theta_1,\ldots,\theta_m)$ можно найти как решение системы
$$\left\{\frac{\partial\psi}{\partial\theta_j}=0,\,j\in\overline{1,m}\right.$$
Продифференцировав $(*)$ получим
\begin{multline*}
\frac{\partial\psi}{\partial\theta_j}=
\left(-C\frac{\partial\theta^{\downarrow}}{\partial\theta_j}\right)^T(Y^{\downarrow}-C\theta^{\downarrow})-(Y^{\downarrow}-C\theta^{\downarrow})^T\left(C\frac{\partial\theta^{\downarrow}}{\partial\theta_j}\right)=
-\left(C\frac{\partial\theta^{\downarrow}}{\partial\theta_j}\right)^T(Y^{\downarrow}-C\theta^{\downarrow})-\left(\left(C\frac{\partial\theta^{\downarrow}}{\partial\theta_j}\right)^T(Y^{\downarrow}-C\theta^{\downarrow})\right)^T=\\=
-2\left(C\frac{\partial\theta^{\downarrow}}{\partial\theta_j}\right)^T(Y^{\downarrow}-C\theta^{\downarrow})=0\Rightarrow\left(\frac{\partial\theta^{\downarrow}}{\partial\theta_j}\right)^T(C^TY^{\downarrow}-C^TC\theta^{\downarrow})=0,
\end{multline*}
где второе равенство в силу п. 3 теоремы 3.4 DM ($(AB)^T=B^TA^T$),
а третье в силу скалярности слагаемых.
Так как для любого $j\in\overline{1,m}$ вектор $\partial\theta^{\downarrow}/\partial\theta_j$ состоит из единицы на $j$-том месте и нулей на остальных местах, то
$$
\left\{\frac{\partial\psi}{\partial\theta_j}=0,\,j\in\overline{1,m}\right.\Leftrightarrow{C}^TY^{\downarrow}-C^TC\theta^{\downarrow}=0\Leftrightarrow
{C}^TC\theta^{\downarrow}=C^TY^{\downarrow}.
$$
Следовательно, если матрица $C^TC$ невырожденная, то ОНК можно найти по формуле
$$\tilde\theta^{\downarrow}=(C^TC)^{-1}C^TY^{\downarrow}.$$
Замечание 15.1:
Далее везде будем считать, что матрица $C^TC$ невырождена.
Теорема 15.1:
Доказательство:
Утверждение 15.2: В обозначениях утверждения 15.1
Доказательство:
Замечание 15.2:
На диагонали матрицы $\cov(\tilde\theta^{\downarrow},\tilde\theta)$ стоят дисперсии ОНК. Из п. 2 утверждения 15.2 следует,
что они пропорциональны дисперсии ошибок измерений, следовательно, минимизация дисперсий ОНК сводится к минимизации дисперсии ошибок измерений $\sigma^2$
Теорема 15.2: В обозначениях утверждения 15.1 положим $\tilde{A}^{\downarrow}:=C\tilde\theta$, $\tilde\varepsilon^{\downarrow}:=Y^{\downarrow}-\tilde{A}^{\downarrow}$, тогда величина $$\frac{\tilde\varepsilon\tilde\varepsilon^{\downarrow}}{n-m}$$ является несмещённой оценкой для дисперсии ошибки измерений $\sigma^2$.
Доказательство:
По утверждению 15.1
\begin{multline*}
\tilde\varepsilon^{\downarrow}=Y^{\downarrow}-\tilde{A}^{\downarrow}=C\theta^{\downarrow}+\varepsilon^{\downarrow}-C\tilde\theta^{\downarrow}=
C\theta^{\downarrow}+\varepsilon^{\downarrow}-C(C^TC)^{-1}C^TY^{\downarrow}=
C\theta^{\downarrow}+\varepsilon^{\downarrow}-C(C^TC)^{-1}C^T(C\theta^{\downarrow}+\varepsilon^{\downarrow})=\\=
C\theta^{\downarrow}+\varepsilon^{\downarrow}-C\theta^{\downarrow}-C(C^TC)^{-1}C^T\varepsilon^{\downarrow}=
\varepsilon^{\downarrow}(I-C(C^TC)^{-1}C^T).
\end{multline*}
Обозначим $F:=(f_{i,j})_{n\times{n}}:=I-C(C^TC)^{-1}C^T$, тогда, так как матрица $(C^TC)^{-1}$ симметрична
(см. доказательство утверждения 15.2), то
$$F^T=(I-C(C^TC)^{-1}C^T)^T=I-(C^T)^T(C^TC)^{-1}C^T=F$$
и
\begin{multline*}
F^2=(I-C(C^TC)^{-1}C^T)(I-C(C^TC)^{-1}C^T)=I-2C(C^TC)^{-1}C^T+C(C^TC)^{-1}C^TC(C^TC)^{-1}C^T=\\=
I-2C(C^TC)^{-1}C^T-C(C^TC)^{-1}C^T=I-C(C^TC)^{-1}C^T=F.
\end{multline*}
Следовательно,
$$
\tilde\varepsilon\tilde\varepsilon^{\downarrow}=\vec\varepsilon{F}^TF\varepsilon^{\downarrow}=\vec\varepsilon{F}^2\varepsilon^{\downarrow}=
\vec\varepsilon{F}\varepsilon^{\downarrow}=\sum_{i=1}^nf_{i,i}\varepsilon_i^2+\sum_{i\neq{j}}f_{i,j}\varepsilon_i\varepsilon_j,
$$
тогда в силу равноточности измерений и отсутствия корреляции ошибок
$$
E\tilde\varepsilon\tilde\varepsilon^{\downarrow}=\sum_{i=1}^nf_{i,i}E\varepsilon_i^2+\sum_{i\neq{j}}f_{i,j}E\varepsilon_i\varepsilon_j=
\sigma^2\sum_{i=1}^nf_{i,i}=\sigma^2\tr{F},
$$
где $\tr$ - функция "след матрицы" равная сумме диагональных элементов квадратной матрицы.
Нетрудно видеть, что для любых квадратных матриц $A:=(a_{i,j})_{n\times{n}}$, $B:=(b_{i,j})_{n\times{n}}$ $\tr(A+B)=\tr{A}+\tr{B}$ и
$$\tr(AB)=\sum_{i=1}^n\sum_{j=1}^na_{i,j}b_{j,i}=\sum_{j=1}^n\sum_{i=1}^nb_{j,i}a_{i,j}=\tr(BA).$$
Тогда
$$
\tr{F}=\tr(I-C(C^TC)^{-1}C^T)=\tr{I}-\tr(C(C^TC)^{-1}C^T)==n-\tr(C^TC(C^TC)^{-1})=n-m,
$$
следовательно,
$$E\tilde\varepsilon\tilde\varepsilon^{\downarrow}=\sigma^2(n-m)\Rightarrow{E}\frac{\tilde\varepsilon\tilde\varepsilon^{\downarrow}}{n-m}=\sigma^2$$
Замечание 15.3: Доверительный интервал для $\sigma^2$.
Будем считать, что ошибка измерений распределена нормально,
то есть $\varepsilon^{\downarrow}\sim{N}(0^{\downarrow},\sigma^2I_{n\times{n}})$.
Обозначим $\Sigma_{\varepsilon}$ ковариционную матрицу оценки ошибки измерений $\tilde\varepsilon^{\downarrow}:=F\varepsilon^{\downarrow}$,
тогда в обозначениях теоремы 15.2
$$
\Sigma_{\varepsilon}=E\tilde\varepsilon^{\downarrow}\tilde\varepsilon=E(F\varepsilon^{\downarrow}\vec\varepsilon{F})=
F(\sigma^2I_{n\times{b}})F=\sigma^2F^2=\sigma^2F.
$$
Тогда так как $F=F^T$ и нормальное распределение устойчиво относительно линейного преобразования (википедия),
то $\tilde\varepsilon^{\downarrow}\sim{N}(0^{\downarrow},\sigma^2F)$, следовательно, $(\tilde\varepsilon^{\downarrow}/\sigma)\sim{N}(0,F)$.
Так как $F^2=F$, то многочлен $x(x-1)$ аннулирует матрицу $F$, следовательно, только (?) числа 0 и 1 являются собственными значениями матрицы $F$.
Так как $\tr{F}=n-m$ равен сумме собственных значений матрицы (википедия), то матрица $F$ имеет среди харакристических чисел $n-m$ единиц,
следовательно (?), $\rang{F}=n-m$. Тогда из доказательства теоремы 12.7 (?) следует, что
$$\frac{\tilde\varepsilon\tilde\varepsilon^{\downarrow}}{\sigma^2}\sim\chi_{n-m}^2.$$
Пусть $\alpha$ коэффициент надежности, $a$ и $b$ квантили распределения $\chi_{n-m}^2$ уровня $\alpha/2$ и $1-\alpha/2$ соотвественно, тогда из равенства
$$P\left\{a<\frac{\tilde\varepsilon\tilde\varepsilon^{\downarrow}}{\sigma^2}<b\right\}=1-\alpha$$
находим доверительный интервал для $\sigma^2$ с коэффициентом надежности $\alpha$
$$\left(\frac{\tilde\varepsilon\tilde\varepsilon^{\downarrow}}{b},\frac{\tilde\varepsilon\tilde\varepsilon^{\downarrow}}{a}\right)$$
Определение 15.1:
Оценки вида $\tilde\theta^{\downarrow}:=BY^{\downarrow}$ для вектора параметров $\theta^{\downarrow}$, будем называть линейными.
Лемма 15.1: В обозначениях теоремы 15.1 оценка $\tilde\theta^{\downarrow}:=BY^{\downarrow}$ является несмещённой тогда и только тогда, когда $BC=I_{n\times{n}}$.
Доказательство:
$\Rightarrow)$ Пусть для любого $\theta^{\downarrow}$ $E\tilde\theta^{\downarrow}=\theta^{\downarrow}$, тогда для любого $\theta^{\downarrow}$
$$
EBY^{\downarrow}=EB(C\theta^{\downarrow}+\varepsilon^{\downarrow})=BC\theta^{\downarrow}+BE\varepsilon^{\downarrow}=BC\theta^{\downarrow}=\theta^{\downarrow},
$$
следовательно, $BC=I$.
$\Leftarrow)$ Пусть $BC=I$, тогда
$$
E\tilde\theta^{\downarrow}=EBY^{\downarrow}=EB(C\theta^{\downarrow}+\varepsilon^{\downarrow})=BC\theta^{\downarrow}+BE\varepsilon^{\downarrow}=\theta^{\downarrow}.
$$
Теорема 15.3: Оценки наименьших квадратов являются оптимальными в смысле минимума дисперсии в классе линейных оценок.
Доказательство:
Пусть $\tilde\theta^{\downarrow}=BY^{\downarrow}$, тогда ковариационная матрица оценки $\tilde\theta^{\downarrow}$ имеет вид
$$
\Sigma=E((\tilde\theta^{\downarrow}-\theta^{\downarrow})(\tilde\theta^{\downarrow}-\theta^{\downarrow})^T)=
E((BY^{\downarrow}-\theta^{\downarrow})(BY^{\downarrow}-\theta^{\downarrow})^T)=
E((BC\theta^{\downarrow}+B\varepsilon^{\downarrow}-\theta^{\downarrow})(BC\theta^{\downarrow}+B\varepsilon^{\downarrow}-\theta^{\downarrow})^T)=
E(B\varepsilon^{\downarrow}\vec\varepsilon{B}^T)=\sigma^2BB^T
$$
Так как оптимальная оценка по определению несмещена, то по лемме 15.1 $BC=I$, следовательно, учитывая, что матрица $(C^TC)^{-1}$ симметрична
(см. доказательство утверждения 15.2) имеем
\begin{multline*}
(B-(C^TC)^{-1}C^T)(B-(C^TC)^{-1}C^T)^T=(B-(C^TC)^{-1}C^T)(B^T-C(C^TC)^{-1})=\\=
BB^T-BC(C^TC)^{-1}-(C^TC)^{-1}C^TB^T+(C^TC)^{-1}C^TC(C^TC)^{-1}=BB^T-2(C^TC)^{-1}+(C^TC)^{-1}C^TC((C^TC)^{-1})^T
\end{multline*}
откуда
$$BB^T=(B-(C^TC)^{-1}C^T)(B-(C^TC)^{-1}C^T)^T+\mathcal{F}(C),$$
где $\mathcal{F}$ некоторая функция зависящая только от $C$ и не зависящая от $B$.
Первое слагаемое в последнем выражении обращается в нуль тогда и только тогда, когда $B=(C^TC)^{-1}C^T$.
С другой стороны, по теореме 15.1 ОНК выражаются в виде $(C^TC)^{-1}C^TY^{\downarrow}$,
то есть $BB^T$ достигает минимума (поэлементного?), если в качестве $\tilde\theta^{\downarrow}$ выступают ОНК.
previous contents next