previous contents next

12.2 Собственные векторы линейного преобразования.

Везде далее в этом разделе $L_P$ - конечномерное векторное пространство размерности $n$.

Определение 12.2:
Вектор $\alpha\in{L}_P\backslash\{\theta\}$ называется собственным вектором линейного преобразования $\varphi\in\mathcal{L}(L_P)$ принадлежащим собственному значению $r\in{P}$, если $\varphi(\alpha)=\alpha{r}$.
Элемент $r\in{P}$ называют собственным значением преобразования $\varphi\in\mathcal{L}(L_P)$, если существует вектор $\alpha\in{L}_P\backslash\{\theta\}$ такой, что $\varphi(\alpha)=\alpha{r}$.

Утверждение 12.5:
Пусть $\vec{\alpha}=(\alpha_1,\ldots,\alpha_n)$ - базис векторного простаранства $L_P$, $\varphi\in\mathcal{L}(L_P)$, тогда матрица $A_{\vec{\alpha}}(\varphi)$ диагональная тогда и только тогда, когда для любого $i\in\overline{1,n}$ $\alpha_i$ - собственный вектор преобразования $\varphi$.

Доказательство:

Матрица $A_{\vec{\alpha}}(\varphi)$ диагональная тогда и только тогда, когда для любого $i\in\overline{1,n}$ вектор $\varphi(\alpha_i)_{\vec{\alpha}}^{\downarrow}$ имеет на $i$-том месте некоторое $r_i\neq0$, а на всех остальных местах 0. Тогда и только тогда, когда для любого $i\in\overline{1,n}$ $\varphi(\alpha_i)=\vec{\alpha}\varphi(\alpha_i)_{\vec{\alpha}}^{\downarrow}=\alpha_i{r}_i$. Тогда и только тогда, когда для любого $i\in\overline{1,n}$ $\alpha_i$ - собственный вектор преобразования $\varphi$ принадлежащий собственному значению $r_i$.

Определение 12.5:
Пусть $A\in{P}_{n,n}$, тогда матрица $Ex-A\in{P}[x]_{n,n}$ называется характеристической матрицей матрицы $A$.
Многочлен $\chi_{A}(x):=|Ex-A|\in{P}[x]$ называется характеристическим многочленом матрицы $A$.

Замечание 12.3:

  1. Пусть $A=(a_{i,j})\in{P}_{n,n}$. Определитель $|Ex-A|$ содержит одно и только одно слагаемое степени $n$ - это произведение элементов главной диагонали, которые имеют вид $x-a_{i,i}$, cледовательно, многочлен $\chi_{A}(x)$ унитарен и $\deg{\chi_{A}(x)}=n$.
  2. Если $A=\diag(r_1,\ldots,r_n)$, то $\chi_{A}(x)=\prod_{i=1}^n(x-r_i)$.
  3. Пусть $f(x)=x^n+c_{n-1}x^{n-1}+\cdots+c_1x+c_0\in{P}[x]$, тогда матрица вида $$ S(f)= \begin{pmatrix} 0 & 0 & \cdots & 0 & -c_0 \\ e & 0 & \cdots & 0 & -c_1 \\ \vdots& \ddots & \ddots &\vdots& \vdots \\ 0 & \cdots & e & 0 & -c_{n-2} \\ 0 & \cdots & \cdots & e & -c_{n-1} \end{pmatrix}\in{P}_{n,n} $$ назвается сопровождающей матрицей для многочлена $f(x)$.

Задача 12.4:
Пусть $f(x)=x^n+c_{n-1}x^{n-1}+\cdots+c_1x+c_0\in{P}[x]$. Доказать, что $\chi_{S(f)}(x)=f(x)$.
Решение.
Докажем индукцией по степени многочлена.

  1. При $n=1$ $f(x)=x+c_0$, $S(f)=(-c_0)\in{P}_{1,1}$, тогда $$\chi_{S(f)}(x)=|Ex-S(f)|=|(x+c_0)|=x+c_0=f(x).$$
  2. Для любого $m\geq1$ докажем, что из справедливости утверждения при $1\leq{n}<m$ следует его справедливость при $n=m$.
    По теореме 3.7 (теорема Лапласа), разложив определитель по первой строке, имеем $$ \chi_{S(f)}(x)=|Ex-S(f)|= \begin{vmatrix} x & 0 & \cdots & 0 & c_0 \\ -e & x & \cdots & 0 & c_1 \\ \vdots& \ddots & \ddots &\vdots & \vdots \\ 0 & \cdots & -e & x & c_{n-2} \\ 0 & \cdots & \cdots & -e & c_{n-1} \end{vmatrix} = x(-e)^2 \begin{vmatrix} x & 0 & \cdots & 0 & c_1 \\ -e & x & \cdots & 0 & c_2 \\ \vdots & \ddots& \ddots &\vdots & \vdots \\ 0 & \cdots & -e & x & c_{n-2} \\ 0 & \cdots &\cdots & -e & c_{n-1} \end{vmatrix}+c_0(-e)^{n+1}(-e)^{n-1} $$ Определитель в последнем выражении есть $\chi_{S(g)}(x)=|Ex-S(g)|$, где $g(x)=x^{n-1}+c_{n-1}x^{n-2}+\cdots+xc_2+c_1$. Тогда $\deg{g(x)}=n-1<n$ и по предположению индукции $\chi_{S(g)}(x)=g(x)$, следвательно $$(-e)^{2n}=e\Rightarrow\chi_{S(f)}(x)=xg(x)+c_0=f(x).$$

Утверждение 12.6:
Пусть матрицы $A,B\in{P}_{n,n}$ такие, что $A\approx{B}$, тогда $\chi_{A}(x)=\chi_{B}(x)$.

Доказательство:

Так как $A\approx{B}$, то существует матрица $C\in{P}_{n,n}^*$ такая, что $B=C^{-1}AC$. По теореме 3.5 $$Ex=(C^{-1}C)Ex=C^{-1}(CE)x=C^{-1}(EC)x=C^{-1}E(xC)=C^{-1}ExC,$$ тогда по теореме 3.6 $$ \chi_{B}(x)=|Ex-B|=|Ex-C^{-1}AC|=|C^{-1}ExC-C^{-1}AC|=\\=|C^{-1}(Ex-A)C|=|C^{-1}||Ex-A||C|=|C|^{-1}\chi_{A}(x)|C|=\chi_{A}(x) $$

Замечание 12.4:
Утверждение обратное утверждению 12.6 не верно, например, при $P=GF(2)$, $A=\left(\begin{smallmatrix}1 & 0 \\ 0 & 1\end{smallmatrix}\right)$, $b=\left(\begin{smallmatrix}1 & 1 \\ 0 & 1\end{smallmatrix}\right)$ $\chi_{A}(x)=\chi_{B}(x)=(x-1)^2$, но $A=E$ не подобна $B$, так как единичной матрице подобна только единичная.

Определение 12.6:
Для любого базиса $\vec{\alpha}$ векторного пространства $L_P$ и преобразования $\varphi\in\mathcal{L}(L_P)$ характеристический многочлен матрицы $A_{\vec{\alpha}}(\varphi)$ называется характеристическим многочленом преобразования $\varphi$.
Характеристические многочлены преобразования $\varphi$ обозначаются как $\chi_{\varphi}(x)$.

Теорема 12.3:
Пусть $\vec{\alpha}$ - базис векторного пространства $L_P$, $\varphi\in\mathcal{L}(L_P)$, $r\in{P}$, тогда

  1. вектор $\gamma\in{L}_P$ является собственным вектором преобразования $\varphi$ принадлежащим собственному занчению $r$ тогда и только тогда, когда $\gamma\neq\theta$ и $(Er-{A}_{\vec{\alpha}}(\varphi))\gamma_{\vec{\alpha}}^{\downarrow}=0^{\downarrow}$
  2. элемент $r$ является собственным значением преобразования $\varphi$ тогда и только тогда, когда $\chi_{\varphi}(r)=0$,

Доказательство:

  1. Вектор $\gamma\in{L}_P$ является собственным вектором преобразования $\varphi$ принадлежащим собственному значению $r$ тогда и только тогда, когда $$ (\gamma\neq\theta\,\wedge\,\varphi(\gamma)=\gamma{r})\Leftrightarrow\left(\gamma\neq\theta\,\wedge,\varphi(\gamma)_{\vec{\alpha}}^{\downarrow}= (\gamma{r})_{\vec{\alpha}}^{\downarrow}\right)\Leftrightarrow \left(\gamma\neq\theta\,\wedge\,A_{\vec{\alpha}}(\varphi)\gamma_{\vec{\alpha}}^{\downarrow}=\gamma_{\vec{\alpha}}^{\downarrow}r= (Er)\gamma_{\vec{\alpha}}^{\downarrow}\right)\Leftrightarrow \left(\gamma\neq\theta\,\wedge\,(Er-A_{\vec{\alpha}}(\varphi))\gamma_{\vec{\alpha}}^{\downarrow}=0^{\downarrow}\right) $$
  2. По пункту 1 элемент $r$ является собственным значением преобразования $\varphi$ тогда и только тогда, когда сущетсвует вектор $\gamma\in{L}_P\backslash\{\theta\}$ такой, что $(Er-A_{\vec{\alpha}}(\varphi))\gamma_{\vec{\alpha}}^{\downarrow}=0^{\downarrow}$ тогда и только тогда, когда СОЛУ $(Er-A_{\vec{\alpha}}(\varphi))x^{\downarrow}=0^{\downarrow}$ имеет ненулевое решение тогда и только тогда, когда $\rang(Er-A_{\vec{\alpha}}(\varphi))<n$ тогда и только тогда, когда $$\chi_{\varphi}(r)=|Er-A_{\vec{\alpha}}(\varphi)|=0.$$

Утверждение 12.7:
Пусть $r_1,\ldots,r_t$ - попарноразличные корни многочлена $\chi_{\varphi}(x)$, для любого $i\in\overline{1,t}$ $\alpha_{i,1},\ldots,\alpha_{i,m_i}$ линейно независимая система собствернных векторов принадлежащих собственному значению $r_i$, тогда система векторов $\alpha_1,\ldots,\alpha_{1,m_1},\alpha_{2,1},\ldots,\alpha_{2,m_2},\ldots,\alpha_{t,1},\ldots,\alpha_{t,m_t}$ линейно независимая.

Доказательство:

Докажем индукцией по $t$.

  1. При $t=1$ система состоит из одной ЛНЗ подсистемы, следовательно, она ЛНЗ.
  2. Для любого $n\geq1$ докажем, что если для любого $t\in\overline{1,n}$ утверждение верно, то оно верно при $t=n+1$.
    Пусть $c_{i,j}\in{P}$ такие, что $\sum_{i=1}^t\sum_{j=1}^{m_i}\alpha_{i,j}c_{i,j}=\theta$, тогда $$r_t\sum_{i=1}^t\sum_{j=1}^{m_i}\alpha_{i,j}c_{i,j}=\sum_{i=1}^t\sum_{j=1}^{m_i}\alpha_{i,j}r_tc_{i,j}=\theta\quad(*),$$ $$ \sum_{i=1}^t\sum_{j=1}^{m_i}\alpha_{i,j}r_ic_{i,j}=\sum_{i=1}^t\sum_{j=1}^{m_i}\varphi(\alpha_i)c_{i,j}= \varphi\left(\sum_{i=1}^t\sum_{j=1}^{m_i}\alpha_{i,j}c_{i,j}\right)=\varphi(\theta)=\theta. $$ Вычитая из полученного равенства равенство $(*)$, получим $$\sum_{i=1}^t\sum_{j=1}^{m_i}\alpha_{i,j}(r_i-r_t)c_{i,j}=\sum_{i=1}^{t-1}\sum_{j=1}^{m_i}\alpha_{i,j}(r_i-r_t)=\theta.$$ Здесь первое равенство в силу того, что все слагаемые $t$-той суммы будут равны 0. По предположению индукции система векторов $\alpha_{1,1},\ldots,\alpha_{1,m_1},\alpha_{2,1},\ldots,\alpha_{2,m_2},\ldots,\alpha_{t-1,1},\ldots,\alpha_{t-1,m_{t-1}}$ ЛНЗ, тогда для любого $i\in\overline{1,t-1}$ $j\in\overline{1,m_i}$ $(r_i-r_t)c_{i,j}=0$. Так как все элементы в $r_1,\ldots,r_t$ попарноназличны, то $$ \forall{i}\in\overline{1,t-1}(r_i-r_t\neq0)\Rightarrow\forall{i}\in\overline{1,t-1}\,\forall{j}\in\overline{1,m_i}(c_{i,j}=0)\Rightarrow \sum_{i=1}^{t-1}\sum_{j=1}^{m_i}\alpha_{i,j}c_{i,j}=\theta\Rightarrow\sum_{j=1}^{m_t}\alpha_{t,j}c_{t,j}=\theta\Rightarrow \forall{j}\in\overline{1,m_t}(c_{t,j}=0)\Rightarrow\forall{i}\in\overline{1,t}\,j\in\overline{1,m_i}(c_{i,j}=0). $$ Здесь предпоследняя импликация в силу того что система $\alpha_{t,1},\ldots,\alpha_{t,m_t}$ ЛНЗ. Таким образом, система $\alpha_{1,1},\ldots,\alpha_{1,m_1},\alpha_{2,1},\ldots,\alpha_{2,m_2},\ldots,\alpha_{t,1},\ldots,\alpha_{t,m_t}$ ЛНЗ.


previous contents next