algebra-mech/linear-maps.tex

1564 lines
94 KiB
TeX
Raw Permalink Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

\section{Линейные отображения}
\subsection{Первые определения}
\literature{[F], гл. XII, \S~4, п. 1.; [K2], гл. 2, \S~1, п. 1; [KM],
ч. 1, \S~3, пп. 1, 2; [vdW], гл. IV, \S~23.}
\begin{definition}
Пусть $V$, $W$~--- векторные пространства над полем $k$.
Отображение $T\colon V\to W$ называется \dfn{линейным},
если
\begin{itemize}
\item $T(u+v)=T(u) + T(v)$;
\item $T(va) = T(v)a$ для всех $a\in k$, $v\in V$.
\end{itemize}
Иногда вместо $T(v)$ мы будем писать $Tv$.
Множество всех линейных отображений из $V$ в $W$ мы будем
обозначать через $\Hom(V,W)$.
Линейное отображение часто называется
\dfn{гомоморфизмом}\index{гомоморфизм!векторных пространств} векторных
пространств; оно называется
\dfn{эндоморфизмом}\index{эндоморфизм!векторных пространств}, если $U=V$.
\end{definition}
\begin{example}
Обозначим через $0$ отображение, которое любой вектор $v\in V$
переводит в $0\in W$; то есть, $0(v)=0$ для всех $v\in V$.
Нетрудно видеть, что оно линейно, то есть,
$0\in\Hom(V,W)$. Обратите внимание, что мы используем тот же
символ $0$, что и для обозначения нулевого элемента поля $k$
и нулевых элементов в векторных пространствах $V$ и $W$.
\end{example}
\begin{example}
Для каждого векторного пространства $V$ можно рассмотреть
тождественное отображение $\id_V\colon V\to V$.
Нетрудно проверить, что он линейно; таким образом,
$\id_V\in\Hom(V,W)$.
\end{example}
\begin{example}\label{example:linear-derivative}
Для пространства многочленов $k[x]$ можно рассмотреть отображение
{\em дифференцирования} $T\colon k[x]\to k[x]$, сопоставляющее каждому
многочлену $f\in k[x]$ его производную $f'$. Это отображение линейно,
поскольку $(f+g)' = f' + g'$ и $(fa)' = f'a$ для всех
$f,g\in k[x]$ и $a\in k$ (см.
предложение~\ref{prop:derivative-properties}).
\end{example}
\begin{example}\label{example:linear-timesx}
Отображение $k[x]\to k[x]$, умножающее каждый многочлен на $x$,
является линейным.
\end{example}
\begin{example}
Снова рассмотрим пространство многочленов $k[x]$, и пусть
$c\in k$~--- фиксированный элемент основного поля.
Рассмотрим отображение $\ev_c\colon k[x]\to k$, сопоставляющее
каждому многочлену $f\in k[x]$ его значение в точке $c$.
Иными словами, $\ev_c(f) = f(c)$.
Это отображение линейно (см. предложение~\ref{prop:evaluation-properties});
оно называется \dfn{эвалюацией в точке $c$}.
\end{example}
\begin{example}
Пусть $k=\mb R$; рассмотрим отображение $T\colon \mb R[x]\to\mb R$,
сопоставляющее многочлену $f\in\mb R[x]$ значение интеграла
$$
T(f) = \int_0^1 f(x)\;dx.
$$
Из простейших свойств определенного интеграла следует, что
отображение $T$ линейно.
\end{example}
\begin{example}
Рассмотрим пространство бесконечных последовательностей ${}^\infty k$.
Отображение $T\colon {}^\infty k\to {}^\infty k$, сопоставляющее
последовательности $(x_1,x_2,\dots)$ последовательность
$(x_2,x_3,\dots)$ ({\em сдвиг влево}) является линейным.
\end{example}
Пусть $T\colon V\to W$~--- линейное отображение, и пусть
$v_1,\dots,v_n$~--- базис пространства $V$.
Если $v\in V$, то можно записать $v = v_1a_1 + \dots + v_na_n$
для некоторых $a_1,\dots,a_n\in k$. Тогда
из определения линейности следует, что
$T(v) = T(v_1)a_1 + \dots + T(v_n)a_n$.
Это означает, что значение $T$ на любом векторе $v$ полностью
определяется своими значениями на базисе. Обратно, можно задать
значения $T(v_1),\dots, T(v_n)\in W$ {\em произвольным} образом,
и по этим данным однозначно восстанавливается единственное
линейное отображение из $V$ в $W$.
\begin{theorem}[Универсальное свойство базиса]\label{thm:universal-basis-property}
Пусть $V,W$~--- конечномерные векторные пространства,
$v_1,\dots,v_n$~--- базис $V$, и пусть заданы произвольные
векторы $w_1,\dots,w_n\in W$.
Существует единственное линейное отображение $T\colon V\to W$
такое, что $T(v_i) = w_i$ для всех $i=1,\dots,n$.
\end{theorem}
\begin{proof}
Возьмем вектор $v\in V$ и разложим его базису $v_1,\dots,v_n$:
$v = v_1a_1 + \dots + v_na_n$.
Если $T(v_i) = w_i$ для $i=1,\dots,n$, то
\begin{align*}
T(v) &= T(v_1a_1+\dots+v_na_n) \\
&= T(v_1)a_1+\dots+T(v_n)a_n \\
&= w_1a_1 + \dots + w_na_n.
\end{align*}
Таким образом, значение $T$ на $v$ однозначно определено
(поскольку коэффициенты $a_1,\dots,a_n$ однозначно определяются
вектором $v$, см. теорему~\ref{thm:basis-equiv}).
Это рассуждение работает для произвольного вектора $v\in V$,
поэтому линейное отображение $T$, удовлетворяющее условиям
$T(v_i) = w_i$, единственно.
Обратно, если нам дан базис $\{v_i\}$ в $V$ и
векторы $\{w_i\}$, то для произвольного вектора
$v = v_1a_1 + \dots + v_na_n$ положим
$T(v) = w_1a_1 + \dots + w_na_n$ (это выражение определено
однозначно по теореме~\ref{thm:basis-equiv}).
Мы получили отображение $T\colon V\to W$; осталось доказать, что
оно линейно. Действительно, пусть $u,v\in V$,
причем $v = v_1a_1+\dots+v_na_n$ и $u=v_1b_1+\dots+v_nb_n$.
Тогда по нашему определению
$T(v) = w_1a_1 + \dots + w_na_n$,
$T(u) = w_1b_1 + \dots + w_nb_n$.
Сложение выражений для $u$ и $v$ показывает, что
$u+v = v_1(a_1+b_1) + \dots + v_n(a_n+b_n)$, и по определению
$T$ тогда $T(u+v) = w_1(a_1+b_1) + \dots + w_n(a_n+b_n)$.
Нетрудно видеть теперь, что $T(u+v) = T(u) + T(v)$.
Если, кроме того, $a\in k$,
то $va = v_1a_1a + \dots + v_na_na$, и потому
$T(va) = w_1a_1a + \dots + w_na_na$. Легко проверить,
что $T(va) = T(v)a$.
\end{proof}
\subsection{Операции над линейными отображениями}\label{subsect:hom_space}
\literature{[F], гл. XII, \S~4, пп. 4--6; [K2], гл. 2, \S~1, п. 1;
\S~2, пп. 1--2; [KM], ч. 1, \S~3; [vdW], гл. IV, \S~23.}
Пусть $V,W$~--- векторные пространства над $k$. Оказывается,
множество $\Hom(V,W)$ всех линейных отображений из $V$ в $W$
естественным образом снабжается структурой векторного
пространства над $k$.
Чтобы продемонстрировать это, мы должны определить на нем
две операции: сложение и умножение на скаляр.
Пусть $S,T\colon V\to W$~--- линейные отображения.
Определим новое отображение $S+T\colon V\to W$
формулой $(S+T)(v) = S(v) + T(v)$ для всех $v\in V$.
Нетрудно проверить, что отображение $S+T$ линейно.
Поэтому для $S,T\in\Hom(V,W)$ мы построили их сумму
$S+T\in\Hom(V,W)$.
Если же $S\colon V\to W$~--- линейное отображение, и $a\in k$,
можно определить отображение $Sa\colon V\to W$ формулой
$(Sa)(v) = S(v)a$. Это отображение также линейно, то есть,
$Sa\in\Hom(V,W)$.
Теперь можно проверить, что введенные операции действительно
превращают $\Hom(V,W)$ в векторное пространство.
Роль нулевого элемента в нем играет нулевое отображение
$0\colon\Hom(V,W)$. Для примера проверим одно условие из
определения векторного пространства:
пусть $S,T\in\Hom(V,W)$, $a\in k$.
Тогда для всех $v\in V$ выполнены равенства
\begin{align*}
((S+T)a)(v) &= ((S+T)(v))\cdot a \\
&= (S(v)+T(v))a \\
&= (S(v)a) + (T(v)a) \\
&= (Sa)(v) + (Ta)(v) \\
&= (Sa+Ta)(v)
\end{align*}
Поэтому отображения $(S+T)a$, $Sa+Ta$ из $V$ в $W$ совпадают.
% 23.03.2015
Более того, некоторые линейные отображения можно <<перемножать>>.
Пусть $U,V,W$~--- векторные пространства над $k$.
Возьмем линейные отображения $T\in\Hom(U,V)$ и
$S\in\Hom(V,W)$. Тогда имеет смысл рассматривать их композицию
$S\circ T\colon U\to W$. Оказывается, отображение $S\circ T$
также является линейным. Действительно, напомним, что
$(S\circ T)(u) = S(T(u))$ для всех $u\in U$ по определению
композиции.
Поэтому
\begin{align*}
(S\circ T)(u_1+u_2) &= S(T(u_1+u_2)) \\
&= S(T(u_1)+T(u_2)) \\
&= S(T(u_1))+S(T(u_2)) \\
&= (S\circ T)(u_1) + (S\circ T)(u_2)
\end{align*}
для всех $u_1,u_2\in U$. Если же $u\in U$, $a\in k$, то
$$
(S\circ T)(ua) = S(T(ua)) = S(T(u)a) = S(T(u))a
= (S\circ T)(u)a.
$$
Значит, $S\circ T\in\Hom(U,W)$.
Вместо $S\circ T$ мы будем часто писать $ST$ и воспринимать
$ST$ как {\em произведение} линейных отображений $S$ и $T$.
Заметим, что композиция линейных отображений автоматически
ассоциативна (по теореме~\ref{thm_composition_associative}),
то есть, $R(ST) = (RS)T$ для трех линейных отображений таких,
что указанные композиции имеют смысл.
Тождественные отображения линейны и играют роль нейтральных
элементов: $T\id_V = \id_W T$ для $T\in\Hom(V,W)$.
Наконец, несложно проверить (упражнение!), что
умножение и сложение линейных отображений обладают свойством
дистрибутивности: если $T,T_1,T_2\in\Hom(U,V)$
и $S,S_1,S_2\in\Hom(V,W)$
то $(S_1+S_2)T = S_1T + S_2T$ и $S(T_1+T_2) = ST_1 + ST_2$.
Конечно, произведение линейных отображений некоммутативно:
равенство $ST=TS$ не обязано выполняться, даже если обе его
части имеют смысл. Например, если $T\in\Hom(k[x],k[x])$~---
отображение дифференцирования многочленов
(см. пример~\ref{example:linear-derivative}),
а $S\in\Hom(k[x],k[x])$~--- умножение на $x$
(см. пример~\ref{example:linear-timesx}),
то $((ST)(f))(x) = xf'(x)$,
а $((TS)(f))(x) = (xf(x))' = xf'(x) + f(x)$.
Таким образом, $ST-TS = \id_{k[x]}$.
\subsection{Ядро и образ}
\literature{[F], гл. XII, \S~4, п. 1; [K2], гл. 2, \S~1, пп. 1, 3;
[KM], ч. 1, \S~3.}
\begin{definition}
Пусть $T\in\Hom(V,W)$~--- линейное отображение. Его
\dfn{ядром} называется множество векторов, переходящих
в $0$ под действием $T$:
$$
\Ker(T) = \{v\in V\mid T(v) = 0\}.
$$
\end{definition}
\begin{example}
Если $T\in\Hom(k[x],k[x])$~--- дифференцирование
(см. пример~\ref{example:linear-derivative}), то
$\Ker(T) = \{f\in k[x] \mid f'=0\}$. Если поле $k$
имеет характеристику $0$, то $\Ker(T)$ состоит только из
констант, то есть, $\Ker(T) = k\subseteq k[x]$~--- одномерное
подпространство в $k[x]$. Если же
$\cchar k = p$, то существуют и неконстантные многочлены
$f\in k[x]$
такие, что $f'=0$. Например, таков многочлен $x^p$,
а потому и любой многочлен от $x^p$: действительно,
обозначим $g(x) = x^p$, тогда
$(f(g(x)))' = f'(g(x))\cdot g'(x) = 0$.
Можно показать (упражнение!),
что $\Ker(T)$ в этом случае в точности состоит
из многочленов от $x^p$, то есть, от многочленов вида
$\sum_{j=0}^n a_j x^{jp}$. Таким образом,
$\Ker(T) = k[x^p]$ в этом случае бесконечномерно.
\end{example}
\begin{example}
Пусть $T\in\Hom(k[x],k[x])$~--- умножение на $x$
(см. пример~\ref{example:linear-timesx}).
Тогда $\Ker(T) = 0$.
\end{example}
\begin{proposition}\label{prop:kernel-is-subspace}
Если $T\in\Hom(V,W)$, то $\Ker(T)$ является подпространством
в $V$.
\end{proposition}
\begin{proof}
Заметим, что $T(0) = T(0+0) = T(0)+T(0)$, откуда
$T(0)=0$. Значит, $0\in\Ker(T)$.
Если $u,v\in\Ker(T)$, то по определению $T(u)=T(v)=0$.
Тогда и $T(u+v) = T(u)+T(v) = 0+0=0$, то есть, $u+v\in\Ker(T)$.
Наконец, если $u\in\Ker(T)$ и $a\in k$, то
$T(u)=0$ и $T(ua)=T(u)a=0\cdot a = 0$, откуда $ua\in\Ker(T)$.
Вышесказанное означает, что $\Ker(T)\leq V$.
\end{proof}
\begin{proposition}\label{prop:injective-iff-kernel-trivial}
Пусть $T\in\Hom(V,W)$. Отображение $T$ инъективно тогда и только
тогда, когда $\Ker(T) = 0$.
\end{proposition}
\begin{proof}
Предположим, что $T$ инъективно. Множество $\Ker(T)$ состоит из
тех векторов $v$, для которых $T(v) = 0$. Мы знаем, что
$T(0)=0$ и из инъективности следует, что других таких векторов
нет; поэтому $\Ker(T) = \{0\}$.
Обратно, предположим, что $\Ker(T)=0$. Для проверки инъективности
возьмем $v_1,v_2\in V$ такие, что $T(v_1)=T(v_2)$ и покажем,
что $v_1=v_2$. Действительно, тогда $T(v_1-v_2) =
T(v_1)-T(v_2) = 0$, и потому $v_1-v_2\in\Ker(T) = \{0\}$,
откуда $v_1-v_2=0$, что и требовалось.
\end{proof}
\begin{definition}
Пусть $T\in\Hom(V,W)$. Его \dfn{образом} называется его
образ как обычного отображения, то есть, множество
$$
\Img(T) = \{T(v)\mid v\in V\}.
$$
\end{definition}
\begin{proposition}\label{prop:image-is-subspace}
Если $T\in\Hom(V,W)$, то $\Img(T)$ является подпространством
в $W$.
\end{proposition}
\begin{proof}
Из равенства $T(0)=0$ следует, что $0\in\Img(T)$.
Если $w_1,w_2\in\Img(T)$, то найдутся $v_1,v_2\in V$ такие, что
$T(v_1)=w_1$ и $T(v_2)=w_2$. Но тогда
$T(v_1+v_2) = T(v_1) + T(v_2) = w_1 + w_2$, и потому
$w_1 + w_2 \in \Img(T)$.
Если $w\in\Img(T)$, то $T(v)=w$ для некоторого $v\in V$.
Пусть $a\in k$; тогда $T(va) = T(v)a = wa$, и потому
$wa\in\Img(T)$. По определению тогда $\Img(T)\leq W$.
\end{proof}
\begin{theorem}[О гомоморфизме]\label{thm:homomorphism-linear}
Пусть $V$~--- конечномерное пространство, $T\in\Hom(V,W)$~---
линейное отображение. Тогда $\Img(T)$ является конечномерным
подпространством в $W$ и, кроме того,
$$
\dim(V) = \dim(\Ker(T)) + \dim(\Img(T)).
$$
\end{theorem}
\begin{proof}
Пусть $u_1,\dots,u_m$~--- базис $\Ker(T)$. Этот линейно
независимый набор векторов можно продолжить до базиса
$(u_1,\dots,u_m,v_1,\dots,v_n)$ всего пространства $V$
по теореме~\ref{thm:li-contained-in-a-basis}.
Таким образом, $\dim(\Ker(T)) = m$ и $\dim(V) = m+n$;
нам остается лишь доказать, что $\dim(\Img(T)) = n$.
Для этого рассмотрим векторы $T(v_1),\dots,T(v_n)$ и покажем,
что они образуют базис подпространства $\Img(T)$. Очевидно,
что они лежат в $\Img(T)$, и потому
$\la T(v_1),\dots,T(v_n)\ra\subseteq\Img(T)$. Обратно, если
$w\in\Img(T)$, то $w=T(v)$ для некоторого $v\in V$.
Разложим $v$ по нашем базису пространства $V$:
$$
v = u_1a_1+\dots+u_ma_m + v_1b_1+\dots+v_nb_n
$$
и применим к этому разложению отображение $T$:
$$
w = T(v) = T(u_1a_1+\dots+u_ma_m + v_1b_1 + \dots + v_nb_n)
= T(v_1)b_1 + \dots + T(v_n)b_n.
$$
Поэтому $w\in \la T(v_1),\dots,T(v_n)\ra$.
Осталось показать, что векторы $T(v_1),\dots,T(v_n)$
линейно независимы. Пусть
$T(v_1)c_1 + \dots + T(v_n)c_n = 0$~--- некоторая линейная комбинация.
Тогда $0=T(v_1c_1+\dots+v_nc_n)$. Это означает, что
вектор $v_1c_1+\dots+v_nc_n$ лежит в $\Ker(T)$.
Мы знаем базис $\Ker(T)$,потому
$v_1c_1+\dots+v_nc_n = u_1d_1 + \dots +u_md_m$ для некоторых
$d_i\in k$. Но набор векторов $u_1,\dots,u_m,v_1,\dots,v_n$
лниейно независим. Значит, все коэффициенты $c_i,d_j$ равны
нулю, и исходная линейная комбинация векторов
$T(v_1),\dots,T(v_n)$ тривиальна.
\end{proof}
Приведем пару полезных следствий этой теоремы; оказывается,
уже тривиальные соображения неотрицательности размерности
имеют серьезные последствия.
\begin{corollary}
Пусть $V,W$~--- векторные пространства над $k$, и
$\dim V < \dim W$. Не существует сюръективных линейных
отображений $V\to W$.
\end{corollary}
\begin{proof}
Предположим, что линейное отображение
$T\colon V\to W$ сюръективно. Тогда
$\Img(T) = W$, и по теореме~\ref{thm:homomorphism-linear}
$\dim(V) = \dim(\Ker(T)) + \dim(\Img(T))
= \dim(\Ker(T)) + \dim(W)$.
Но $\dim(\Ker(T))\geq 0$, и поэтому
$\dim(V) \geq \dim(W)$~--- противоречие с условием.
\end{proof}
\begin{corollary}\label{cor:no-injective-maps}
Пусть $V,W$~--- векторные пространства над $k$,
и $\dim V > \dim W$. Не существует инъективных линейных
отображений $V\to W$.
\end{corollary}
\begin{proof}
Предположим, что линейное отображение $T\colon V\to W$ инъективно.
По предложению~\ref{prop:injective-iff-kernel-trivial}
ядро $T$ тривиально. По теореме~\ref{thm:homomorphism-linear}
$\dim(V) = \dim(\Ker(T)) + \dim(\Img(T)) = \dim(\Img(T))
\leq \dim(W)$ (последнее неравенство выполнено
по предложению~\ref{prop:dimension_is_monotonic})~---
противоречие с условием.
\end{proof}
\subsection{Матрица линейного отображения}
\literature{[F], гл. XII, \S~4, пп. 1--3; [K2], гл. 2, \S~1, п. 2;
\S~2, п. 3; [KM], ч. 1, \S~4; [vdW], гл. IV, \S~23.}
Пусть $V,W$~--- два конечномерных пространства,
и пусть $\mc B = (v_1,\dots,v_n)$~--- упорядоченный базис $V$,
а $\mc B' = (w_1,\dots,w_m)$~--- упорядоченный базис $W$.
Универсальное свойства базиса
(теорема~\ref{thm:universal-basis-property}) означает, что
для задания линейного отображение $T\colon V\to W$
достаточно задать векторы $T(v_1),\dots,T(v_n)\in W$.
Каждый вектор $T(v_j)$, в свою очередь, можно разложить
по базису $\mc B'$. Задание $T(v_j)$, таким образом, равносильно
заданию коэффициентов в этом разложении.
Мы получили, что линейное отображение $T\colon V\to W$
в итоге задается конечным набором скаляров~--- при условии, что
в пространствах $V$ и $W$ выбраны базисы.
Этот набор скаляров удобно записывать в виде матрицы.
\begin{definition}\label{dfn:matrix-of-linear-map}
Пусть $T\colon V\to W$~--- линейное отображение между
конечномерными пространствами, и пусть выбраны
упорядоченные базисы
$\mc B = (v_1,\dots,v_n)$ в $V$
и $\mc B' = (w_1,\dots,w_m)$ в $W$.
Разложим каждый вектор $T(v_j)$ по базису $\mc B'$
и запишем
$$
T(v_j) = w_1a_{1j} + w_2a_{2j} + \dots + w_ma_{mj}.
$$
Набор коэффициентов $(a_{ij})_{\substack{1\leq i\leq m \\
1\leq j\leq n}}$ мы воспринимаем как матрицу
размера $m\times n$; она называется
\dfn{матрицей линейного отображения $T$ в базисах $\mc B$,
$\mc B'$} и обозначается через $[T]_{\mc B,\mc B'}$.
\end{definition}
Как мы увидим ниже (см. теорему~\ref{thm:hom-isomorphic-to-m}),
линейное отображение полностью определяется
своей матрицей (в выбранных базисах). Известные нам операции
над линейными отображениями (сложение, умножение на скаляр,
композиция) при этом превращаются в известные
нам операции над матрицами (сложение, умножение на скаляр,
произведение). Ниже мы введем понятие координат вектора,
и тогда рассуждения с абстрактными векторными пространствами
и линейными отображениями можно будет сводить к конкретным
матричным вычислениям. Иными словами, матрицы полезны, когда
вам нужно <<засучить рукава>> и вычислить что-нибудь конкретное.
В то же время, всегда нужно помнить, что для перехода к матрицам
нужно зафиксировать базисы в рассматриваемых пространствах,
что может привести к утрате симметрии и некоторой неуклюжести.
Пусть $T,S\colon V\to W$~--- линейные отображения, и
в пространствах $V,W$ выбраны базисы, как в
определении~\ref{dfn:matrix-of-linear-map}.
Покажем, что матрица суммы $T+S$ этих отображений
является суммой матрицы отображения $T$ и матрицы отображения $S$.
Иными словами, $[T+S]_{\mc B,\mc B'} = [T]_{\mc B,\mc B'}
+ [S]_{\mc B,\mc B'}$.
Пусть $[T]_{\mc B,\mc B'} = (a_{ij})$,
$[S]_{\mc B,\mc B'} = (b_{ij})$.
По определению это означает, что
$T(v_j) = \sum_{i=1}^m w_ia_{ij}$,
$S(v_j) = \sum_{i=1}^m w_ib_{ij}$.
Но тогда $(T+S)(v_j) = T(v_j) + S(v_j)
= \sum_{i=1}^m w_i(a_{ij}+b_{ij})$.
Значит, в разложении вектора $(T+S)(v_j)$ по базису $\mc B'$
коэффициент при $w_i$ равен $a_{ij}+b_{ij}$.
Это означает, что в матрице $[T+S]_{\mc B,\mc B'}$
в позиции $(i,j)$ стоит $a_{ij} + b_{ij}$.
Но это и есть определение суммы матриц $[T]_{\mc B,\mc B'}$
и $[S]_{\mc B,\mc B'}$.
Совершенно аналогичное рассуждение показывает, что
$[Ta]_{\mc B,\mc B'} = [T]_{\mc B,\mc B'}\cdot a$ для
любого скаляра $a\in k$.
Доказанные факты можно сформулировать следующим образом.
\begin{theorem}\label{thm:taking-matrix-is-linear}
Пусть $V,W$~--- конечномерные векторные пространства над полем $k$,
и $\mc B,\mc B'$~--- базисы в $V,W$ соответственно.
Обозначим $n=\dim(V)$, $m=\dim(W)$.
Отображение $\ph\colon \Hom(V,W) \to M(m,n,k)$, сопоставляющее
линейному отображению $T\in\Hom(V,W)$ его матрицу
$[T]_{\mc B,\mc B'}$ в базисах $\mc B,\mc B'$, является линейным.
\end{theorem}
\begin{proof}
Для проверки линейности $\ph$ по определению нужно показать,
что $[T+S]_{\mc B,\mc B'} = [T]_{\mc B,\mc B'} + [S]_{\mc B,\mc B'}$
и $[Ta]_{\mc B,\mc B'} = [T]_{\mc B,\mc B'}a$ для всех
$T,S\in\Hom(V,W)$, $a\in k$, что и было доказано выше.
\end{proof}
Гораздо интереснее посмотреть, что
происходит при композиции линейных отображений.
\begin{theorem}\label{thm:composition-is-multiplication}
Пусть $U,V,W$~--- три векторных пространства с базисами
$\mc B = (u_1,\dots,u_l)$,
$\mc B' = (v_1,\dots,v_m)$,
$\mc B'' = (w_1,\dots,w_n)$, соответственно,
и пусть $S\colon U\to V$, $T\colon V\to W$~--- линейные отображения.
Тогда
$[T\circ S]_{\mc B,\mc B''} = [T]_{\mc B',\mc B''}\cdot
[S]_{\mc B,\mc B'}$.
\end{theorem}
Читатель может проверить, что написанное выражение имеет смысл:
в правой части стоят матрицы таких размеров, что их можно
перемножить, и в результате получается матрица того же размера,
что и в левой части.
Доказательство этого факта нужно воспринимать как
(слегка запоздалое) объяснение определения умножения матриц.
В самом деле, единственная причина, по которой умножение
матриц выглядит так, как оно выглядит~--- это взаимно
однозначное соответствие между матрицами и линейными отображениями,
которое превращает композицию линейных отображений
в умножение матриц. Каждый, кто задумается, что происходит
при композиции линейных отображений (подстановке одних линейных
выражений в другие), неизбежно обязан открыть умножение матриц.
Итак, пусть $[T]_{\mc B',\mc B''} = (a_{ij}) \in M(n,m,k)$,
$[S]_{\mc B,\mc B'} = (b_{ij}) \in M(m,l,k)$.
Как найти матрицу отображения $T\circ S$?
По определению мы должны разложить каждый вектор
вида $(T\circ S)(u_p)$ по базису $w_1,\dots,w_n$.
Заметим, что $(T\circ S)(u_p) = T(S(u_p))$,
а $S(u_p)$ мы умеем раскладывать по базису пространства $V$.
А именно,
$$
S(u_p) = \sum_{j=1}^m v_jb_{jp}.
$$
Получаем, что
\begin{align*}
(T\circ S)(u_p) &= T\left(\sum_{j=1}^m v_jb_{jp}\right)\\
&= \sum_{j=1}^m T(v_j)b_{jp},
\end{align*}
где в последнем равенстве мы воспользовались линейностью
отображения $T$. Теперь можно подставить в полученное
выражение разложение для каждого вектора вида
$T(v_j) = \sum_{i=1}^n w_i a_{ij}$.
После несложных преобразований сумм получаем
\begin{align*}
(T\circ S)(u_p) &= \sum_{j=1}^m T(v_j)b_{ji} \\
&= \sum_{j=1}^m \sum_{i=1}^n w_i a_{ij} b_{jp} \\
&= \sum_{i=1}^n w_i\left( \sum_{j=1}^m a_{ij}b_{jp}\right).
\end{align*}
Коэффициент при $w_i$ в полученном разложении и равен
коэффициенту, стоящему в позиции $(i,p)$ матрицы
$[T\circ S]_{\mc B,\mc B''}$.
Он оказался равен $\sum_{j=1}^m a_{ij}b_{jp}$,
и потому матрица $[T\circ S]_{\mc B,\mc B''}$ равна
произведению матриц
$[T]_{\mc B',\mc B''}\cdot [S]_{\mc B,\mc B'}$.
Мы узнали, как понятие матрицы линейного отображение
ведет себя при сложении отображений, умножении на скаляры,
композиции. Есть еще одна операция над линейными
отображениями, самая простая: мы можем в линейное
отображение $T\colon V\to W$ подставить вектор из
$V$ и получить вектор из $W$.
Отображению $T$ мы сопоставили матрицу; сейчас мы сопоставим
векторам из $V$ и $W$ некоторые столбцы (матрицы ширину $1$)
таким образом, что вычисление результата действия
линейного отображения на векторе сведется к умножению
матрицы на столбец.
А именно, пусть $\mc B = (v_1,\dots,v_n)$~--- базис
векторного пространства $V$.
Любой вектор $v\in V$ можно разложить по этому базису,
то есть, записать его в виде линейной комбинации
элементов $\mc B$:
$$
v = v_1a_1+\dots+v_na_n,\quad a_i\in k.
$$
Запишем полученные скаляры $a_1,\dots,a_n$
в столбец. Полученный элемент пространства
$k^n$ называется \dfn{столбцом координат}
(или \dfn{координатным столбцом})
\dfn{вектора $v$ в базисе $\mc B$} и обозначается так:
$$
[v]_{\mc B} = \begin{pmatrix} a_1 \\ \vdots \\ a_n\end{pmatrix}.
$$
Коэффициенты $a_1,\dots,a_n$ называются
\dfn{координатами вектора $v$ в базисе $\mc B$}.
Обратите внимание на сходство этой записи с обозначением
для матрицы линейного оператора в выбранных базисах.
Таким образом, как только мы выбрали базис $\mc B$
в пространстве $V$, каждому вектору из $V$
сопоставляется столбец $[v]_{\mc B}\in k^n$.
Более того, указанное сопоставление хорошо согласовано
с операциями в пространстве $V$: если сложить два вектора,
то соответствующие им координатные столбцы сложатся,
а если вектор умножить на скаляр, то его координатный столбец
умножится на этот же скаляр.
Есть более короткий способ выразить указанные свойства:
сопоставление вектору $v\in V$ его координатного столбца
{\em линейно}. Сформулируем это в виде теоремы.
\begin{theorem}\label{thm:taking-coordinates-is-linear-map}
Пусть $V$~--- конечномерное векторное пространство над
полем $k$; $\mc B = \{v_1,\dots,v_n\}$~--- его базис.
Отображение
\begin{align*}
V & \to k^n,\\
v & \mapsto [v]_{\mc B}
\end{align*}
линейно.
\end{theorem}
\begin{proof}
Фактически, нам нужно показать, что если $v,v'\in V$,
$a\in k$, то
$[v+v']_{\mc B} = [v]_{\mc B} + [v']_{\mc B}$
и $[va]_{\mc B} = [v]_{\mc B} \cdot a$.
Пусть
$$
[v]_{\mc B} = \begin{pmatrix}a_1\\\vdots\\a_n\end{pmatrix},
\quad
[v']_{\mc B} = \begin{pmatrix}b_1\\\vdots\\b_n\end{pmatrix}.
$$
По определению это означает, что
\begin{align*}
v &= v_1a_1 + \dots + v_na_n,\\
v' &= v_1b_1 + \dots + v_nb_n.
\end{align*}
Сложим эти два равенства:
$$
v+v' = v_1(a_1+b_1) + \dots + v_m(a_n+b_n).
$$
Но тогда
$$
[v+v']_{\mc B} = \begin{pmatrix} a_1+b_1 \\
\vdots \\ a_n + b_n \end{pmatrix}
= \begin{pmatrix}a_1\\\vdots\\a_n\end{pmatrix} +
\begin{pmatrix}b_1\\\vdots\\b_n\end{pmatrix}
= [v]_{\mc B} + [v']_{\mc B},
$$
что и требовалось. Доказательство для умножения на скаляр
совершенно аналогично и оставляется читателю в качестве
упражнения.
\end{proof}
Теперь мы готовы сделать последний шаг в установлении
соответствия между действиями с векторными пространствами
с одной стороны, и вычислениями с матрицами с другой стороны.
\begin{theorem}\label{thm:matrix-multiplied-by-vector}
Пусть $T\colon V\to W$~--- линейное отображение между
конечномерными пространствами $V$ и $W$, и пусть
$\mc B = (v_1,\dots,v_n)$~--- базис $V$, а
$\mc B' = (w_1,\dots,v_m)$~--- базис $W$.
Тогда
$$
[Tv]_{\mc B'} = [T]_{\mc B,\mc B'}\cdot [v]_{\mc B}
$$
для любого вектора $v\in V$.
\end{theorem}
\begin{proof}
Пусть $v = v_1c_1 + \dots + v_nc_n$, то есть,
$$
[v]_{\mc B} = \begin{pmatrix} c_1 \\ \vdots \\ c_n
\end{pmatrix},
$$
и пусть
$[T]_{\mc B,\mc B'} = (a_{ij})$~--- матрица отображения $T$.
Тогда
$$
T(v) = T(\sum_{j=1}^n v_j c_j) = \sum_{j=1}^n T(v_j)c_j
= \sum_{j=1}^n \left( \sum_{i=1}^m w_ia_{ij}\right) c_j
= \sum_{i=1}^m w_i \left( \sum_{j=1}^n a_{ij}c_j \right).
$$
Значит, $i$-я координата вектора $T(v)$ в базисе $\mc B'$
равна $\sum_{j=1}^n a_{ij}c_j$.
Но это и означает, что столбец $[T(v)]_{\mc B'}$ равен
произведению матрицы $(a_{ij}) = [T]_{\mc B,\mc B'}$
на столбец $[v]_{\mc B}$.
\end{proof}
\subsection{Изоморфизм}
\begin{definition}
Линейное отображение $T\colon V\to W$ называется \dfn{обратимым}, если
существует линейное отображение $S\colon W\to V$ такое, что $S\circ T = \id_V$
и $T\circ S = \id_W$. Такое $S$ называется \dfn{обратным} к $T$.
\end{definition}
\begin{proposition}\label{prop:invertible-linear-iff-iso}
Линейное отображение $T\colon V\to W$ обратимо тогда и только тогда, когда
оно биективно.
\end{proposition}
\begin{proof}
Если $T$ обратимо, то обратное к нему является обратным отображением
в теоретико-множественном смысле (определение~\ref{dfn:inverse-map}),
и потому биективно по теореме~\ref{thm:sur-inj-reformulations}.
Если же отображение $T$ биективно, то
(снова по теореме~\ref{thm:sur-inj-reformulations}) существует отображение
множеств $S\colon W\to V$ такое, что $S\circ T = \id_V$ и $T\circ S = \id_W$.
Можно и явно построить это $S$: для каждого $w\in W$ заметим,
что (по определению биективности) существует единственное $v\in V$
такое, что $T(v) = w$; тогда положим $S(w) = v$.
Осталось проверить, что это отображение линейно. Действительно,
возьмем $w_1,w_2\in W$ и пусть $S(w_1) = v_1$, $S(w_2) = v_2$.
Это означает, что $T(v_1)=w_1$, $T(v_2)=w_2$.
Но тогда $T(v_1+v_2) = w_1+w_2$, и потому $S(w_1+w_2) = v_1+v_2 = S(w_1)+S(w_2)$.
Кроме того, если $w\in W$ и $a\in k$, пусть $S(w) = v$.
Это означает, что $T(v) = w$, откуда $T(va) = wa$, и, стало быть,
$S(wa) = va = S(w)a$.
\end{proof}
\begin{definition}
Обратимое линейное отображение иногда называется \dfn{изоморфизмом}. Если между
пространствами $V$ и $W$ существует изоморфизм $T\colon V\to W$,
они называются \dfn{изоморфными}. Обозначение: $V\isom W$.
\end{definition}
\begin{theorem}\label{thm:isomorphic-iff-equidimensional}
Два конечномерных векторных пространства над $k$ изоморфны тогда и только тогда,
когда их размерности равны.
\end{theorem}
\begin{proof}
Пусть $V\isom W$, то есть, существует обратимое линейное отображение $T\colon V\to W$.
По предложению~\ref{prop:invertible-linear-iff-iso} $T$ биективно. В частности,
$T$ инъективно, и потому $\Ker(T)=0$ (теорема~\ref{prop:injective-iff-kernel-trivial});
кроме того, $T$ сюръективно, и потому $\Img(T)=W$.
Воспользуемся теоремой о гомоморфизме~\ref{thm:homomorphism-linear}:
$$
\dim\Ker(T) + \dim\Img(T) = \dim(V).
$$
В нашем случае $\dim\Ker(T)=0$ и $\dim\Img(T)=\dim W$; поэтому $\dim V = \dim W$, что и
требовалось.
Обратно, пусть $\dim V = \dim W = n$. Выберем базис $v_1,\dots,v_n$ в $V$
и базис $w_1,\dots,w_n$ в $W$. По теореме~\ref{thm:universal-basis-property} для задания
линейного отображения $T\colon V\to W$ достаточно задать $T(v_i)$ для всех $i$.
Положим $T(v_i)=w_i$ и покажем, что полученное отображение $T$ является изоморфизмом.
Для этого (по предложению~\ref{prop:invertible-linear-iff-iso}) достаточно проверить,
что оно инъективно и сюръективно.
Для инъективности
(по предложению~\ref{prop:injective-iff-kernel-trivial}) нужно показать, что $\Ker(T)=0$.
Возьмем $v\in\Ker(T)$. Разложим $v$ по базису пространства $V$:
$v = v_1a_1 + \dots + v_na_n$. Тогда
$0 = T(v) = T(v_1)a_1+\dots+T(v_n)a_n = w_1a_1+\dots+w_na_n$.
Но элементы $w_1,\dots,w_n\in W$ образуют базис, и потому линейно независимы. Их
линейная комбинация оказалась равна нулю~--- поэтому все ее коэффициенты равны
нулю: $a_1=\dots=a_n=0$. Но тогда и $v = 0$.
Осталось проверить, что $T$ сюръективно. Но любой вектор $W$ есть линейная комбинация
векторов $w_1,\dots,w_n$, поэтому является образом соответствующей линейной комбинации
векторов $v_1,\dots,v_n$.
\end{proof}
\begin{corollary}
Любое конечномерное векторное пространство $V$ изоморфно пространству
$k^n$, где $n=\dim(V)$.
Более того, если $\mc B$~--- некоторый базис пространства $V$,
то отображение $\ph\colon v\mapsto [v]_{\mc B}$ устанавливает изоморфизм между
$V$ и $k^n$.
\end{corollary}
\begin{proof}
Пусть $\dim(V)=n$; тогда $\dim(k^n)=n=\dim(V)$, и
по теореме~\ref{thm:isomorphic-iff-equidimensional} пространства $V$ и $k^n$
изоморфны.
Для доказательства второго утверждения обозначим элементы базиса $\mc B$
через $v_1,\dots,v_n$.
Мы уже знаем, что отображение $v\mapsto [v]_{\mc B}$ линейно
(теорема~\ref{thm:taking-coordinates-is-linear-map}); проверим, что это
изоморфизм. Для этого нужно проверить, что его ядро тривиально, а образ
совпадает с $k^n$. Возьмем $v\in\Ker(\ph)$; это означает, что столбец
координат вектора $v$ нулевой. Но тогда по определению координат
$v=v_10+\dots+v_n0 = 0$. Значит, $\Ker(\ph)=0$. Пусть теперь
$w\in k^n$~--- некоторый столбец, состоящий из скаляров
$a_1,\dots,a_n$. Рассмотрим вектор $v = v_1a_1 + \dots + v_na_n\in V$.
Легко видеть, что $[v]_{\mc B} = w$, что доказывает сюръективность
отображения $\ph$.
\end{proof}
Таким образом, любое конечномерное пространство изоморфно пространству столбцов.
Подчеркнем, что этот изоморфизм зависит от выбора базиса (в таком случае говорят,
что этот изоморфизм {\em не является каноническим}): в разных базисах один
и тот же вектор, как правило, имеет разные наборы координат.
\begin{theorem}\label{thm:hom-isomorphic-to-m}
Пусть $V,W$~--- конечномерные векторные пространства над полем $k$.
Пространство $\Hom(V,W)$ линейных отображений из $V$ в $W$ изоморфно
векторному пространству $M(m,n,k)$ матриц размера $m\times n$ над $k$,
где $m=\dim W$, $n=\dim V$.
Более того, если $\mc B,\mc B'$~--- базисы в $V,W$ соответственно, то
отображение $\ph\colon T\mapsto [T]_{\mc B,\mc B'}$ устанавливает
изоморфизм между $\Hom(V,W)$ и $M(m,n,k)$.
\end{theorem}
\begin{proof}
Мы сразу докажем второе утверждение.
Обозначим элементы $\mc B$ через $v_1,\dots,v_n$,
а элементы $\mc B'$ через $w_1,\dots,w_m$.
По теореме~\ref{thm:taking-matrix-is-linear}
отображение $\ph$ линейно. Проверим, что его ядро тривиально, а образ
совпадает с $M(m,n,k)$. Пусть $T\in\Ker(\ph)$. Это значит, что у линейного
отображения $T$ матрица нулевая. По определению матрицы это значит,
что все координаты вектора $T(v_j)$ в базисе $\mc B'$ равны нулю,
а потому $T(v_j)=0$ для всех $j$. Но мы знаем одно такое линейное отображение:
это $0\in\Hom(V,W)$. По единственности в универсальном свойстве
базиса (теорема~\ref{thm:universal-basis-property}) $T=0$.
Наконец, пусть $A=(a_{ij})\in M(m,n,k)$~--- некоторая матрица. Мы утверждаем, что существует
линейное отображение $T\colon U\to V$, матрица которого в базисах $\mc B,\mc B'$
совпадает с $A$. Действительно, положим
$T(v_j) = w_1a_1+\dots+w_ma_m$. По теореме~\ref{thm:universal-basis-property}
это однозначно определяет линейное отображение $T$, и очевидно, что
$[T]_{\mc B,\mc B'} = A$.
\end{proof}
\begin{corollary}\label{cor:dim-of-hom-space}
Если пространства $V,W$ конечномерны, то $\dim\Hom(V,W) = \dim V\cdot\dim W$.
\end{corollary}
\begin{proof}
Очевидно, что размерность пространства матриц $M(m,n,k)$ равна $mn$; осталось
применить теорему~\ref{thm:hom-isomorphic-to-m}
и теорему~\ref{thm:isomorphic-iff-equidimensional}.
\end{proof}
Важный частный случай понятия линейного отображения~--- {\em линейный оператор}.
\begin{definition}
Линейное отображение $T\colon V\to V$ называется \dfn{линейным оператором}
на пространстве $V$, или \dfn{эндоморфизмом} пространства $V$.
\end{definition}
\begin{proposition}\label{prop:operators-bij-inj-surj}
Пусть $T\colon V\to V$~--- линейный оператор на конечномерном пространстве $V$.
Следующие утверждения равносильны.
\begin{enumerate}
\item Отображение $T$ биективно.
\item Отображение $T$ инъективно.
\item Отображение $T$ сюръективно.
\end{enumerate}
\end{proposition}
\begin{proof}
Очевидно, что из (1) следуют (2) и (3). Покажем, что из (2) следует (1).
Если $T$ инъективно, то $\Ker T=0$ (предложение~\ref{prop:injective-iff-kernel-trivial}).
По теореме о гомоморфизме (теорема~\ref{thm:homomorphism-linear})
$\dim\Ker T + \dim\Img T = \dim V$. Первое слагаемое равно нулю, поэтому
$\dim\Img T = \dim V$. В то же время, $\Img T$~--- подпространство в $V$,
и по предложению~\ref{prop:dimension_is_monotonic} из совпадения размерностей
следует, что $\Img T = V$, что означает сюръективность, а потому и биективность
отображения $T$.
Осталось показать, что из (3) следует (1). Снова воспользуемся теоремой о гомоморфизме:
$\dim\Ker T + \dim\Img T = \dim V$. Теперь по предположению $\Img T = \dim V$, и,
стало быть, $\dim\Ker T=0$. Значит, подпространство $\Ker T$ тривиально, и потому
$T$ инъективно и, следовательно, биективно.
\end{proof}
\begin{theorem}
Пусть $V$~--- векторное пространство. Множество $\Hom(V,V)$ всех линейных операторов
на $V$ образует ассоциативное кольцо с единицей относительно сложения и композиции.
\end{theorem}
\begin{proof}
Мы уже знаем, что сложение линейных отображений ассоциативно, коммутативно, обладает
нейтральным элементом $0$ и обратными элементами. Кроме того, композиция (которая играет
роль умножения) ассоциативна и обладает нейтральным элементом $\id_V$. Осталось проверить
левую и правую дистрибутивность. Ограничимся проверкой одной из них.
Пусть $S,T,U\in\Hom(V,V)$. Для каждого $v\in V$ выполнено
$$
(S\circ (T+U))(v) = S((T+U)(v)) = S(T(v)+U(v)) = S(T(v)) + S(U(v))
= (S\circ T)(v) + (S\circ U)(v) = (S\circ T + S\circ U)(v),
$$
а потому отображения $S\circ (T+U)$ и $S\circ T + S\circ U$ совпадают.
\end{proof}
Отметим, что в конечномерном случае кольцо операторов на $V$ {\em изоморфно} кольцу
квадратных матриц порядка $n = \dim V$
(см. замечание~\ref{rem:matrix_multiplication_properties}). Поясним, что означает
слово <<изоморфизм>> в этом контексте (пока мы обсуждали только изоморфизм
векторных пространств, но не колец).
Пусть $\mc B$~--- базис пространства $V$, и $\dim V = n$.
Из теоремы~\ref{thm:hom-isomorphic-to-m} следует, что
отображение $T\mapsto [T]_{\mc B}$ является биекцией между $\Hom(V,V)$
и $M(n,n,k)$, переводящей сложение в сложение. Кроме того,
по теореме~\ref{thm:composition-is-multiplication} она переводит
композицию операторов в умножение. Наконец, тождественный оператор
переходит при этом отображении в единичную матрицу. Мы получили биекцию
между кольцами, которая сохраняет все операции
(включая <<взятие единичного элемента>>). Такая биекция и называется
<<изоморфизмом колец>>; ее существование означает, что указанные кольца
<<ведут себя одинаково>>.
\subsection{Ранг матрицы}
\literature{[F], гл. IV, \S~3, пп. 4--6; [K1], гл. 2,
\S~2, п. 1--2; [vdW], гл. IV, \S\S~22, 23.}
Первым приложением теории векторных пространств для нас станет
определение ранга матрицы, которые мы неформально обсуждали после
доказательства теоремы~\ref{thm_pdq}. Напомним, что любую матрицу
$A\in M(m,n,k)$ можно представить в виде
$A=P\left(\begin{matrix}
E_r & 0\\
0 & 0\end{matrix}\right)Q$, где $P,Q$~--- некоторые обратимые
матрицы. Мы покажем, что на самом деле натуральное число $r$ не
зависит от выбора такого представления, и поэтому имеет право
называться {\it рангом} матрицы $A$.
Для этого мы введем еще несколько понятий ранга, и покажем, что все
они совпадают друг с другом.
\begin{definition}
Пусть $A=(a_{ij})\in M(m,n,k)$. Линейная оболочка столбцов матрицы $A$
называется \dfn{пространством столбцов матрицы $A$}\index{векторное
пространство!столбцов матрицы}; по определению
оно является подпространством в $k^m$. Иными словами, это пространство
$$\la\begin{pmatrix}a_{11}\\a_{21}\\\vdots\\a_{m1}\end{pmatrix},
\dots,
\begin{pmatrix}a_{1n}\\a_{2n}\\\vdots\\a_{mn}\end{pmatrix}\ra\leq
k^m.$$
Линейная оболочка строк матрицы $A$ называется \dfn{пространством
строк матрицы $A$}\index{векторное пространство!строк матрицы}; по
определению оно является подпространством в
${}^nk$. Иными словами, это пространство
$$\la\begin{pmatrix}a_{11}&a_{12}&\dots&a_{1n}\end{pmatrix},\dots,
\begin{pmatrix}a_{m1}&a_{m2}&\dots&a_{mn}\end{pmatrix}\ra\leq {}^nk.$$
\end{definition}
Таким образом, пространство столбцов состоит из всевозможных линейных
комбинаций столбцов матрицы $A$; аналогично и со строками.
\begin{definition}
\dfn{Столбцовым рангом}\index{ранг матрицы!столбцовый} матрицы $A$ называется размерность ее
пространства столбцов; \dfn{строчным рангом}\index{ранг
матрицы!строчный} $A$ называется
размерность ее пространства строк.
\end{definition}
Очевидно, что столбцовый ранг матрицы $A\in M(m,n,k)$ не превосходит
$n$, а ее строчный ранг не превосходит $m$.
Для определения следующего понятия~--- {\em тензорного ранга}~---
необходимо сначала определить матрицы ранга $1$.
\begin{definition}
Матрица $A\in M(m,n,k)$ называется \dfn{матрицей ранга
$1$}\index{матрица!ранга $1$}, если
$A\neq 0$ и $A$ можно представить в виде $A=uv$, где $u\in k^m$, $v\in
{}^nk$. \dfn{Тензорным рангом}\index{ранг матрицы!тензорный} матрицы $A$ называется наименьшее
натуральное число $r$ такое, что $A$ можно представить в виде суммы
$r$ матриц ранга $1$. Иными словами, тензорный ранг $A$~--- это
наименьшее $r$, при котором существуют столбцы $u_1,\dots,u_r\in k^m$
и строки $v_1,\dots v_r\in {}^nk$ такие, что $A=u_1v_1+\dots+u_rv_r$.
\end{definition}
Заметим, что тензорный ранг матрицы $A\in M(m,n,k)$ определен: он не
превосходит $mn$. Действительно, несложно представить матрицу
$A=(a_{ij})$ в виде суммы $mn$ матриц ранга $1$: мы видели, что
$A=\sum_{i,j}a_{ij}e_{ij}$, а матрица $a_{ij}e_{ij}$ имеет ранг $1$:
$$
a_{ij}e_{ij} = \begin{pmatrix}0 \\ \vdots \\ 0 \\ a_{ij} \\ 0 \\
\vdots \\ 0\end{pmatrix}\cdot\begin{pmatrix}0 & \dots & 0 & 1 & 0 &
\dots & 0\end{pmatrix}.
$$
Здесь в столбце высоты $m$ элемент $a_{ij}$ стоит в позиции $i$, и в
строке длины $n$ элемент $1$ стоит в позиции $j$.
\begin{theorem}
Тензорный ранг матрицы не изменяется при домножении ее слева или
справа на обратимую матрицу. В частности, тензорный ранг матрицы
сохраняется при элементарных преобразованиях ее строк и столбцов.
\end{theorem}
\begin{proof}
Пусть $A\in M(m,n,k)$~--- матрица тензорного ранга $r$. Тогда мы можем
записать $A=u_1v_1+\dots+u_rv_r$ для некоторых столбцов
$u_1,\dots,u_r\in k^m$ и строк $v_1,\dots,v_r\in {}^nk$.
Если матрица $B\in M(m,k)$ обратима, то
$BA=B(u_1v_1+\dots+u_rv_r)=(Bu_1)v_1+\dots+(Bu_r)v_r$~--- сумма $r$
матриц ранга $1$, поэтому тензорный ранг $BA$ не превосходит $r$. С
другой стороны, если тензорный ранг $BA$ меньше $r$, то можно записать
$BA=u'_1v'_1+\dots+u'_pv'_p$ для $p<r$ и после домножения на $B^{-1}$
слева мы получили бы, что $A$ является суммой $p$ матриц ранга $1$~---
противоречие. Доказательство для домножения на обратимую матрицу
справа совершенно аналогично.
\end{proof}
\begin{theorem}\label{thm_ranks}
Тензорный ранг матрицы равен ее строчному рангу и столбцовому рангу.
\end{theorem}
\begin{proof}
Пусть размерность пространства строк матрицы $A\in M(m,n,k)$ равна
$d$. Это значит, что каждая строка матрицы $A$ является некоторой
линейной комбинацией строк $v_1,\dots,v_d\in {}^nk$.
Запишем эту линейную комбинацию:
$a_{i*} = \lambda_{i1}v_1+\dots+\lambda_{id}v_d$.
Заметим, что $A=e_1a_{1*}+e_2a_{2*}+\dots+e_ma_{m*}$, где
$e_i=\begin{pmatrix}0\\\vdots\\0\\1\\0\\\vdots\\0\end{pmatrix}$~---
стандартный базисный столбец в $k^m$.
Таким образом,
$$
A=e_1(\lambda_{11}v_1+\dots+\lambda_{1d}v_d) + \dots +
e_m(\lambda_{21}v_1+\dots+\lambda_{md}v_d).
$$
Раскрывая скобки, получаем, что $A=u_1v_1+\dots+u_dv_d$ для некоторых
столбцов $u_1,\dots,u_d\in k^m$.
Поэтому тензорный ранг $A$ не превосходит $d$.
Обратно, если $r$~--- тензорный ранг матрицы $A$, то
$u_1v_1+\dots+u_rv_r$, поэтому каждая строка матрицы $A$ является
линейной комбинацией строк $v_1,\dots,v_r$. Это означает, что
$v_1,\dots,v_r$~--- система образующих пространства строк матрицы
$A$. В силу следствия~\ref{thm:independent-set-smaller-than-generating}
получаем, что $d\leq r$.
Доказательство для столбцового ранга совершенно аналогично (или можно
заметить, что тензорный ранг не меняется при транспонировании).
\end{proof}
\begin{definition}
Общее значение тензорного, строчного и столбцового рангов матрицы $A$
называется ее \dfn{рангом}\index{ранг} и обозначается через $\rk(A)$.
\end{definition}
Теперь мы можем связать понятие тензорного ранга с понятием ранга,
введенным после доказательства следствия~\ref{cor_pdq}.
\begin{corollary}\label{cor_pdq_and_rank}
Пусть матрица $A\in M(m,n,k)$ представлена в виде $A=PDQ$, где $P\in
M(m,k)$, $Q\in M(n,k)$~--- обратимые матрицы, а
$D=\begin{pmatrix}E_r&0\\0&0\end{pmatrix}$~--- окаймленная единичная
матрица. Тогда $r$ равно тензорному рангу матрицы $A$.
\end{corollary}
\begin{proof}
По теореме~\ref{thm_ranks} тензорный ранг матрицы $A$ равен тензорному
рангу матрицы $\begin{pmatrix}E_r&0\\0&0\end{pmatrix}$; с другой
стороны, очевидно, что строчный ранг этой матрицы равен $r$.
\end{proof}
\begin{corollary}\label{cor_invertibility_rank}
Матрица $A\in M(n,k)$ обратима тогда и только тогда, когда ее ранг
равен $n$.
\end{corollary}
\begin{proof}
Простая комбинация следствия~\ref{cor_invertible_pdq} и
следствия~\ref{cor_pdq_and_rank}.
\end{proof}
\begin{theorem}[Кронекера--Капелли]
Система линейных уравнений имеет решение
(\dfn{совместна}\index{система линейных уравнений!совместная}) тогда и
только тогда, когда ранг матрицы этой системы равен рангу ее
расширенной матрицы. Если, кроме того, этот ранг равен количеству
неизвестных, то система имеет единственное решение.
\end{theorem}
\begin{proof}
Рассмотрим систему линейных уравнений $AX=B$.
Пусть $u_1,\dots,u_n$~--- столбцы матрицы $A$.
Система $AX=B$ имеет решение тогда и только тогда, когда существуют
$x_1,\dots,x_n\in k$ такие, что $u_1x_1+\dots+u_nx_n=B$. Это, в свою
очередь равносильно тому, что $B$ лежит в линейной оболочке векторов
$u_1,\dots,u_n$, то есть, тому, что $\la u_1,\dots,u_n\ra =
\la u_1,\dots,u_n,B\ra$. Это равенство и означает совпадение
[столбцовых] рангов матриц $A$ и $(A|B)$.
Если же ранг равен количеству неизвестных $n$, то пространство $\la
u_1,\dots,u_n\ra$ имеет размерность $n$. При этом $\la
u_1,\dots,u_n\ra$~--- его система образующих, и из нее можно выбрать
базис, в котором должно быть $n$ элементов. Значит, $u_1,\dots,u_n$
образуют базис пространства столбцов матрицы $A$. Поэтому вектор $B$
имеет единственное представление в виде $B=u_1x_1+\dots+u_nx_n$, что и
означает единственность решения системы.
\end{proof}
% 05.04.2015
\subsection{Фактор-пространство}
\literature{[F], гл. XII, \S~2, п. 5; [K2], гл. 1, \S~2, п. 6; [KM],
ч. 1, \S~6.}
\begin{definition}\label{def:quotient_space}
Пусть $V$~--- векторное пространство над полем $k$, $U\leq V$. Будем
говорить, что элементы $v_1,v_2\in V$ \dfn{сравнимы по модулю
$U$}\index{сравнение по модулю!подпространства},
если $v_1-v_2\in U$. Обозначения: $v_1\sim_U v_2$, $v_1\sim v_2$ (если
понятно, по модулю какого подпространства рассматривается сравнение).
\end{definition}
Пользуясь определением подпространства,
несложно проверить, что сравнение по модулю подпространства $U\leq V$
является отношением эквивалентности на $V$. Действительно, это отношение
рефлексивно: $v\sim v$, поскольку $v-v=0\in U$. Оно симметрично: если
$v_1\sim v_2$, то $v_1-v_2\in U$; тогда и $v_2-v_1=(v_1-v_2)\cdot
(-1)\in U$. Наконец, если $v_1\sim v_2$ и $v_2\sim v_3$, то
$v_1-v_2\in U$ и $v_2-v_3\in U$; отсюда
$v_1-v_3=(v_1-v_2)+(v_2-v_3)\in U$, поэтому $v_1\sim v_3$.
Раз мы получили отношение эквивалентности, то по
теореме~\ref{thm_quotient_set} сразу получаем разбиение на классы
эквивалентности. Мы будем обозначать класс эквивалентности элемента
$v\in V$ по отношению $\sim_U$ через $\overline{v}$ или через
$v+U$. Последнее обозначение имеет также следующий смысл: для любых
подмножеств $S,T\subseteq V$ можно определить их сумму $S+T=\{s+t\mid
s\in S, t\in T\}$ и результат умножения на скаляр $\lambda\in k$:
$S\lambda=\{s\lambda\mid s\in S\}$. В этих обозначениях класс
эквивалентности $v+U$~--- это в точности $\{v\}+U=\{v+u\mid u\in U\}$.
Фактор-множество множества $V$ по отношению эквивалентности $\sim_U$
мы будем обозначать через $V/U$. Наша ближайшая цель~--- ввести на нем
структуру векторного пространства.
Для этого необходимо определить сумму классов и результат умножения
класса на скаляр из $k$. Это, как и в случае построения кольца
классов вычетов (см. п.~\ref{subsect_residues}), осуществляется с
помощью операций над представителями классов: чтобы сложить два
элемента фактор-пространства, посмотрим, в каком классе лежит сумма
двух [любых] представителей этих элементов; чтобы умножить элемент на
скаляр, умножим любой его представитель на этот скаляр и посмотрим на
класс результата.
Точнее, положим $(v_1+U)+(v_2+U)=(v_1+v_2)+U$ и
$(v+U)a=va+U$ для любых $v,v_1,v_2\in V$ и $a\in k$.
В других обозначениях,
$\overline{v_1}+\overline{v_2} = \overline{v_1+v_2}$ и
$\overline{v}\cdot a = \overline{v\cdot a}$.
Как всегда, необходимо проверить {\em корректность} данного
определения, то есть, тот факт, что результат операций не зависит от
выбора представителей. Это делается совершенно прямолинейно, поэтому
мы оставляем проверку читателю в качестве упражнения.
Наконец, проверим, что полученные операции превращают $V/U$ в
векторное пространство над $k$.
\begin{proposition}\label{prop:quotient_space}
Пусть $V$~--- векторное пространство над полем $k$, $U\leq
V$. Фактор-множество $V/U$ вместе с введенными выше операциями
является векторным пространством над $k$.
\end{proposition}
\begin{proof}
Все проверки тривиальны; приведем выкладки с минимальными
комментариями.
\begin{enumerate}
\item $(\ol{v_1}+\ol{v_2})+\ol{v_3} = \ol{v_1+v_2}+\ol{v_3} =
\ol{(v_1+v_2)+v_3} = \ol{v_1+(v_2+v_3)} = \ol{v_1}+\ol{v_2+v_3} =
\ol{v_1}+(\ol{v_2}+\ol{v_3})$.
\item $\ol{v}+\ol{0}=\ol{v+0}=\ol{v}$, поэтому $\ol{0}\in V/U$ играет
роль нейтрального элемента по сложению.
\item $\ol{v}+\ol{-v}=\ol{v+(-v)}=\ol{0}$, поэтому $\ol{-v}$~---
обратный по сложению к $\ol{v}$.
\item $\ol{v_1}+\ol{v_2}=\ol{v_1+v_2}=\ol{v_2+v_1}=\ol{v_2}+\ol{v_1}$.
\item $(\ol{v_1}+\ol{v_2})\cdot a = \ol{v_1+v_2}\cdot a =
\ol{(v_1+v_2)\cdot a} = \ol{v_1 a+v_2 a} =
\ol{v_1 a} + \ol{v_2 a} = \ol{v_1}\cdot a +
\ol{v_2}\cdot a$.
\item $\ol{v}(a+b) = \ol{v(a+b)} = \ol{va+vb}
= \ol{va} + \ol{vb} = \ol{v}\cdot a + \ol{v}\cdot b$.
\item $\ol{v}(ab) = \ol{v(ab)} = \ol{(va)b} =
\ol{va}\cdot b = (\ol{v}\cdot a)\cdot b$.
\item $\ol{v}\cdot 1 = \ol{v\cdot 1} = \ol{v}$.
\end{enumerate}
\end{proof}
С каждым отношением эквивалентности связана каноническая проекция
исходного множества на фактор-множество. В нашем случае она является
отображением $V\to V/U$, сопоставляющим вектору $v\in V$ его класс
$\ol{v}=v+U$. Нетрудно видеть, что это отображение является линейным:
действительно, $\ol{v_1+v_2}=\ol{v_1}+\ol{v_2}$ и
$\ol{v\lambda}=(\ol{v})\lambda$ просто по определению операций в фактор-пространстве.
%\subsection{Ядро и образ линейного отображения}
%\literature{[F], гл. XII, \S~4, п. 1; [K2], гл. 2, \S~1, пп. 1, 3;
% [KM], ч. 1, \S~3.}
\begin{theorem}[Теорема о гомоморфизме]\label{thm_homomorphism}
Пусть $\ph\colon U\to V$~--- линейное отображение. Тогда
$U/\Ker(\ph)\isom\Img(\ph)$.
\end{theorem}
\begin{proof}
Построим отображение $f\colon U/\Ker(\ph)\to\Img(\ph)$:
отправим класс $u+\Ker(\ph)$ в $\ph(u)\in\Img(\ph)$.
Проверим, что $f$ корректно определено, то есть, не зависит от выбора
представителя класса из $U/\Ker(\ph)$. Действительно, если
$u+\Ker(\ph)=u'+\Ker(\ph)$, то $u'-u\in\Ker(\ph)$, откуда
$0=\ph(u'-u)=\ph(u')-\ph(u)$. Значит, $\ph(u')=\ph(u)$, что и
требовалось.
Отображение $f$ является линейным. Действительно, если $u_1,u_2\in U$,
то $f(\ol{u_1})=\ph(u_1)$ и $f(\ol{u_2})=\ph(u_2)$, поэтому
$f(\ol{u_1})+f(\ol{u_2}) = \ph(u_1)+\ph(u_2)$. С другой стороны,
$f(\ol{u_1}+\ol{u_2}) = f(\ol{u_1+u_2}) = \ph(u_1+u_2) =
\ph(u_1)+\ph(u_2)$~--- то же самое. Наконец, если $u\in U$ и
$a\in k$, то $f(\ol{u})a=\ph(u)a$ и
$f(\ol{u}\cdot a) = f(\ol{u a}) = \ph(ua) =
\ph(u)a$.
Проверим, что $f$ биективно. Заметим, что из $\ph(u)=0$ следует, что
$u\in\Ker(\ph)$, то есть, что $\ol{u}=\ol{0}\in U/\Ker(\ph)$; поэтому
$f$ инъективно. С другой стороны, для каждого $v\in\Img(\ph)$
существует $u\in U$ такое, что $v=\ph(u)$. Тогда $f(\ol{u})=\ph(u)=v$,
поэтому $f$ сюръективно.
\end{proof}
\subsection{Относительный базис}
\literature{[F], гл. XII, \S~2, пп. 4--6; [K2], гл. 1, \S~2, пп. 4, 5.}
Пусть $V$~--- векторное пространство над полем $k$, $U\leq V$.
\begin{definition}
Набор векторов $v_1,\dots,v_n\in V$ называется \dfn{линейно независимым над
$U$}\index{линейная независимость!над подпространством}, если
из $v_1a_1+\dots+v_na_n\in U$ следует, что
$a_1=\dots=a_n=0$.
Набор векторов $v_1,\dots,v_n\in V$ называется \dfn{порождающей системой
над $U$}\index{порождающая система!над подпространством} (или
\dfn{системой образующих $V$ над $U$}\index{система образующих!над
подпространством}), если любой вектор из $V$ можно представить в виде
$v_1a_1+\dots+v_na_n+u$ для некоторых
$a_1,\dots,a_n\in k$ и $u\in U$.
Наконец, набор $v_1,\dots,v_n\in V$ называется \dfn{относительным
базисом $V$ над $U$}\index{базис!относительный}, если он линейно независим
над $U$ и является порождающей системой над $U$.
Нетрудно видеть, что это равносильно тому, что любой вектор $V$
представляется в виде $v_1a_1+\dots+v_na_n+u$ для
некоторого $u\in U$ {\em единственным образом}.
\end{definition}
\begin{theorem}\label{thm_relative_basis}
Следующие условия равносильны:
\begin{enumerate}
\item $v_1,\dots,v_n$~--- относительный базис $V$ над $U$;
\item $v_1+U,\dots,v_n+U$~--- базис фактор-пространства $V/U$;
\item $v_1,\dots,v_n$ вместе с некоторым базисом пространства $U$ в
совокупности образуют базис пространства $V$;
\item $v_1,\dots,v_n$~--- базис некоторого дополнения $U$ в $V$.
\end{enumerate}
\end{theorem}
\begin{proof}
\begin{itemize}
\item[$1\Rightarrow 2$] Пусть $v_1,\dots,v_n$~--- относительный базис
$V$ над $U$. Проверим, что система $v_1+U,\dots,v_n+U$ линейно
независима. Действительно, если
$(v_1+U)a_1+\dots+(v_n+U)a_n=0\in V/U$,
то $(v_1a_1+\dots+v_na_n)+U=0\in V/U$.
Это означает, что $v_1a_1+\dots+v_na_n\in U$, откуда по
определению линейной независимости над $U$ следует
$a_1=\dots=a_n=0$.
Кроме того, любой вектор $v\in V$ можно представить в виде
$v = v_1a_1+\dots+v_na_n+u$ для некоторых
$a_1,\dots,a_n\in k$ и $u\in U$. Тогда
$\ol{v}=\ol{v_1}a_1 + \dots + \ol{v_n}a_n$, поскольку
$\ol{u}=0$. Значит, $\ol{v_1},\dots,\ol{v_n}$~--- система образующих
$V/U$.
\item[$2\Rightarrow 3$] Пусть $v_1+U,\dots,v_n+U$~--- базис $V/U$,
$u_1,\dots,u_k$~--- некоторый базис $U$. Тогда для любого вектора
$v\in V$ класс $v+U\in V/U$ можно представить в виде
$v+U=(v_1+U)a_1 + \dots + (v_n+U)a_n = (v_1a_1 +
\dots + v_na_n) + U$. Поэтому $v\sim_U v_1a_1 + \dots +
v_na_n$ и $v-(v_1a_1+\dots+v_na_n) = u\in
U$. Разложим вектор $u$ по базису $u_1,\dots,u_k$:
$u = u_1b_1 + \dots + u_kb_k$. Получаем, что
$v = v_1a_1 + \dots + v_na_n + u_1b_1 + \dots +
u_kb_k$.
Это доказывает, что $v_1,\dots,v_n,u_1,\dots,u_k$~--- базис $V$.
Наконец, если $v_1a_1 + \dots + v_na_n + u_1b_1 +
\dots + u_kb_k = 0$, то $v_1a_1 + \dots + v_na_n =
-u_1b_1 - \dots - u_kb_k\in U$, поэтому
$\ol{v_1a_1 + \dots + v_na_n} = \ol{0}$, и в силу
линейной независимости $\ol{v_1},\dots,\ol{v_n}$ в $V/U$ из этого
следует, что $a_1 = \dots = a_n = 0$.
\item[$3\Rightarrow 4$] Пусть $u_1,\dots,u_k$~--- базис $U$ такой, что
$v_1,\dots,v_n,u_1,\dots,u_k$~--- базис $V$. Тогда
$\la v_1,\dots,v_n\ra + \la u_1,\dots,u_k\ra = V$, откуда
$\la v_1,\dots,v_n\ra$~--- дополнение к $U$ в $V$.
\item[$4\Rightarrow 1$] Пусть $\la v_1,\dots,v_n\ra=U'$; по
предположению, $V=U\oplus U'$. Если $v = v_1a_1 + \dots +
v_na_n\in U$, то $v\in U\cap U'$, откуда $v=0$, и в силу
линейной независимости векторов $v_1,\dots,v_n$, получаем $a_1 = \dots =
a_n = 0$.
Наконец, любой вектор $v\in V$ можно представить в виде $v=u+u'$ для
некоторых $u\in U$, $u'\in U'$. Запишем $u' = v_1a_1 + \dots +
v_na_n$; получаем, что $v = v_1a_1 + \dots +
v_na_n + u$.
\end{itemize}
\end{proof}
\begin{corollary}
Пусть $U\leq V$~--- векторные пространства. Тогда
$\dim(V/U)=\dim(V)-\dim(U)$.
\end{corollary}
\begin{proof}
Выберем базис $u_1,\dots,u_k$ в $U$ и базис $\ol{v_1},\dots,\ol{v_n}$
в $V/U$. По части~3 теоремы~\ref{thm_relative_basis} набор
$u_1,\dots,u_k,v_1,\dots,v_n$ является базисом в $V$, состоящим из
$k+n$ элементов.
\end{proof}
% 13.04.2015
\subsection{Матрица перехода}
\literature{[F], гл. XII, \S~1, п. 4; [K2], гл. I, \S~2, п. 3; [KM],
ч. 1, \S~4, п. 7.}
Напомним, что выбор базиса $\mc B$ в конечномерном пространстве $V$,
$\dim(V)=n$, задает
изоморфизм между $V$ и пространством столбцов $k^n$: у каждого
вектора $v$ появляется координатный столбец $[v]_{\mc B}$, состоящий
из $n$ координат вектора $v$ в базисе $\mc B$.
Пусть теперь $\mc B'$~--- еще один базис пространства $V$. Возникает
естественный вопрос: как связаны между собой координаты вектора $v$ в
базисах $\mc B$ и $\mc B'$? Ответ на этот вопрос формулируется с
помощью {\em матрицы перехода} между базисами.
\begin{definition}\label{def:change_of_basis_matrix}
Пусть $\mc B=\{u_1,\dots,u_n\}$, $\mc B'=\{v_1,\dots,v_n\}$~--- базисы
конечномерного пространства $V$. В частности, векторы $v_j$ можно
разложить по базису $\mc B$:
$$
v_j=\sum_{i=1}^n u_ic_{ij}.
$$
Матрица $C=(c_{ij})_{i,j=1}^n$, составленная из коэффициентов этих
разложений, называется~\dfn{матрицей перехода}\index{матрица!перехода}
от базиса $\mc B$ к
базису $\mc B'$ и обозначается через $(\mc B\rsa\mc B')$. Иными
словами, матрица $(\mc B\rsa\mc B')$ составлена из координатных
столбцов векторов $v_1,\dots,v_n$ в базисе $\mc B$:
$$
(\mc B\rsa\mc B')=\begin{pmatrix}[v_1]_{\mc B} & [v_2]_{\mc B} & \dots
& [v_n]_{\mc B}\end{pmatrix}.
$$
В этой ситуации $\mc B$ называется \dfn{старым базисом}, $\mc B'$~---
\dfn{новым базисом}, а $(\mc B\rsa\mc B')$~--- \dfn{матрицей перехода
от старого базиса к новому}.
\end{definition}
Символически мы можем записать
$$
\begin{pmatrix}v_1 & v_2 & \dots & v_n\end{pmatrix} =
\begin{pmatrix}u_1 & u_2 & \dots & u_n\end{pmatrix}\cdot
(\mc B\rsa\mc B').
$$
В такой записи слева стоит строчка, составленная из {\em векторов}
пространства $V$, а справа~--- произведение такой строчки на матрицу
над $k$. Переменожая строчку векторов на столбцы матрицы над $k$ мы
будем получать линейные комбинации этих векторов, поэтому в правой
части после перемножения окажется строчка, состоящая из $n$
линейных комбинаций векторов $u_1,\dots,u_n$. Равенство теперь означает,
что вектор $v_j$ равен $j$-й из этих линейных комбинаций.
\begin{proposition}[Свойства матрицы перехода]
Пусть $\mc B=\{u_1,\dots,u_n\}$, $\mc B'=\{v_1,\dots,v_n\}$,
$\mc B''=\{w_1,\dots,w_n\}$~--- базисы конечномерного пространства
$V$. Тогда
\begin{enumerate}
\item $(\mc B\rsa\mc B)=E$;
\item $(\mc B\rsa\mc B'')=(\mc B\rsa\mc B')\cdot (\mc B'\rsa\mc B'')$;
\item матрица $(\mc B\rsa\mc B')$ обратима и
$(\mc B\rsa\mc B')^{-1}=(\mc B'\rsa\mc B)$.
\end{enumerate}
\end{proposition}
\begin{proof}
\begin{enumerate}
\item Очевидно: столбец координат вектора $u_i$ в базисе
$\{u_1,\dots,u_n\}$ равен $e_i$, то есть, равен $i$-му столбцу
единичной матрицы.
\item Мы знаем, что $$(w_1,\dots,w_n)=(u_1,\dots,u_n)(\mc B\rsa\mc
B'').$$
С другой стороны, $(w_1,\dots,w_n) = (v_1,\dots,v_n)(\mc B'\rsa\mc B'')
= (u_1,\dots,u_n)(\mc B\rsa\mc B')(\mc B'\rsa\mc B'')$.
Поэтому
$$
(u_1,\dots,u_n)(\mc B\rsa\mc B'') = (u_1,\dots,u_n)(\mc B\rsa\mc
B')(\mc B'\rsa\mc B'').
$$
Поскольку $(u_1,\dots,u_n)$ является базисом, из равенства линейных
комбинаций векторов $u_1,\dots,u_n$ следует равенство всех их
коэффициентов, поэтому
$$
(\mc B\rsa\mc B'') = (\mc B\rsa\mc B')(\mc B'\rsa\mc B''),
$$
что и требовалось.
\item Из первых двух пунктов следует, что $(\mc B\rsa\mc B')\cdot(\mc
B'\rsa\mc B) = (\mc B\rsa\mc B) = E$; аналогично, $(\mc B'\rsa\mc
B)\cdot(\mc B\rsa\mc B') = (\mc B'\rsa\mc B') = E$.
\end{enumerate}
\end{proof}
Теперь мы можем связать координаты одного и того же вектора в разных
базисах.
\begin{theorem}\label{thm:change_of_coordinates}
Пусть $V$~--- конечномерное векторное пространство, $\mc B$, $\mc
B'$~--- базисы $V$. Тогда для любого вектора $v\in V$ выполнено
$$
[v]_{\mc B'} = (\mc B'\rsa\mc B)\cdot [v]_{\mc B}.
$$
\end{theorem}
\begin{remark}\label{rem:contravariant_change}
Это означает, что координаты вектора в базисе преобразуются
{\em контравариантно} при замене базиса: координаты в новом базисе
получаются из координат в старом базисе домножением на матрицу
перехода {\em из нового базиса в старый}.
\end{remark}
\begin{proof}
Пусть $\mc B=\{u_1,\dots,u_n\}$, $\mc B'=\{v_1,\dots,v_n\}$.
Запишем $[v]_{\mc B} =
\begin{pmatrix} x_1 \\ x_2 \\ \vdots \\ x_n\end{pmatrix}$ и
$[v]_{\mc B'} =
\begin{pmatrix} y_1 \\ y_2 \\ \vdots \\ y_n\end{pmatrix}$.
По определению это означает,
что $v = u_1x_1+\dots+u_nx_n = v_1y_1+\dots+v_2y_2$,
то есть,
$$v=\begin{pmatrix}u_1 & \dots & u_n\end{pmatrix}
\begin{pmatrix}x_1 \\ \vdots \\ x_n\end{pmatrix} =
\begin{pmatrix}v_1 & \dots & v_n\end{pmatrix}
\begin{pmatrix}y_1 \\ \vdots \\ y_n\end{pmatrix}.$$
По определению матрицы перехода имеем
$\begin{pmatrix}v_1 & \dots & v_n\end{pmatrix}
=\begin{pmatrix}u_1 & \dots & u_n\end{pmatrix}
\cdot (\mc B\rsa\mc B')$.
Подставляя это в полученное равенство, получаем
$$
v=\begin{pmatrix}u_1 & \dots & u_n\end{pmatrix}
\begin{pmatrix}x_1 \\ \vdots \\ x_n\end{pmatrix} =
=\begin{pmatrix}u_1 & \dots & u_n\end{pmatrix}
(\mc B\rsa\mc B')
\begin{pmatrix}y_1 \\ \vdots \\ y_n\end{pmatrix}
$$
Но $(u_1,\dots,u_n)$ является базисом, поэтому из равенства линейных
комбинаций этих векторов следует равенство их коэффициентов.
Значит,
$$
\begin{pmatrix}x_1 \\ \vdots \\ x_n\end{pmatrix} =
(\mc B\rsa\mc B')
\begin{pmatrix}y_1 \\ \vdots \\ y_n\end{pmatrix},
$$
что и требовалось доказать.
\end{proof}
% \subsection{Матрица линейного отображения}\label{subsect:matrix_of_a_linear_map}
%\literature{[F], гл. XII, \S~4, пп. 1--3; [K2], гл. 2, \S~1, п. 2;
% \S~2, п. 3; [KM], ч. 1, \S~4; [vdW], гл. IV, \S~23.}
Еще один естественный вопрос~--- что происходит с матрицей отображения
при замене базисов в пространствах?
Пусть в пространстве $U$ заданы базисы $\mc B$ и $\mc C$, а в
пространстве $V$~--- базисы $\mc B'$ и $\mc C'$. У каждого линейного
отображения $\ph\colon U\to V$ имеется матрица $[\ph]_{\mc B,\mc B'}$
в базисах $\mc B,\mc B'$ и матрица $[\ph]_{\mc C,\mc C'}$ в базисах
$\mc C,\mc C'$.
\begin{theorem}\label{thm_matrix_under_change_of_bases}
Пусть $U,V$~--- векторные пространства над полем $k$,
$\ph\colon U\to V$~--- линейное отображение,
$\mc B$, $\mc
C$~--- базисы в $U$, $\mc B'$, $\mc C'$~--- базисы в $V$. Тогда
$$
[\ph]_{\mc C,\mc C'} = (\mc B'\rsa\mc C')^{-1}[\ph]_{\mc B,\mc B'}(\mc
B\rsa\mc C)
$$
\end{theorem}
\begin{proof}
Пусть $u\in U$; тогда
$[\ph(u)]_{\mc B'} = [\ph]_{\mc B,\mc B'}\cdot[u]_{\mc B}$
и $[\ph(u)]_{\mc C'} = [\ph]_{\mc C,\mc C'}\cdot[u]_{\mc C}$.
Кроме того, $[u]_{\mc B} = (\mc B\rsa \mc C)[u]_{\mc C}$ и
$[\ph(u)]_{\mc C'} = (\mc C'\rsa \mc B')[\ph(u)]_{\mc B'}$.
Поэтому
\begin{align*}
[\ph]_{\mc C,\mc C'}\cdot [u]_{\mc C} &=
[\ph(u)]_{\mc C'} = (\mc C'\rsa\mc B')[\ph(u)]_{\mc B'} \\
&= (\mc C'\rsa\mc B')[\ph]_{\mc B,\mc B'}\cdot[u]_{\mc B} \\
&= (\mc C'\rsa\mc B')[\ph]_{\mc B,\mc B'}\cdot(\mc B\rsa\mc C)[u]_{\mc
C}
\end{align*}
для всех векторов $u\in U$.
По предложению~\ref{prop:equal-matrices} из этого следует
нужное равенство матриц.
\end{proof}
Итак, при замене базисов в пространствах $U$ и $V$ матрица отображения
$\ph\colon U\to V$ домножается справа на матрицу замены базиса в $U$ и
слева~--- на обратную матрицу замены базиса в $V$. Это можно
использовать следующим образом: для фиксированного отображения $\ph$
попробуем подобрать базисы в $U$ и $V$ так, чтобы матрица $\ph$ в этих
базисах выглядела наиболее простым образом.
\begin{theorem}[Каноническая форма матрицы линейного отображения]\label{thm_homomorphism_canonical}
Пусть $\ph\colon U\to V$~--- гомоморфизм векторных пространств. Тогда
найдутся базис $\mc B$ в $U$ и базис $\mc B'$ в $V$ такие, что матрица
$[\ph]_{\mc B,\mc B'}$ является окаймленной единичной:
$[\ph]_{\mc B,\mc B'} = \begin{pmatrix}E_r & 0\\0&0\end{pmatrix}$.
При этом $r=\dim(\Img(\ph))$.
\end{theorem}
\begin{proof}
По теореме о гомоморфизме (\ref{thm_homomorphism}) имеется изоморфизм
$\tld\ph\colon U/\Ker(\ph)\isom\Img(\ph)$.
Выберем какой-нибудь базис в $\Ker(\ph)$ и базис в $U/\Ker(\ph)$; по
теореме~\ref{thm_relative_basis} мы получим базис в $U$; пусть это
$e_1,\dots,e_n$,
причем $e_1,\dots,e_r$~--- относительный базис $U$ над $\Ker(\ph)$, а
$e_{r+1},\dots,e_n$~--- базис $\Ker(\ph)$.
Базису $\ol{e_1},\dots,\ol{e_r}$ в $U/\Ker(\ph)$ в силу
изоморфизма $\tld\ph$ соответствует базис $f_1,\dots,f_r$ в
$\Img(\ph)$; при этом $\ph(e_i)=f_i$ для $i=1,\dots,r$, и видно, что
$r=\dim(\Img(\ph))$.
Наконец, поскольку $\Img(\ph)\leq V$, можно дополнить систему
$f_1,\dots,f_r$ до базиса $V$ векторами $f_{r+1},\dots,f_m$.
Поскольку $\ph(e_i)=f_i$ для $i=1,\dots,r$ и $\ph(e_i)=0$ для $i\geq
r+1$, матрица $\ph$ в базисах $(e_1,\dots,e_n)$, $(f_1,\dots,f_m)$
имеет нужный вид.
\end{proof}
Фактически мы получили еще одно доказательство
следствия~\ref{cor_pdq}.
\begin{remark}\label{rem_rank_homomorphism}
Размерность образа отображения $\ph$ называется
\dfn{рангом}\index{ранг!линейного отображения} $\ph$; по
теореме~\ref{thm_homomorphism_canonical} ранг линейного отображения
равен рангу его матрицы (в любой паре базисов, поскольку при
домножении на обратимые матрицы ранг не меняется).
\end{remark}
\begin{remark}\label{rem:rank-is-dim-im}
Приведем еще одну характеризацию ранга: {\em размерность образа
линейного отображения равна рангу его матрицы}. Действительно,
по теореме~\ref{thm_homomorphism_canonical} можно выбрать базис так,
что матрица нашего отображения станет окаймленной единичной.
Для окаймленной единичной матрицы ранга $r$ очевидно, что образ
соответствующего линейного отображения имеет размерность $r$~---
этот образ есть просто линейная оболочка первых $r$ базисных векторов.
Осталось вспомнить, что при замене базиса происходит домножение
матрицы линейного отображения на обратимые матрицы слева и справа,
что, как мы знаем, не меняет ранга матрицы.
\end{remark}
\begin{proposition}
Размерность пространства решений однородной системы линейных уравнений
равна числу неизвестных минус ранг матрицы этой системы.
\end{proposition}
\begin{proof}
Пусть речь идет о системе $AX=0$, где $A\in M(m,n,k)$, и $X\in k^n$~---
столбец неизвестных. Рассмотрим линейный оператор
$T\colon k^n\to k^m$, $X\mapsto AX$. Нетрудно понять, что его матрица
относительно стандартных базисов $k^n$, $k^m$ равна $A$.
Пространство решений системы $AX=0$~--- это в точности ядро оператора
$T$. Ранг матрицы $A$, как мы заметили выше~--- это размерность
образа оператора $T$. Число неизвестных здесь равно $n$.
Осталось применить теорему о гомоморфизме~\ref{thm:homomorphism-linear}.
\end{proof}
\begin{corollary}
Пусть $A\in M(m,n,k)$.
Однородная линейная система уравнений $AX=0$ имеет нетривиальное (то
есть, ненулевое) решение тогда и только тогда, когда $\rk(A)<n$. В
частности, если $m<n$, то эта система всегда имеет нетривиальное
решение; если же $m=n$, то она имеет нетривиальное решение тогда и
только тогда, когда матрица $A$ необратима.
\end{corollary}
\begin{proof}
Нетривиальное решение системы $AX=0$ существует тогда и только тогда,
когда размерность пространства решение строго больше $0$, что по
предыдущей теореме равносильно неравенству $\rk(A)<n$. Если $m<n$, то
ранг матрицы $A$, будучи равен строчному рангу, не превосходит $m$:
$\rk(A)\leq m<n$, поэтому нетривиальное решение имеется. Если же
$m=n$, то неравенство $\rk(A)<n$ по
следствию~\ref{cor_invertibility_rank} равносильно необратимости $A$.
\end{proof}
Докажем еще раз теорему Кронекера--Капелли.
\begin{theorem}[Кронекера--Капелли]\label{thm_kronecker_kapelli_2}
Система линейных уравнений $AX=B$ имеет решение тогда и только тогда,
когда ранг матрицы $A$ равен рангу расширенной матрицы $(A|B)$. При
этом решение единственно тогда и только тогда, когда, дополнительно,
этот ранг равен числу неизвестных $n$.
\end{theorem}
\begin{proof}
Рассмотрим соответствующее линейное отображение $T\colon k^n\to
k^m$, $X\mapsto AX$.
Образ $T$~--- это подпространство, порожденное векторами
$T(e_1),\dots,T(e_n)$, то есть, пространство столбцов матрицы
$A$. Значит, $B$ лежит в $\Img(T)$ тогда и только тогда, когда
столбец $B$ является линейной комбинацией столбцов матрицы $A$. По
предложению~\ref{prop_structure_of_solutions_linear_system} имеется
биекция между множеством решений системы
$AX=B$ и множеством решений однородной системы $AX=0$; это множество
состоит из одной точки тогда и только тогда, когда $\Ker(T)=0$, то
есть, когда $\rk(A)=\dim(\Img(T))=n$.
\end{proof}