\section{Линейные отображения} \subsection{Первые определения} \literature{[F], гл. XII, \S~4, п. 1.; [K2], гл. 2, \S~1, п. 1; [KM], ч. 1, \S~3, пп. 1, 2; [vdW], гл. IV, \S~23.} \begin{definition} Пусть $V$, $W$~--- векторные пространства над полем $k$. Отображение $T\colon V\to W$ называется \dfn{линейным}, если \begin{itemize} \item $T(u+v)=T(u) + T(v)$; \item $T(va) = T(v)a$ для всех $a\in k$, $v\in V$. \end{itemize} Иногда вместо $T(v)$ мы будем писать $Tv$. Множество всех линейных отображений из $V$ в $W$ мы будем обозначать через $\Hom(V,W)$. Линейное отображение часто называется \dfn{гомоморфизмом}\index{гомоморфизм!векторных пространств} векторных пространств; оно называется \dfn{эндоморфизмом}\index{эндоморфизм!векторных пространств}, если $U=V$. \end{definition} \begin{example} Обозначим через $0$ отображение, которое любой вектор $v\in V$ переводит в $0\in W$; то есть, $0(v)=0$ для всех $v\in V$. Нетрудно видеть, что оно линейно, то есть, $0\in\Hom(V,W)$. Обратите внимание, что мы используем тот же символ $0$, что и для обозначения нулевого элемента поля $k$ и нулевых элементов в векторных пространствах $V$ и $W$. \end{example} \begin{example} Для каждого векторного пространства $V$ можно рассмотреть тождественное отображение $\id_V\colon V\to V$. Нетрудно проверить, что он линейно; таким образом, $\id_V\in\Hom(V,W)$. \end{example} \begin{example}\label{example:linear-derivative} Для пространства многочленов $k[x]$ можно рассмотреть отображение {\em дифференцирования} $T\colon k[x]\to k[x]$, сопоставляющее каждому многочлену $f\in k[x]$ его производную $f'$. Это отображение линейно, поскольку $(f+g)' = f' + g'$ и $(fa)' = f'a$ для всех $f,g\in k[x]$ и $a\in k$ (см. предложение~\ref{prop:derivative-properties}). \end{example} \begin{example}\label{example:linear-timesx} Отображение $k[x]\to k[x]$, умножающее каждый многочлен на $x$, является линейным. \end{example} \begin{example} Снова рассмотрим пространство многочленов $k[x]$, и пусть $c\in k$~--- фиксированный элемент основного поля. Рассмотрим отображение $\ev_c\colon k[x]\to k$, сопоставляющее каждому многочлену $f\in k[x]$ его значение в точке $c$. Иными словами, $\ev_c(f) = f(c)$. Это отображение линейно (см. предложение~\ref{prop:evaluation-properties}); оно называется \dfn{эвалюацией в точке $c$}. \end{example} \begin{example} Пусть $k=\mb R$; рассмотрим отображение $T\colon \mb R[x]\to\mb R$, сопоставляющее многочлену $f\in\mb R[x]$ значение интеграла $$ T(f) = \int_0^1 f(x)\;dx. $$ Из простейших свойств определенного интеграла следует, что отображение $T$ линейно. \end{example} \begin{example} Рассмотрим пространство бесконечных последовательностей ${}^\infty k$. Отображение $T\colon {}^\infty k\to {}^\infty k$, сопоставляющее последовательности $(x_1,x_2,\dots)$ последовательность $(x_2,x_3,\dots)$ ({\em сдвиг влево}) является линейным. \end{example} Пусть $T\colon V\to W$~--- линейное отображение, и пусть $v_1,\dots,v_n$~--- базис пространства $V$. Если $v\in V$, то можно записать $v = v_1a_1 + \dots + v_na_n$ для некоторых $a_1,\dots,a_n\in k$. Тогда из определения линейности следует, что $T(v) = T(v_1)a_1 + \dots + T(v_n)a_n$. Это означает, что значение $T$ на любом векторе $v$ полностью определяется своими значениями на базисе. Обратно, можно задать значения $T(v_1),\dots, T(v_n)\in W$ {\em произвольным} образом, и по этим данным однозначно восстанавливается единственное линейное отображение из $V$ в $W$. \begin{theorem}[Универсальное свойство базиса]\label{thm:universal-basis-property} Пусть $V,W$~--- конечномерные векторные пространства, $v_1,\dots,v_n$~--- базис $V$, и пусть заданы произвольные векторы $w_1,\dots,w_n\in W$. Существует единственное линейное отображение $T\colon V\to W$ такое, что $T(v_i) = w_i$ для всех $i=1,\dots,n$. \end{theorem} \begin{proof} Возьмем вектор $v\in V$ и разложим его базису $v_1,\dots,v_n$: $v = v_1a_1 + \dots + v_na_n$. Если $T(v_i) = w_i$ для $i=1,\dots,n$, то \begin{align*} T(v) &= T(v_1a_1+\dots+v_na_n) \\ &= T(v_1)a_1+\dots+T(v_n)a_n \\ &= w_1a_1 + \dots + w_na_n. \end{align*} Таким образом, значение $T$ на $v$ однозначно определено (поскольку коэффициенты $a_1,\dots,a_n$ однозначно определяются вектором $v$, см. теорему~\ref{thm:basis-equiv}). Это рассуждение работает для произвольного вектора $v\in V$, поэтому линейное отображение $T$, удовлетворяющее условиям $T(v_i) = w_i$, единственно. Обратно, если нам дан базис $\{v_i\}$ в $V$ и векторы $\{w_i\}$, то для произвольного вектора $v = v_1a_1 + \dots + v_na_n$ положим $T(v) = w_1a_1 + \dots + w_na_n$ (это выражение определено однозначно по теореме~\ref{thm:basis-equiv}). Мы получили отображение $T\colon V\to W$; осталось доказать, что оно линейно. Действительно, пусть $u,v\in V$, причем $v = v_1a_1+\dots+v_na_n$ и $u=v_1b_1+\dots+v_nb_n$. Тогда по нашему определению $T(v) = w_1a_1 + \dots + w_na_n$, $T(u) = w_1b_1 + \dots + w_nb_n$. Сложение выражений для $u$ и $v$ показывает, что $u+v = v_1(a_1+b_1) + \dots + v_n(a_n+b_n)$, и по определению $T$ тогда $T(u+v) = w_1(a_1+b_1) + \dots + w_n(a_n+b_n)$. Нетрудно видеть теперь, что $T(u+v) = T(u) + T(v)$. Если, кроме того, $a\in k$, то $va = v_1a_1a + \dots + v_na_na$, и потому $T(va) = w_1a_1a + \dots + w_na_na$. Легко проверить, что $T(va) = T(v)a$. \end{proof} \subsection{Операции над линейными отображениями}\label{subsect:hom_space} \literature{[F], гл. XII, \S~4, пп. 4--6; [K2], гл. 2, \S~1, п. 1; \S~2, пп. 1--2; [KM], ч. 1, \S~3; [vdW], гл. IV, \S~23.} Пусть $V,W$~--- векторные пространства над $k$. Оказывается, множество $\Hom(V,W)$ всех линейных отображений из $V$ в $W$ естественным образом снабжается структурой векторного пространства над $k$. Чтобы продемонстрировать это, мы должны определить на нем две операции: сложение и умножение на скаляр. Пусть $S,T\colon V\to W$~--- линейные отображения. Определим новое отображение $S+T\colon V\to W$ формулой $(S+T)(v) = S(v) + T(v)$ для всех $v\in V$. Нетрудно проверить, что отображение $S+T$ линейно. Поэтому для $S,T\in\Hom(V,W)$ мы построили их сумму $S+T\in\Hom(V,W)$. Если же $S\colon V\to W$~--- линейное отображение, и $a\in k$, можно определить отображение $Sa\colon V\to W$ формулой $(Sa)(v) = S(v)a$. Это отображение также линейно, то есть, $Sa\in\Hom(V,W)$. Теперь можно проверить, что введенные операции действительно превращают $\Hom(V,W)$ в векторное пространство. Роль нулевого элемента в нем играет нулевое отображение $0\colon\Hom(V,W)$. Для примера проверим одно условие из определения векторного пространства: пусть $S,T\in\Hom(V,W)$, $a\in k$. Тогда для всех $v\in V$ выполнены равенства \begin{align*} ((S+T)a)(v) &= ((S+T)(v))\cdot a \\ &= (S(v)+T(v))a \\ &= (S(v)a) + (T(v)a) \\ &= (Sa)(v) + (Ta)(v) \\ &= (Sa+Ta)(v) \end{align*} Поэтому отображения $(S+T)a$, $Sa+Ta$ из $V$ в $W$ совпадают. % 23.03.2015 Более того, некоторые линейные отображения можно <<перемножать>>. Пусть $U,V,W$~--- векторные пространства над $k$. Возьмем линейные отображения $T\in\Hom(U,V)$ и $S\in\Hom(V,W)$. Тогда имеет смысл рассматривать их композицию $S\circ T\colon U\to W$. Оказывается, отображение $S\circ T$ также является линейным. Действительно, напомним, что $(S\circ T)(u) = S(T(u))$ для всех $u\in U$ по определению композиции. Поэтому \begin{align*} (S\circ T)(u_1+u_2) &= S(T(u_1+u_2)) \\ &= S(T(u_1)+T(u_2)) \\ &= S(T(u_1))+S(T(u_2)) \\ &= (S\circ T)(u_1) + (S\circ T)(u_2) \end{align*} для всех $u_1,u_2\in U$. Если же $u\in U$, $a\in k$, то $$ (S\circ T)(ua) = S(T(ua)) = S(T(u)a) = S(T(u))a = (S\circ T)(u)a. $$ Значит, $S\circ T\in\Hom(U,W)$. Вместо $S\circ T$ мы будем часто писать $ST$ и воспринимать $ST$ как {\em произведение} линейных отображений $S$ и $T$. Заметим, что композиция линейных отображений автоматически ассоциативна (по теореме~\ref{thm_composition_associative}), то есть, $R(ST) = (RS)T$ для трех линейных отображений таких, что указанные композиции имеют смысл. Тождественные отображение линейны и играют роль нейтральных элементов: $T\id_V = \id_W T$ для $T\in\Hom(V,W)$. Наконец, несложно проверить (упражнение!), что умножение и сложение линейных отображений обладают свойством дистрибутивности: если $T,T_1,T_2\in\Hom(U,V)$ и $S,S_1,S_2\in\Hom(V,W)$ то $(S_1+S_2)T = S_1T + S_2T$ и $S(T_1+T_2) = ST_1 + ST_2$. Конечно, произведение линейных отображений некоммутативно: равенство $ST=TS$ не обязано выполняться, даже если обе его части имеют смысл. Например, если $T\in\Hom(k[x],k[x])$~--- отображение дифференцирования многочленов (см. пример~\ref{example:linear-derivative}), а $S\in\Hom(k[x],k[x])$~--- умножение на $x$ (см. пример~\ref{example:linear-timesx}), то $((ST)(f))(x) = xf'(x)$, а $((TS)(f))(x) = (xf(x))' = xf'(x) + f(x)$. Таким образом, $ST-TS = \id_{k[x]}$. \subsection{Ядро и образ} \literature{[F], гл. XII, \S~4, п. 1; [K2], гл. 2, \S~1, пп. 1, 3; [KM], ч. 1, \S~3.} \begin{definition} Пусть $T\in\Hom(V,W)$~--- линейное отображение. Его \dfn{ядром} называется множество векторов, переходящих в $0$ под действием $T$: $$ \Ker(T) = \{v\in V\mid T(v) = 0\}. $$ \end{definition} \begin{example} Если $T\in\Hom(k[x],k[x])$~--- дифференцирование (см. пример~\ref{example:linear-derivative}), то $\Ker(T) = \{f\in k[x] \mid f'=0\}$. Если поле $k$ имеет характеристику $0$, то $\Ker(T)$ состоит только из констант, то есть, $\Ker(T) = k\subseteq k[x]$~--- одномерное подпространство в $k[x]$. Если же $\cchar k = p$, то существуют и неконстантные многочлены $f\in k[x]$ такие, что $f'=0$. Например, таков многочлен $x^p$, а потому и любой многочлен от $x^p$: действительно, обозначим $g(x) = x^p$, тогда $(f(g(x)))' = f'(g(x))\cdot g'(x) = 0$. Можно показать (упражнение!), что $\Ker(T)$ в этом случае в точности состоит из многочленов от $x^p$, то есть, от многочленов вида $\sum_{j=0}^n a_j x^{jp}$. Таким образом, $\Ker(T) = k[x^p]$ в этом случае бесконечномерно. \end{example} \begin{example} Пусть $T\in\Hom(k[x],k[x])$~--- умножение на $x$ (см. пример~\ref{example:linear-timesx}). Тогда $\Ker(T) = 0$. \end{example} \begin{proposition}\label{prop:kernel-is-subspace} Если $T\in\Hom(V,W)$, то $\Ker(T)$ является подпространством в $V$. \end{proposition} \begin{proof} Заметим, что $T(0) = T(0+0) = T(0)+T(0)$, откуда $T(0)=0$. Значит, $0\in\Ker(T)$. Если $u,v\in\Ker(T)$, то по определению $T(u)=T(v)=0$. Тогда и $T(u+v) = T(u)+T(v) = 0+0=0$, то есть, $u+v\in\Ker(T)$. Наконец, если $u\in\Ker(T)$ и $a\in k$, то $T(u)=0$ и $T(ua)=T(u)a=0\cdot a = 0$, откуда $ua\in\Ker(T)$. Вышесказанное означает, что $\Ker(T)\leq V$. \end{proof} \begin{proposition}\label{prop:injective-iff-kernel-trivial} Пусть $T\in\Hom(V,W)$. Отображение $T$ инъективно тогда и только тогда, когда $\Ker(T) = 0$. \end{proposition} \begin{proof} Предположим, что $T$ инъективно. Множество $\Ker(T)$ состоит из тех векторов $v$, для которых $T(v) = 0$. Мы знаем, что $T(0)=0$ и из инъективности следует, что других таких векторов нет; поэтому $\Ker(T) = \{0\}$. Обратно, предположим, что $\Ker(T)=0$. Для проверки инъективности возьмем $v_1,v_2\in V$ такие, что $T(v_1)=T(v_2)$ и покажем, что $v_1=v_2$. Действительно, тогда $T(v_1-v_2) = T(v_1)-T(v_2) = 0$, и потому $v_1-v_2\in\Ker(T) = \{0\}$, откуда $v_1-v_2=0$, что и требовалось. \end{proof} \begin{definition} Пусть $T\in\Hom(V,W)$. Его \dfn{образом} называется его образ как обычного отображения, то есть, множество $$ \Img(T) = \{T(v)\mid v\in V\}. $$ \end{definition} \begin{proposition}\label{prop:image-is-subspace} Если $T\in\Hom(V,W)$, то $\Img(T)$ является подпространством в $W$. \end{proposition} \begin{proof} Из равенства $T(0)=0$ следует, что $0\in\Img(T)$. Если $w_1,w_2\in\Img(T)$, то найдутся $v_1,v_2\in V$ такие, что $T(v_1)=w_1$ и $T(v_2)=w_2$. Но тогда $T(v_1+v_2) = T(v_1) + T(v_2) = w_1 + w_2$, и потому $w_1 + w_2 \in \Img(T)$. Если $w\in\Img(T)$, то $T(v)=w$ для некоторого $v\in V$. Пусть $a\in k$; тогда $T(va) = T(v)a = wa$, и потому $wa\in\Img(T)$. По определению тогда $\Img(T)\leq W$. \end{proof} \begin{theorem}[О гомоморфизме]\label{thm:homomorphism-linear} Пусть $V$~--- конечномерное пространство, $T\in\Hom(V,W)$~--- линейное отображение. Тогда $\Img(T)$ является конечномерным подпространством в $W$ и, кроме того, $$ \dim(V) = \dim(\Ker(T)) + \dim(\Img(T)). $$ \end{theorem} \begin{proof} Пусть $u_1,\dots,u_m$~--- базис $\Ker(T)$. Этот линейно независимый набор векторов можно продолжить до базиса $(u_1,\dots,u_m,v_1,\dots,v_n)$ всего пространства $V$ по теореме~\ref{thm:li-contained-in-a-basis}. Таким образом, $\dim(\Ker(T)) = m$ и $\dim(V) = m+n$; нам остается лишь доказать, что $\dim(\Img(T)) = n$. Для этого рассмотрим векторы $T(v_1),\dots,T(v_n)$ и покажем, что они образуют базис подпространства $\Img(T)$. Очевидно, что они лежат в $\Img(T)$, и потому $\la T(v_1),\dots,T(v_n)\ra\subseteq\Img(T)$. Обратно, если $w\in\Img(T)$, то $w=T(v)$ для некоторого $v\in V$. Разложим $v$ по нашем базису пространства $V$: $$ v = u_1a_1+\dots+u_ma_m + v_1b_1+\dots+v_nb_n $$ и применим к этому разложению отображение $T$: $$ w = T(v) = T(u_1a_1+\dots+u_ma_m + v_1b_1 + \dots + v_nb_n) = T(v_1)b_1 + \dots + T(v_n)b_n. $$ Поэтому $w\in \la T(v_1),\dots,T(v_n)$. Осталось показать, что векторы $T(v_1),\dots,T(v_n)$ линейно независимы. Пусть $T(v_1)c_1 + T(v_n)c_n = 0$~--- некоторая линейная комбинация. Тогда $0=T(v_1c_1+\dots+v_nc_n)$. Это означает, что вектор $v_1c_1+\dots+v_nc_n$ лежит в $\Ker(T)$. Мы знаем базис $\Ker(T)$,потому $v_1c_1+\dots+v_nc_n = u_1d_1 + \dots +u_md_m$ для некоторых $d_i\in k$. Но набор векторов $u_1,\dots,u_m,v_1,\dots,v_n$ лниейно независим. Значит, все коэффициенты $c_i,d_j$ равны нулю, и исходная линейная комбинация векторов $T(v_1),\dots,T(v_n)$ тривиальна. \end{proof} Приведем пару полезных следствий этой теоремы; оказывается, уже тривиальные соображения неотрицательности размерности имеют серьезные последствия. \begin{corollary} Пусть $V,W$~--- векторные пространства над $k$, и $\dim V < \dim W$. Не существует сюръективных линейных отображений $V\to W$. \end{corollary} \begin{proof} Предположим, что линейное отображение $T\colon V\to W$ сюръективно. Тогда $\Img(T) = W$, и по теореме~\ref{thm:homomorphism-linear} $\dim(V) = \dim(\Ker(T)) + \dim(\Img(T)) = \dim(\Ker(T)) + \dim(W)$. Но $\dim(\Ker(T))\geq 0$, и поэтому $\dim(V) \geq \dim(W)$~--- противоречие с условием. \end{proof} \begin{corollary}\label{cor:no-injective-maps} Пусть $V,W$~--- векторные пространства над $k$, и $\dim V > \dim W$. Не существует инъективных линейных отображений $V\to W$. \end{corollary} \begin{proof} Предположим, что линейное отображение $T\colon V\to W$ инъективно. По предложению~\ref{prop:injective-iff-kernel-trivial} ядро $T$ тривиально. По теореме~\ref{thm:homomorphism-linear} $\dim(V) = \dim(\Ker(T)) + \dim(\Img(T)) = \dim(\Img(T)) \leq \dim(W)$ (последнее неравенство выполнено по предложению~\ref{prop:dimension_is_monotonic})~--- противоречие с условием. \end{proof} \subsection{Матрица линейного отображения} \literature{[F], гл. XII, \S~4, пп. 1--3; [K2], гл. 2, \S~1, п. 2; \S~2, п. 3; [KM], ч. 1, \S~4; [vdW], гл. IV, \S~23.} Пусть $V,W$~--- два конечномерных пространства, и пусть $\mc B = (v_1,\dots,v_n)$~--- упорядоченный базис $V$, а $\mc B' = (w_1,\dots,w_m)$~--- упорядоченный базис $W$. Универсальное свойства базиса (теорема~\ref{thm:universal-basis-property}) означает, что для задания линейного отображение $T\colon V\to W$ достаточно задать векторы $T(v_1),\dots,T(v_n)\in W$. Каждый вектор $T(v_j)$, в свою очередь, можно разложить по базису $\mc B'$. Задание $T(v_j)$, таким образом, равносильно заданию коэффициентов в этом разложении. Мы получили, что линейное отображение $T\colon V\to W$ в итоге задается конечным набором скаляров~--- при условии, что в пространствах $V$ и $W$ выбраны базисы. Этот набор скаляров удобно записывать в виде матрицы. \begin{definition}\label{dfn:matrix-of-linear-map} Пусть $T\colon V\to W$~--- линейное отображение между конечномерными пространствами, и пусть выбраны упорядоченные базисы $\mc B = (v_1,\dots,v_n)$ в $V$ и $\mc B' = (w_1,\dots,w_m)$ в $W$. Разложим каждый вектор $T(v_j)$ по базису $\mc B'$ и запишем $$ T(v_j) = w_1a_{1j} + w_2a_{2j} + \dots + w_ma_{mj}. $$ Набор коэффициентов $(a_{ij})_{\substack{1\leq i\leq m \\ 1\leq j\leq n}}$ мы воспринимаем как матрицу размера $m\times n$; она называется \dfn{матрицей линейного отображения $T$ в базисах $\mc B$, $\mc B'$} и обозначается через $[T]_{\mc B,\mc B'}$. \end{definition} Как мы увидим ниже (см. теорему~\ref{thm:hom-isomorphic-to-m}), линейное отображение полностью определяется своей матрицей (в выбранных базисах). Известные нам операции над линейными отображениями (сложение, умножение на скаляр, композиция) при этом превращаются в известные нам операции над матрицами (сложение, умножение на скаляр, произведение). Ниже мы введем понятие координат вектора, и тогда рассуждения с абстрактными векторными пространствами и линейными отображениями можно будет сводить к конкретным матричным вычислениям. Иными словами, матрицы полезны, когда вам нужно <<засучить рукава>> и вычислить что-нибудь конкретное. В то же время, всегда нужно помнить, что для перехода к матрицам нужно зафиксировать базисы в рассматриваемых пространствах, что может привести к утрате симметрии и некоторой неуклюжести. Пусть $T,S\colon V\to W$~--- линейные отображения, и в пространствах $V,W$ выбраны базисы, как в определении~\ref{dfn:matrix-of-linear-map}. Покажем, что матрица суммы $T+S$ этих отображений является суммой матрицы отображения $T$ и матрицы отображения $S$. Иными словами, $[T+S]_{\mc B,\mc B'} = [T]_{\mc B,\mc B'} + [S]_{\mc B,\mc B'}$. Пусть $[T]_{\mc B,\mc B'} = (a_{ij})$, $[S]_{\mc B,\mc B'} = (b_{ij})$. По определению это означает, что $T(v_j) = \sum_{i=1}^m w_ia_{ij}$, $S(v_j) = \sum_{i=1}^m w_ib_{ij}$. Но тогда $(T+S)(v_j) = T(v_j) + S(v_j) = \sum_{i=1}^m w_i(a_{ij}+b_{ij})$. Значит, в разложении вектора $(T+S)(v_j)$ по базису $\mc B'$ коэффициент при $w_i$ равен $a_{ij}+b_{ij}$. Это означает, что в матрице $[T+S]_{\mc B,\mc B'}$ в позиции $(i,j)$ стоит $a_{ij} + b_{ij}$. Но это и есть определение суммы матриц $[T]_{\mc B,\mc B'}$ и $[S]_{\mc B,\mc B'}$. Совершенно аналогичное рассуждение показывает, что $[Ta]_{\mc B,\mc B'} = [T]_{\mc B,\mc B'}\cdot a$ для любого скаляра $a\in k$. Доказанные факты можно сформулировать следующим образом. \begin{theorem}\label{thm:taking-matrix-is-linear} Пусть $V,W$~--- конечномерные векторные пространства над полем $k$, и $\mc B,\mc B'$~--- базисы в $V,W$ соответственно. Обозначим $n=\dim(V)$, $m=\dim(W)$. Отображение $\ph\colon \Hom(V,W) \to M(m,n,k)$, сопоставляющее линейному отображению $T\in\Hom(V,W)$ его матрицу $[T]_{\mc B,\mc B'}$ в базисах $\mc B,\mc B'$, является линейным. \end{theorem} \begin{proof} Для проверки линейности $\ph$ по определению нужно показать, что $[T+S]_{\mc B,\mc B'} = [T]_{\mc B,\mc B'} + [S]_{\mc B,\mc B'}$ и $[Ta]_{\mc B,\mc B'} = [T]_{\mc B,\mc B'}a$ для всех $T,S\in\Hom(V,W)$, $a\in k$, что и было доказано выше. \end{proof} Гораздо интереснее посмотреть, что происходит при композиции линейных отображений. \begin{theorem}\label{thm:composition-is-multiplication} Пусть $U,V,W$~--- три векторных пространства с базисами $\mc B = (u_1,\dots,u_l)$, $\mc B' = (v_1,\dots,v_m)$, $\mc B'' = (w_1,\dots,w_n)$, соответственно, и пусть $S\colon U\to V$, $T\colon V\to W$~--- линейные отображения. Тогда $[T\circ S]_{\mc B,\mc B''} = [T]_{\mc B',\mc B''}\cdot [S]_{\mc B,\mc B'}$. \end{theorem} Читатель может проверить, что написанное выражение имеет смысл: в правой части стоят матрицы таких размеров, что их можно перемножить, и в результате получается матрица того же размера, что и в левой части. Доказательство этого факта нужно воспринимать как (слегка запоздалое) объяснение определения умножения матриц. В самом деле, единственная причина, по которой умножение матриц выглядит так, как оно выглядит~--- это взаимно однозначное соответствие между матрицами и линейными отображениями, которое превращает композицию линейных отображений в умножение матриц. Каждый, кто задумается, что происходит при композиции линейных отображений (подстановке одних линейных выражений в другие), неизбежно обязан открыть умножение матриц. Итак, пусть $[T]_{\mc B',\mc B''} = (a_{ij}) \in M(n,m,k)$, $[S]_{\mc B,\mc B'} = (b_{ij}) \in M(m,l,k)$. Как найти матрицу отображения $T\circ S$? По определению мы должны разложить каждый вектор вида $(T\circ S)(u_k)$ по базису $w_1,\dots,w_n$. Заметим, что $(T\circ S)(u_k) = T(S(u_k))$, а $S(u_k)$ мы умеем раскладывать по базису пространства $V$. А именно, $$ S(u_k) = \sum_{j=1}^m v_jb_{jk}. $$ Получаем, что \begin{align*} (T\circ S)(u_k) &= T\left(\sum_{j=1}^m v_jb_{jk}\right)\\ &= \sum_{j=1}^m T(v_j)b_{jk}, \end{align*} где в последнем равенстве мы воспользовались линейностью отображения $T$. Теперь можно подставить в полученное выражение разложение для каждого вектора вида $T(v_j) = \sum_{i=1}^n w_i a_{ij}$. После несложных преобразований сумм получаем \begin{align*} (T\circ S)(u_k) &= \sum_{j=1}^m T(v_j)b_{ji} \\ &= \sum_{j=1}^m \sum_{i=1}^n w_i a_{ij} b_{jk} \\ &= \sum_{i=1}^n w_i\left( \sum_{j=1}^m a_{ij}b_{jk}\right). \end{align*} Коэффициент при $w_i$ в полученном разложении и равен коэффициенту, стоящему в позиции $(i,k)$ матрицы $[T\circ S]_{\mc B,\mc B''}$. Он оказался равен $\sum_{j=1}^m a_{ij}b_{jk}$, и потому матрица $[T\circ S]_{\mc B,\mc B''}$ равна произведению матриц $[T]_{\mc B',\mc B''}\cdot [S]_{\mc B,\mc B'}$. Мы узнали, как понятие матрицы линейного отображение ведет себя при сложении отображений, умножении на скаляры, композиции. Есть еще одна операция над линейными отображениями, самая простая: мы можем в линейное отображение $T\colon V\to W$ подставить вектор из $V$ и получить вектор из $W$. Отображению $T$ мы сопоставили матрицу; сейчас мы сопоставим векторам из $V$ и $W$ некоторые столбцы (матрицы ширину $1$) таким образом, что вычисление результата действия линейного отображения на векторе сведется к умножению матрицы на столбец. А именно, пусть $\mc B = (v_1,\dots,v_n)$~--- базис векторного пространства $V$. Любой вектор $v\in V$ можно разложить по этому базису, то есть, записать его в виде линейной комбинации элементов $\mc B$: $$ v = v_1a_1+\dots+v_na_n,\quad a_i\in k. $$ Запишем полученные скаляры $a_1,\dots,a_n$ в столбец. Полученный элемент пространства $k^n$ называется \dfn{столбцом координат} (или \dfn{координатным столбцом}) \dfn{вектора $v$ в базисе $\mc B$} и обозначается так: $$ [v]_{\mc B} = \begin{pmatrix} a_1 \\ \vdots \\ a_n\end{pmatrix}. $$ Коэффициенты $a_1,\dots,a_n$ называются \dfn{координатами вектора $v$ в базисе $\mc B$}. Обратите внимание на сходство этой записи с обозначением для матрицы линейного оператора в выбранных базисах. Таким образом, как только мы выбрали базис $\mc B$ в пространстве $V$, каждому вектору из $V$ сопоставляется столбец $[v]_{\mc B}\in k^n$. Более того, указанное сопоставление хорошо согласовано с операциями в пространстве $V$: если сложить два вектора, то соответствующие им координатные столбцы сложатся, а если вектор умножить на скаляр, то его координатный столбец умножится на этот же скаляр. Есть более короткий способ выразить указанные свойства: сопоставление вектору $v\in V$ его координатного столбца {\em линейно}. Сформулируем это в виде теоремы. \begin{theorem}\label{thm:taking-coordinates-is-linear-map} Пусть $V$~--- конечномерное векторное пространство над полем $k$; $\mc B = \{v_1,\dots,v_n\}$~--- его базис. Отображение \begin{align*} V & \to k^n,\\ v & \mapsto [v]_{\mc B} \end{align*} линейно. \end{theorem} \begin{proof} Фактически, нам нужно показать, что если $v,v'\in V$, $a\in k$, то $[v+v']_{\mc B} = [v]_{\mc B} + [v']_{\mc B}$ и $[va]_{\mc B} = [v]_{\mc B} \cdot a$. Пусть $$ [v]_{\mc B} = \begin{pmatrix}a_1\\\vdots\\a_n\end{pmatrix}, \quad [v']_{\mc B} = \begin{pmatrix}b_1\\\vdots\\b_n\end{pmatrix}. $$ По определению это означает, что \begin{align*} v &= v_1a_1 + \dots + v_na_n,\\ v' &= v_1b_1 + \dots + v_nb_n. \end{align*} Сложим эти два равенства: $$ v+v' = v_1(a_1+b_1) + \dots + v_m(a_n+b_n). $$ Но тогда $$ [v+v']_{\mc B} = \begin{pmatrix} a_1+b_1 \\ \vdots \\ a_n + b_n \end{pmatrix} = \begin{pmatrix}a_1\\\vdots\\a_n\end{pmatrix} + \begin{pmatrix}b_1\\\vdots\\b_n\end{pmatrix} = [v]_{\mc B} + [v']_{\mc B}, $$ что и требовалось. Доказательство для умножения на скаляр совершенно аналогично и оставляется читателю в качестве упражнения. \end{proof} Теперь мы готовы сделать последний шаг в установлении соответствия между действиями с векторными пространствами с одной стороны, и вычислениями с матрицами с другой стороны. \begin{theorem}\label{thm:matrix-multiplied-by-vector} Пусть $T\colon V\to W$~--- линейное отображение между конечномерными пространствами $V$ и $W$, и пусть $\mc B = (v_1,\dots,v_n)$~--- базис $V$, а $\mc B' = (w_1,\dots,v_m)$~--- базис $W$. Тогда $$ [Tv]_{\mc B'} = [T]_{\mc B,\mc B'}\cdot [v]_{\mc B} $$ для любого вектора $v\in V$. \end{theorem} \begin{proof} Пусть $v = v_1c_1 + \dots + v_nc_n$, то есть, $$ [v]_{\mc B} = \begin{pmatrix} c_1 \\ \vdots \\ c_n \end{pmatrix}, $$ и пусть $[T]_{\mc B,\mc B'} = (a_{ij})$~--- матрица отображения $T$. Тогда $$ T(v) = T(\sum_{j=1}^n v_j c_j) = \sum_{j=1}^n T(v_j)c_j = \sum_{j=1}^n \left( \sum_{i=1}^m w_ia_{ij}\right) c_j = \sum_{i=1}^m w_i \left( \sum_{j=1}^n a_{ij}c_j \right). $$ Значит, $i$-я координата вектора $T(v)$ в базисе $\mc B'$ равна $\sum_{j=1}^n a_{ij}c_j$. Но это и означает, что столбец $[T(v)]_{\mc B'}$ равен произведению матрицы $(a_{ij}) = [T]_{\mc B,\mc B'}$ на столбец $[v]_{\mc B}$. \end{proof} \subsection{Изоморфизм} \begin{definition} Линейное отображение $T\colon V\to W$ называется \dfn{обратимым}, если существует линейное отображение $S\colon W\to V$ такое, что $S\circ T = \id_V$ и $T\circ S = \id_W$. Такое $S$ называется \dfn{обратным} к $T$. \end{definition} \begin{proposition}\label{prop:invertible-linear-iff-iso} Линейное отображение $T\colon V\to W$ обратимо тогда и только тогда, когда оно биективно. \end{proposition} \begin{proof} Если $T$ обратимо, то обратное к нему является обратным отображением в теоретико-множественном смысле (определение~\ref{dfn:inverse-map}), и потому биективно по теореме~\ref{thm:sur-inj-reformulations}. Если же отображение $T$ биективно, то (снова по теореме~\ref{thm:sur-inj-reformulations}) существует отображение множеств $S\colon W\to V$ такое, что $S\circ T = \id_V$ и $T\circ S = \id_W$. Можно и явно построить это $S$: для каждого $w\in W$ заметим, что (по определению биективности) существует единственное $v\in V$ такое, что $T(v) = w$; тогда положим $S(w) = v$. Осталось проверить, что это отображение линейно. Действительно, возьмем $w_1,w_2\in W$ и пусть $S(w_1) = v_1$, $S(w_2) = v_2$. Это означает, что $T(v_1)=w_1$, $T(v_2)=w_2$. Но тогда $T(v_1+v_2) = w_1+w_2$, и потому $S(w_1+w_2) = v_1+v_2 = S(w_1)+S(w_2)$. Кроме того, если $w\in W$ и $a\in k$, пусть $S(w) = v$. Это означает, что $T(v) = w$, откуда $T(va) = wa$, и, стало быть, $S(wa) = va = S(w)a$. \end{proof} \begin{definition} Обратимое линейное отображение иногда называется \dfn{изоморфизмом}. Если между пространствами $V$ и $W$ существует изоморфизм $T\colon V\to W$, они называются \dfn{изоморфными}. Обозначение: $V\isom W$. \end{definition} \begin{theorem}\label{thm:isomorphic-iff-equidimensional} Два конечномерных векторных пространства над $k$ изоморфны тогда и только тогда, когда их размерности равны. \end{theorem} \begin{proof} Пусть $V\isom W$, то есть, существует обратимое линейное отображение $T\colon V\to W$. По предложению~\ref{prop:invertible-linear-iff-iso} $T$ биективно. В частности, $T$ инъективно, и потому $\Ker(T)=0$ (теорема~\ref{prop:injective-iff-kernel-trivial}); кроме того, $T$ сюръективно, и потому $\Img(T)=W$. Воспользуемся теоремой о гомоморфизме~\ref{thm:homomorphism-linear}: $$ \dim\Ker(T) + \dim\Img(T) = \dim(V). $$ В нашем случае $\dim\Ker(T)=0$ и $\dim\Img(T)=\dim W$; поэтому $\dim V = \dim W$, что и требовалось. Обратно, пусть $\dim V = \dim W = n$. Выберем базис $v_1,\dots,v_n$ в $V$ и базис $w_1,\dots,w_n$ в $W$. По теореме~\ref{thm:universal-basis-property} для задания линейного отображения $T\colon V\to W$ достаточно задать $T(v_i)$ для всех $i$. Положим $T(v_i)=w_i$ и покажем, что полученное отображение $T$ является изоморфизмом. Для этого (по предложению~\ref{prop:invertible-linear-iff-iso}) достаточно проверить, что оно инъективно и сюръективно. Для инъективности (по предложению~\ref{prop:injective-iff-kernel-trivial}) нужно показать, что $\Ker(T)=0$. Возьмем $v\in\Ker(T)$. Разложим $v$ по базису пространства $V$: $v = v_1a_1 + \dots + v_na_n$. Тогда $0 = T(v) = T(v_1)a_1+\dots+T(v_n)a_n = w_1a_1+\dots+w_na_n$. Но элементы $w_1,\dots,w_n\in W$ образуют базис, и потому линейно независимы. Их линейная комбинация оказалась равна нулю~--- поэтому все ее коэффициенты равны нулю: $a_1=\dots=a_n=0$. Но тогда и $v = 0$. Осталось проверить, что $T$ сюръективно. Но любой вектор $W$ есть линейная комбинация векторов $w_1,\dots,w_n$, поэтому является образом соответствующей линейной комбинации векторов $v_1,\dots,v_n$. \end{proof} \begin{corollary} Любое конечномерное векторное пространство $V$ изоморфно пространству $k^n$, где $n=\dim(V)$. Более того, если $\mc B$~--- некоторый базис пространства $V$, то отображение $\ph\colon v\mapsto [v]_{\mc B}$ устанавливает изоморфизм между $V$ и $k^n$. \end{corollary} \begin{proof} Пусть $\dim(V)=n$; тогда $\dim(k^n)=n=\dim(V)$, и по теореме~\ref{thm:isomorphic-iff-equidimensional} пространства $V$ и $k^n$ изоморфны. Для доказательства второго утверждения обозначим элементы базиса $\mc B$ через $v_1,\dots,v_n$. Мы уже знаем, что отображение $v\mapsto [v]_{\mc B}$ линейно (теорема~\ref{thm:taking-coordinates-is-linear-map}); проверим, что это изоморфизм. Для этого нужно проверить, что его ядро тривиально, а образ совпадает с $k^n$. Возьмем $v\in\Ker(\ph)$; это означает, что столбец координат вектора $v$ нулевой. Но тогда по определению координат $v=v_10+\dots+v_n0 = 0$. Значит, $\Ker(\ph)=0$. Пусть теперь $w\in k^n$~--- некоторый столбец, состоящий из скаляров $a_1,\dots,a_n$. Рассмотрим вектор $v = v_1a_1 + \dots + v_na_n\in V$. Легко видеть, что $[v]_{\mc B} = w$, что доказывает сюръективность отображения $\ph$. \end{proof} Таким образом, любое конечномерное пространство изоморфно пространству столбцов. Подчеркнем, что этот изоморфизм зависит от выбора базиса (в таком случае говорят, что этот изоморфизм {\em не является каноническим}): в разных базисах один и тот же вектор, как правило, имеет разные наборы координат. \begin{theorem}\label{thm:hom-isomorphic-to-m} Пусть $V,W$~--- конечномерные векторные пространства над полем $k$. Пространство $\Hom(V,W)$ линейных отображений из $V$ в $W$ изоморфно векторному пространству $M(m,n,k)$ матриц размера $m\times n$ над $k$, где $m=\dim W$, $n=\dim V$. Более того, если $\mc B,\mc B'$~--- базисы в $V,W$ соответственно, то отображение $\ph\colon T\mapsto [T]_{\mc B,\mc B'}$ устанавливает изоморфизм между $\Hom(V,W)$ и $M(m,n,k)$. \end{theorem} \begin{proof} Мы сразу докажем второе утверждение. Обозначим элементы $\mc B$ через $v_1,\dots,v_n$, а элементы $\mc B'$ через $w_1,\dots,w_m$. По теореме~\ref{thm:taking-matrix-is-linear} отображение $\ph$ линейно. Проверим, что его ядро тривиально, а образ совпадает с $M(m,n,k)$. Пусть $T\in\Ker(\ph)$. Это значит, что у линейного отображения $T$ матрица нулевая. По определению матрицы это значит, что все координаты вектора $T(v_j)$ в базисе $\mc B'$ равны нулю, а потому $T(v_j)=0$ для всех $j$. Но мы знаем одно такое линейное отображение: это $0\in\Hom(V,W)$. По единственности в универсальном свойстве базиса (теорема~\ref{thm:universal-basis-property}) $T=0$. Наконец, пусть $A=(a_{ij})\in M(m,n,k)$~--- некоторая матрица. Мы утверждаем, что существует линейное отображение $T\colon U\to V$, матрица которого в базисах $\mc B,\mc B'$ совпадает с $A$. Действительно, положим $T(v_j) = w_1a_1+\dots+w_ma_m$. По теореме~\ref{thm:universal-basis-property} это однозначно определяет линейное отображение $T$, и очевидно, что $[T]_{\mc B,\mc B'} = A$. \end{proof} \begin{corollary} Если пространства $V,W$ конечномерны, то $\dim\Hom(V,W) = \dim V\cdot\dim W$. \end{corollary} \begin{proof} Очевидно, что размерность пространства матриц $M(m,n,k)$ равна $mn$; осталось применить теорему~\ref{thm:hom-isomorphic-to-m} и теорему~\ref{thm:isomorphic-iff-equidimensional}. \end{proof} Важный частный случай понятия линейного отображения~--- {\em линейный оператор}. \begin{definition} Линейное отображение $T\colon V\to V$ называется \dfn{линейным оператором} на пространстве $V$, или \dfn{эндоморфизмом} пространства $V$. \end{definition} \begin{proposition}\label{prop:operators-bij-inj-surj} Пусть $T\colon V\to V$~--- линейный оператор на конечномерном пространстве $V$. Следующие утверждения равносильны. \begin{enumerate} \item Отображение $T$ биективно. \item Отображение $T$ инъективно. \item Отображение $T$ сюръективно. \end{enumerate} \end{proposition} \begin{proof} Очевидно, что из (1) следуют (2) и (3). Покажем, что из (2) следует (1). Если $T$ инъективно, то $\Ker T=0$ (предложение~\ref{prop:injective-iff-kernel-trivial}). По теореме о гомоморфизме (теорема~\ref{thm:homomorphism-linear}) $\dim\Ker T + \dim\Img T = \dim V$. Первое слагаемое равно нулю, поэтому $\dim\Img T = \dim V$. В то же время, $\Img T$~--- подпространство в $V$, и по предложению~\ref{prop:dimension_is_monotonic} из совпадения размерностей следует, что $\Img T = V$, что означает сюръективность, а потому и биективность отображения $T$. Осталось показать, что из (3) следует (1). Снова воспользуемся теоремой о гомоморфизме: $\dim\Ker T + \dim\Img T = \dim V$. Теперь по предположению $\Img T = \dim V$, и, стало быть, $\dim\Ker T=0$. Значит, подпространство $\Ker T$ тривиально, и потому $T$ инъективно и, следовательно, биективно. \end{proof} \begin{theorem} Пусть $V$~--- векторное пространство. Множество $\Hom(V,V)$ всех линейных операторов на $V$ образует ассоциативное кольцо с единицей относительно сложения и композиции. \end{theorem} \begin{proof} Мы уже знаем, что сложение линейных отображений ассоциативно, коммутативно, обладает нейтральным элементом $0$ и обратными элементами. Кроме того, композиция (которая играет роль умножения) ассоциативна и обладает нейтральным элементом $\id_V$. Осталось проверить левую и правую дистрибутивность. Ограничимся проверкой одной из них. Пусть $S,T,U\in\Hom(V,V)$. Для каждого $v\in V$ выполнено $$ (S\circ (T+U))(v) = S((T+U)(v)) = S(T(v)+U(v)) = S(T(v)) + S(U(v)) = (S\circ T)(v) + (S\circ U)(v) = (S\circ T + S\circ U)(v), $$ а потому отображения $S\circ (T+U)$ и $S\circ T + S\circ U$ совпадают. \end{proof} Отметим, что в конечномерном случае кольцо операторов на $V$ {\em изоморфно} кольцу квадратных матриц порядка $n = \dim V$ (см. замечание~\ref{rem:matrix_multiplication_properties}). Поясним, что означает слово <<изоморфизм>> в этом контексте (пока мы обсуждали только изоморфизм векторных пространств, но не колец). Пусть $\mc B$~--- базис пространства $V$, и $\dim V = n$. Из теоремы~\ref{thm:hom-isomorphic-to-m} следует, что отображение $T\mapsto [T]_{\mc B}$ является биекцией между $\Hom(V,V)$ и $M(n,n,k)$, переводящей сложение в сложение. Кроме того, по теореме~\ref{thm:composition-is-multiplication} она переводит композицию операторов в умножение. Наконец, тождественный оператор переходит при этом отображении в единичную матрицу. Мы получили биекцию между кольцами, которая сохраняет все операции (включая <<взятие единичного элемента>>). Такая биекция и называется <<изоморфизмом колец>>; ее существование означает, что указанные кольца <<ведут себя одинаково>>. \subsection{Ранг матрицы} \literature{[F], гл. IV, \S~3, пп. 4--6; [K1], гл. 2, \S~2, п. 1--2; [vdW], гл. IV, \S\S~22, 23.} Первым приложением теории векторных пространств для нас станет определение ранга матрицы, которые мы неформально обсуждали после доказательства теоремы~\ref{thm_pdq}. Напомним, что любую матрицу $A\in M(m,n,k)$ можно представить в виде $A=P\left(\begin{matrix} E_r & 0\\ 0 & 0\end{matrix}\right)Q$, где $P,Q$~--- некоторые обратимые матрицы. Мы покажем, что на самом деле натуральное число $r$ не зависит от выбора такого представления, и поэтому имеет право называться {\it рангом} матрицы $A$. Для этого мы введем еще несколько понятий ранга, и покажем, что все они совпадают друг с другом. \begin{definition} Пусть $A=(a_{ij})\in M(m,n,k)$. Линейная оболочка столбцов матрицы $A$ называется \dfn{пространством столбцов матрицы $A$}\index{векторное пространство!столбцов матрицы}; по определению оно является подпространством в $k^m$. Иными словами, это пространство $$\la\begin{pmatrix}a_{11}\\a_{21}\\\vdots\\a_{m1}\end{pmatrix}, \dots, \begin{pmatrix}a_{1n}\\a_{2n}\\\vdots\\a_{mn}\end{pmatrix}\ra\leq k^m.$$ Линейная оболочка строк матрицы $A$ называется \dfn{пространством строк матрицы $A$}\index{векторное пространство!строк матрицы}; по определению оно является подпространством в ${}^nk$. Иными словами, это пространство $$\la\begin{pmatrix}a_{11}&a_{12}&\dots&a_{1n}\end{pmatrix},\dots, \begin{pmatrix}a_{m1}&a_{m2}&\dots&a_{mn}\end{pmatrix}\ra\leq {}^nk.$$ \end{definition} Таким образом, пространство столбцов состоит из всевозможных линейных комбинаций столбцов матрицы $A$; аналогично и со строками. \begin{definition} \dfn{Столбцовым рангом}\index{ранг матрицы!столбцовый} матрицы $A$ называется размерность ее пространства столбцов; \dfn{строчным рангом}\index{ранг матрицы!строчный} $A$ называется размерность ее пространства строк. \end{definition} Очевидно, что столбцовый ранг матрицы $A\in M(m,n,k)$ не превосходит $n$, а ее строчный ранг не превосходит $m$. Для определения следующего понятия~--- {\em тензорного ранга}~--- необходимо сначала определить матрицы ранга $1$. \begin{definition} Матрица $A\in M(m,n,k)$ называется \dfn{матрицей ранга $1$}\index{матрица!ранга $1$}, если $A\neq 0$ и $A$ можно представить в виде $A=uv$, где $u\in k^m$, $v\in {}^nk$. \dfn{Тензорным рангом}\index{ранг матрицы!тензорный} матрицы $A$ называется наименьшее натуральное число $r$ такое, что $A$ можно представить в виде суммы $r$ матриц ранга $1$. Иными словами, тензорный ранг $A$~--- это наименьшее $r$, при котором существуют столбцы $u_1,\dots,u_r\in k^m$ и строки $v_1,\dots v_r\in {}^nk$ такие, что $A=u_1v_1+\dots+u_rv_r$. \end{definition} Заметим, что тензорный ранг матрицы $A\in M(m,n,k)$ определен: он не превосходит $mn$. Действительно, несложно представить матрицу $A=(a_{ij})$ в виде суммы $mn$ матриц ранга $1$: мы видели, что $A=\sum_{i,j}a_{ij}e_{ij}$, а матрица $a_{ij}e_{ij}$ имеет ранг $1$: $$ a_{ij}e_{ij} = \begin{pmatrix}0 \\ \vdots \\ 0 \\ a_{ij} \\ 0 \\ \vdots \\ 0\end{pmatrix}\cdot\begin{pmatrix}0 & \dots & 0 & 1 & 0 & \dots & 0\end{pmatrix}. $$ Здесь в столбце высоты $m$ элемент $a_{ij}$ стоит в позиции $i$, и в строке длины $n$ элемент $1$ стоит в позиции $j$. \begin{theorem} Тензорный ранг матрицы не изменяется при домножении ее слева или справа на обратимую матрицу. В частности, тензорный ранг матрицы сохраняется при элементарных преобразованиях ее строк и столбцов. \end{theorem} \begin{proof} Пусть $A\in M(m,n,k)$~--- матрица тензорного ранга $r$. Тогда мы можем записать $A=u_1v_1+\dots+u_rv_r$ для некоторых столбцов $u_1,\dots,u_r\in k^m$ и строк $v_1,\dots,v_r\in {}^nk$. Если матрица $B\in M(m,k)$ обратима, то $BA=B(u_1v_1+\dots+u_rv_r)=(Bu_1)v_1+\dots+(Bu_r)v_r$~--- сумма $r$ матриц ранга $1$, поэтому тензорный ранг $BA$ не превосходит $r$. С другой стороны, если тензорный ранг $BA$ меньше $r$, то можно записать $BA=u'_1v'_1+\dots+u'_pv'_p$ для $p