Initial commit

This commit is contained in:
Alexander Luzgarev 2016-06-09 22:05:14 +03:00
commit eb3a958324
13 changed files with 15428 additions and 0 deletions

14
.gitignore vendored Normal file
View File

@ -0,0 +1,14 @@
*~
.DS_Store
*.aux
*.fdb_latexmk
*.fls
*.log
*.out
*.pdf
*.synctex.gz
*.toc
*.brf
*.idx
*.ind
*.ilg

161
algebra.tex Normal file
View File

@ -0,0 +1,161 @@
\documentclass[12pt]{article}
\usepackage[T2A]{fontenc}
\usepackage[utf8]{inputenc}
\usepackage[russian]{babel}
%\usepackage{amsfonts}
\usepackage{amssymb}
\usepackage{amsmath}
\usepackage{amsthm}
\usepackage{ccfonts,eulervm,microtype}
\renewcommand{\bfdefault}{sbc}
\usepackage[margin=0.7in,bmargin=1.2in]{geometry}
\usepackage{multicol}
\usepackage{hyperref}
\usepackage{mathabx}
\usepackage{tikz-cd}
\usepackage{tikz}
\usetikzlibrary{arrows.meta,calc}
\pagestyle{plain}
\theoremstyle{plain}
\newtheorem{theorem}{Теорема}[subsection]
\newtheorem{lemma}[theorem]{Лемма}
\newtheorem{proposition}[theorem]{Предложение}
\newtheorem{exercise}[theorem]{Упражнение}
\newtheorem{corollary}[theorem]{Следствие}
\theoremstyle{remark}
\newtheorem{example}[theorem]{Пример}
\newtheorem{examples}[theorem]{Примеры}
\newtheorem{remark}[theorem]{Замечание}
\theoremstyle{definition}
\newtheorem{definition}[theorem]{Определение}
\renewcommand{\emptyset}{\varnothing}
\newcommand\mbZ{\mathbb Z}
\newcommand\ph{\varphi}
\newcommand\trleq{\trianglelefteq}
\newcommand\isom{\cong}
%\def\l{\lambda}
%\def\m{\mu}
\newcommand\la{\langle}
\newcommand\ra{\rangle}
\newcommand\mb{\mathbb}
\newcommand\mc{\mathcal}
\newcommand\divs{\,\lower.4ex\vdots\,}
\newcommand\ol{\overline}
\newcommand\eps{\varepsilon}
\DeclareMathOperator{\ev}{ev}
\DeclareMathOperator{\id}{id}
\DeclareMathOperator{\Ker}{Ker}
\DeclareMathOperator{\Ree}{Re}
\DeclareMathOperator{\Img}{Im}
\DeclareMathOperator{\Arg}{Arg}
\DeclareMathOperator{\End}{End}
\DeclareMathOperator{\Aut}{Aut}
\DeclareMathOperator{\GL}{GL}
\DeclareMathOperator{\SL}{SL}
\DeclareMathOperator{\Hom}{Hom}
\DeclareMathOperator{\sgn}{sgn}
\DeclareMathOperator{\ord}{ord}
\DeclareMathOperator{\mmod}{mod}
\DeclareMathOperator{\cchar}{char}
\DeclareMathOperator{\logn}{ln}
\DeclareMathOperator{\Logn}{Ln}
\DeclareMathOperator{\Frac}{Frac}
\DeclareMathOperator{\inv}{inv}
\DeclareMathOperator{\adj}{adj}
\DeclareMathOperator{\rk}{rk}
\DeclareMathOperator{\pr}{pr}
\DeclareMathOperator{\pow}{pow}
%\DeclareMathOperator{\deg}{deg}
\DeclareMathOperator{\Fix}{Fix}
\DeclareMathOperator{\Map}{Map}
\DeclareMathOperator{\const}{const}
\newcommand\tld{\widetilde}
\newcommand\rsa{\rightsquigarrow}
\newcommand\mbC{\mathbb C}
\newcommand\mbR{\mathbb R}
\newcommand\literature[1]{{\small{\sc Литература}: #1}}
\newcommand\dfn[1]{{\bf #1}}
\makeindex
%\includeonly{multilinear}
\begin{document}
\title{Алгебра и теория чисел\footnote{Конспект
лекций для механиков, 2014--2015 учебный год; предварительная
версия}}
\author{Александр Лузгарев}
\date{}
\maketitle
\tableofcontents
\vfill
В начале каждого подраздела указана вспомогательная
литература. Обозначения:
\begin{itemize}
\item {}[F] Д. К. Фаддеев, {\it Лекции по алгебре}, М.: Наука, 1984.
\item {}[K1] А. И. Кострикин, {\it Введение в алгебру. Часть I. Основы
алгебры}, 3-е изд. --- М.: ФИЗМАТЛИТ, 2004.
\item {}[K2] А. И. Кострикин, {\it Введение в алгебру. Часть II. Линейная
алгебра}, М.: ФИЗМАТЛИТ, 2000.
\item {}[K3] А. И. Кострикин, {\it Введение в алгебру. Часть
III. Основные структуры}, М.: ФИЗ\-МАТЛИТ, 2004.
\item {}[vdW] Б. Л. ван дер Варден, {\it Алгебра}, М.: Мир, 1976.
\item {}[Bog] О. В. Богопольский, {\it Введение в теорию групп},
Москва--Ижевск: Институт компьютерных исследований, 2002.
\item {}[KM] А. И. Кострикин, Ю. И. Манин, {\it Линейная алгебра и
геометрия}, М.: Наука, 1986.
\item {}[V] И. М. Виноградов, {\it Основы теории чисел}, М., 1952.
\item {}[B] А. А. Бухштаб, {\it Теория чисел}, М.: Просвещение, 1966.
\end{itemize}
% И. М. Гельфанд, Лекции по линейной алгебре.
% Халмош, Конечномерные векторные пространства.
\vfill\eject
\include{set-theory}
\include{number-theory}
\include{complex-numbers}
\include{polynomials}
\include{linear-algebra}
\include{vector-spaces}
\include{linear-maps}
\include{jordan-form}
\include{euclidean-spaces}
\include{group-theory}
\include{multilinear}
\clearpage
\addcontentsline{toc}{section}{\indexname}
\input{algebra.ind}
\end{document}
% группа углов как пример фактор-группы

571
complex-numbers.tex Normal file
View File

@ -0,0 +1,571 @@
\section{Комплексные числа}
\subsection{Определение комплексных чисел}
\literature{[F], гл. II, \S~1, пп. 1--5; [K1], гл. 5, \S~1, пп. 1--2.}
Комплексные числа представляют собой расширение поля вещественных
чисел, обладающее гораздо более приятными алгебраическими
свойствами. Наш подход к определению комплексных чисел
аксиоматический~--- мы сначала описываем некоторое множество с
операциями, которое оказывается полем, а потом показываем, что оно
содержит вещественные числа и задумываемся о мотивации.
\begin{definition}\label{def_complex}
Рассмотрим множество $\mb R\times\mb R$ пар вещественных чисел.
Введем на нем операции сложения и умножения:
\begin{align*}
&(a,b)+(c,d)=(a+c,b+d),\\
&(a,b)\cdot (c,d)=(ac-bd,ad+bc).
\end{align*}
\end{definition}
\begin{theorem}\label{complex_ring}
Множество с операциями, определенное в~\ref{def_complex}, является
ассоциативным коммутативным кольцом с единицей.
\end{theorem}
\begin{proof}
Необходимо проверить восемь аксиом из определения~\ref{def:ring}.
\begin{enumerate}
\item $((a,b)+(c,d))+(e,f)=(a+c,b+d)+(e,f)=((a+c)+e,(b+d)+f)$,
$(a,b)+((c,d)+(e,f))=(a,b)+(c+e,d+f)=(a+(b+c),d+(e+f))$. Полученные
выражения равны, поскольку сложение вещественных чисел ассоциативно.
\item Нейтральным элементом по сложению является пара
$(0,0)$. Действительно, $(a,b)+(0,0)=(a+0,b+0)=(a,b)$, и по
коммутативности сложения (аксиома 4) то же верно, если складывать в
другом порядке.
\item Противоположным элементом к паре $(a,b)$ является пара
$(-a,-b)$. Действительно, $(a,b)+(-a,-b)=(a+(-a),b+(-b))=(0,0)$.
\item $(a,b)+(c,d)=(a+c,b+d)=(c+a,d+b)=(c,a)+(d,b)$.
\item $((a,b)\cdot(c,d))\cdot(e,f)=(ac-bd,ad+bc)\cdot(e,f)
=((ac-bd)e-(ad+bc)f,(ac-bd)f+(ad+bc)e)$. С другой стороны,
$(a,b)\cdot((c,d)\cdot(e,f))=(a,b)\cdot(ce-df,cf+de)
=(a(ce-df)-b(cf+de),a(cf+de)+b(ce-df))$. Раскрытие скобок
показывает, что полученные выражения равны.
\item Нейтральным элементом по умножению является пара
$(1,0)$. Действительно, $(a,b)\cdot(1,0)=(a\cdot-b\cdot 0,a\cdot
0+b\cdot 1=(a,b)$, и этого достаточно в силу коммутативности
умножения (аксиома 7).
\item $(a,b)\cdot (c,d)=(ac-bd,ad+bc)$ и $(c,d)\cdot
(a,b)=(ca-db,cb+da)$.
\item $(a,b)\cdot ((c,d)+(e,f))=(a,b)\cdot
(c+e,d+f)=(a(c+e)-b(d+f),a(d+f)-b(c+e))$. С другой стороны,
$(a,b)\cdot (c,d) + (a,b)\cdot (e,f)=(ac-bd,ad+bc)+(ae-bf,af+be)
=(ac-bd+ae-bf,ad+bc+af+be)$. Раскрытие скобок показывает, что
полученные выражения равны; и этого достаточно в силу
коммутативности умножения (аксиома 7).
\end{enumerate}
\end{proof}
\begin{definition}
Множество таких пар вещественных чисел с определенными
в~\ref{def_complex} операциями
обозначается через $\mb C$; его элементы называются \dfn{комплексными
числами}\index{комплексное число}.
\end{definition}
\begin{remark}
Множество вещественных чисел можно считать
подмножеством множества комплексных чисел: число $a\in\mb R$ можно
рассматривать как комплексное число $(a,0)$. При этом введенные нами
операции на парах превращаются в обычные операции над комплексными
числами: действительно, $(a,0)+(b,0)=(a+b,0)$ и $(a,0)\cdot
(b,0)=(ab,0)$; единица $(1,0)$ и нуль $(0,0)$ в множестве комплексных
чисел являются вещественными числами $1$ и $0$. Заметим также, что
$a\cdot (c,d)=(a,0)\cdot (c,d)=(ac,ad)$.
\end{remark}
\begin{definition}
Пусть $z=(a,b)$~--- комплексное число; запишем
$z=(a,b)=(a,0)+(0,b)=a+b\cdot(0,1)$. Комплексное число $(0,1)$
обозначается через $i$ и называется \dfn{мнимой единицей}\index{мнимая
единица}; основанием
этому служит тому, что $i^2=-1$. Запись
$z=a+bi$ называется \dfn{алгебраической формой записи комплексного
числа}\index{комплексное число!алгебраическая форма записи},
вещественные числа $a$ и $b$~--- \dfn{вещественной
частью}\index{вещественная часть} и
\dfn{мнимой частью}\index{мнимая часть} комплексного числа $z$
соответственно. Обозначения: $a=\Ree(z)$, $b=\Img(z)$.
\end{definition}
\begin{remark}
Теперь мы можем забыть про интерпретацию комплексного числа как пары
вещественных чисел и считать, что комплексное число~--- это выражение
вида $a+bi$ с вещественными $a,b$. При этом введенные нами
в~\ref{def_complex} операцию переписываются в алгебраической форме
следующим образом:
\begin{align*}
(a+bi)+(c+di)&=(a+c)+(b+d)i,\\
(a+bi)\cdot (c+di)&=(ac-bd)+(ad+bc)i.
\end{align*}
Иными словами, комплексные числа~--- это выражения вида $a+bi$,
которые складываются и перемножаются согласно обычным правилам
обращения с числами с учетом равенства $i^2=-1$.
\end{remark}
\subsection{Комплексное сопряжение и модуль}
\literature{[F], гл. II, \S~1, пп. 3--5, \S~2, пп. 1--4; [K1], гл. 5, \S~1, п. 3.}
\begin{definition}
Сопоставим комплексному числу $z=a+bi$ комплексное число
$\overline{z}=a-bi$. Полученное отображение $\mb C\to\mb C$ называется
\dfn{сопряжением}\index{сопряжение}, а число $\overline{z}$~--- \dfn{сопряженным} к
числу $z$.
\end{definition}
\begin{proposition}[Свойства сопряжения]
Для любых комплексных чисел $z,w\in\mb C$ выполняются следующие свойства:
\begin{enumerate}
\item $\overline{z+w}=\overline{z}+\overline{w}$;
\item $\overline{z\cdot w}=\overline{z}\cdot\overline{w}$;
\item $\overline{\overline{z}}=z$;
\item $z=\overline{z}$ тогда и только тогда, когда $z\in\mb R$;
\item $\overline{z}\cdot z=z\cdot\overline{z}$~--- неотрицательное
вещественное число; оно равно нулю тогда и только тогда, когда
$z=0$.
\end{enumerate}
\end{proposition}
\begin{proof}
Пусть $z=a+bi$, $w=c+di$.
\begin{enumerate}
\item $\ol{(a+bi)+(c+di)}=\ol{(a+c)+(b+d)i}=(a+c)-(b+d)i$,
$\ol{a+bi}+\ol{c+di}=(a-bi)+(c-di)=(a+c)-(b+d)i$.
\item $\ol{(a+bi)(c+di)}=\ol{(ac-bd)+(ad+bc)i}=(ac-bd)-(ad+bc)i$,
$\ol{a+bi}\cdot\ol{c+di}=(a-bi)(c-di)=(ac-bd)-(ad+bc)i$.
\item $\ol{\ol{z}}=\ol{a-bi}=a+bi$.
\item Если $z\in\mb R$, то $z=a+0i$ и $\ol{z}=a-0i=z$. Обратно, если
$a+bi=a-bi$, то $b=-b$, откуда $b=0$ и $z=a\in\mb R$.
\item $z\cdot\ol{z}=(a+bi)(a-bi)=(a^2+b^2)+(-ab+ba)i=a^2+b^2\geq 0$, и
$a^2+b^2=0$ тогда и только тогда, когда $a=b=0$, то есть, когда $z=0$.
\end{enumerate}
\end{proof}
\begin{definition}\label{dfn:absolute_value_complex}
Поскольку $z\cdot\overline{z}$~--- неотрицательное вещественное число,
из него можно извлечь (также неотрицательный) квадратный корень. Этот
корень называется \dfn{модулем}\index{модуль} комплексного числа $z$ и
обозначается
через $|z|$; таким образом, $z\cdot\overline{z}=|z|^2$. Если
$z=a+bi$~--- алгебраическая форма записи комплексного числа, то
$|z|=\sqrt{a^2+b^2}$.
\end{definition}
\begin{proposition}
Множество $\mb C$ комплексных чисел является полем.
\end{proposition}
\begin{proof}
После доказательства теоремы~\ref{complex_ring} остается проверить
наличие обратного по умножению у каждого ненулевого элемента. Пусть
$z\in\mb C$, $z\neq 0$. Тогда $|z|\neq 0$. Рассмотрим число
$z'=\frac{1}{|z|^2}\overline{z}$; легко видеть, что $z\cdot z'=z'\cdot
z=1$.
\end{proof}
\begin{remark}
Таким образом, в множестве комплексных чисел можно делить на ненулевые
элементы: $z/w=zw^{-1}$. Также определена операция возведения в целую
степень: если $n>0$, то $z^n=\underbrace{z\cdot\dots\cdot z}_{n}$,
если $n<0$$z\neq 0$), то $z^n=\underbrace{z^{-1}\cdot\dots\cdot z^{-1}}_{-n}$,
если же $n=0$, то $z^0=1$. Нетрудно видеть, что эта операция
удовлетворяет обычным свойствам возведения в степень, типа
$z^{m+n}=z^m\cdot z^n$ и $(zw)^n=z^nw^n$.
\end{remark}
\begin{proposition}[Свойства модуля комплексных
чисел]\label{prop_abs_properties}
\hspace{1em}
\begin{enumerate}
\item $|z|\cdot |w|=|z\cdot w|$;
\item если $w\neq 0$, то $|z|/|w|=|z/w|$.
\end{enumerate}
\end{proposition}
\begin{proof}
\begin{enumerate}
\item $|zw|=\sqrt{(zw)(\ol{zw})}
=\sqrt{z\cdot w\cdot\ol{z}\cdot\ol{w}}
=\sqrt{z\ol{z}\cdot w\ol{w}}=\sqrt{z\ol{z}}\sqrt{w\ol{w}}
=|z|\cdot|w|$.
\item Домножая на $|w|$, получаем, что нужно доказать $|z|=|z/w|\cdot
|w|$, что следует из первой части.
\end{enumerate}
\end{proof}
\begin{remark}
Комплексные числа удобно изображать в виде точек плоскости. Рассмотрим
декартову систему координат на плоскости и сопоставим комплексному
числу $a+bi$ вектор с координатами $(a,b)$ (то есть, радиус-вектор
точки $(a,b)$). Сложение векторов (как и комплексных чисел) происходит
покоординатно, поэтому сумма векторов изображает сумму комплексных
чисел. Модуль комплексного числа в силу теоремы Пифагора равен длине
соответствующего вектора.
\end{remark}
\begin{proposition}[Неравенство треугольника]
Для любых комплексных чисел $z_1,z_2,z_3$ выполнено неравенство
$|z_1-z_2|+|z_2-z_3|\geq |z_3-z_1|$.
\end{proposition}
\begin{proof}
Обозначим $z=z_1-z_2$, $w=z_2-z_3$; нужно доказать, что $|z|+|w|\geq
|z+w|$. Заметим, что если $z+w=0$, неравенство очевидно.
Запишем $1=\frac{z}{z+w}+\frac{w}{z+w}$. Согласно правилу сложения
комплексных чисел,
$\Ree{1}=\Ree(\frac{z}{z+w})+\Ree(\frac{w}{z+w})$. Заметим, что
$\Ree(z)\leq |z|$ для любого комплексного числа $z$, поэтому
$\Ree{1}\leq |\frac{z}{z+w}|+|\frac{w}{z+w}|$. Домножая на
знаменатель, получаем необходимое неравенство.
\end{proof}
% 29.10.2014
\subsection{Тригонометрическая форма записи комплексного числа}
\literature{[F], гл. II, \S~2, пп. 1--6; [K1], гл. 5, \S~1, п. 4.}
\begin{definition}\label{dfn:trigonometric_form}
Пусть $z=a+bi\in\mb C$~--- ненулевое комплексное число. Обозначим
через $r=\sqrt{a^2+b^2}$ модуль числа $z$. Вещественные
числа $a/r$ и
$b/r$ таковы, что сумма их квадратов равна $1$. Поэтому
найдется такой угол $\ph$, что $a/r=\cos(\ph)$,
$b/r=\sin(\ph)$. Такой угол $\ph$ называется
\dfn{аргументом}\index{аргумент}
комплексного числа $z$. Заметим, что при этом
$$
z=|z|\cdot z/|z|=|z|(\frac{a}{r}+\frac{b}{r}i)=|z|(\cos(\ph)+i\sin(\ph)).
$$
Выражение $z=r(\cos(\ph)+i\sin(\ph))$ называется
\dfn{тригонометрической формой записи комплексного
числа}\index{комплексное число!тригонометрическая
форма}. Обозначение: $\ph=\arg(z)$. Как обычно,
можно считать, что аргумент (как и любой угол) записывается
вещественным числом с точностью до $2\pi k$, $k\in\mb Z$. Если выбрать
представитель в полуинтервале $[0,2\pi)$, получим то, что называется
\dfn{главным значением аргумента}\index{аргумент!главное значение}, оно обозначается через $\Arg(z)$
Обратно, по
модулю $r$ и аргументу $\ph$ комплексное число $z$ однозначно
восстанавливается: $z=a+bi$, $a=r\cos(\ph)$, $b=r\sin(\ph)$.
\end{definition}
{\small
Обратите внимание на необходимость осторожного обращения с понятием
угол. Аргумент комплексного числа $z$, вообще говоря, является не
вещественным числом, а углом (позднее мы придадим этому точный смысл:
$\arg(z)$~--- элемент {\it группы углов},
см.~пример~\ref{examples:group}(\ref{item:group_of_angles})). Этот угол можно
записать вещественным числом, но не однозначным образом: некоторые
вещественные числа записывают одинаковые углы. Например, числа $0$,
$2\pi$, $-2\pi$, $4\pi$, $-4\pi$,\dots ~--- это разные формы записи
одного и того же угла. При этом два вещественных числа $\alpha$ и
$\beta$ записывают один и тот же угол если и только если они
отличаются на целое кратное $2\pi$: $\alpha-\beta = 2\pi k$ для
некоторого $k\in\mb Z$. Это похоже на делимость целых чисел: $\alpha$
и $\beta$ задают один угол, если их разность <<делится>> на
$2\pi$. Это наводит на мысль, что углы~--- это классы эквивалентности
по описанному отношению <<сравнимости по модулю $2\pi$>>.
}
\begin{proposition}[Единственность тригонометрической формы записи]\label{prop_trig_unique}
Пусть $r,r'$~--- положительные вещественные числа, $\ph,\ph'$~---
углы, $z=r(\cos(\ph)+i\sin(\ph))$, $z'=r'(\cos(\ph')+i\sin(\ph'))$
Равенство комплексных чисел
$z=z'$ выполнено тогда и
только тогда, когда $r=r'$ и $\ph=\ph'$.
\end{proposition}
\begin{proof}
Модуль комплексного числа $z$ равен
\begin{align*}
\sqrt{(r\cos(\ph))^2+(r\sin(\ph))^2}&=\sqrt{(r^2((\cos(\ph))^2+(\sin(\ph))^2))}\\
&=r;
\end{align*}
аналогично, модуль комплексного числа $z'$ равен $r'$. Если $z=z'$, то
$r=r'$, откуда $z/r=z'/r'$. Значит,
$\cos(\ph)+i\sin(\ph)=\cos(\ph')+i\sin(\ph')$, откуда
$\cos(\ph)=\cos(\ph')$ и $\sin(\ph)=\sin(\ph')$. Но если у двух углов
совпадают синусы и совпадают косинусы, то они равны. Поэтому и
$\ph=\ph'$.
Обратно, если $r=r'$ и $\ph=\ph'$, то очевидно, что $z=z'$.
\end{proof}
\begin{remark}
Таким образом, $z$ можно задавать не парой вещественных чисел, а парой
$(|z|,\arg(z))$, состоящей из положительного вещественного числа и
угла. Единственное исключение~--- случай $z=0$: у нуля модуль равен
нулю, а аргумент вообще не определен. Чем полезно такое задание? В
алгебраической форме записи комплексные числа легко складывать:
вещественные части складываются и мнимые части
складываются. Оказывается, в тригонометрической форме записи
комплексные числа легко перемножать.
\end{remark}
\begin{theorem}\label{thm_complex_mult}
При перемножении комплексных чисел их модули перемножаются, а
аргументы складываются. Иными словами, если $z,w\in\mb C^*$, то
$|zw|=|z|\cdot |w|$ и $\arg(zw)=\arg(z)+\arg(w)$.
\end{theorem}
\begin{proof}
Первое утверждение было доказано в
предложении~\ref{prop_abs_properties}. Обозначим $\ph=\arg(z)$,
$\psi=\arg(w)$. Заметим, что
\begin{align*}
zw&=|z|(\cos(\ph)+i\sin(\ph))|w|(\cos(\psi)+i\sin(\psi))\\
&=|z|\cdot |w|(\cos(\ph)\cos(\psi)-\sin(\ph)\sin(\psi)+i(\cos(\ph)\sin(\psi)+\sin(\ph)\cos(\ph)))\\
&=|z|\cdot |w|(\cos(\ph+\psi)+i\sin(\ph+\psi)).
\end{align*}
С другой стороны, $zw=|zw|\cdot (\cos(\arg(zw))+i\sin(\arg(zw)))$.
По предложению~\ref{prop_trig_unique} из этого следует, что
$|zw|=|z|\cdot |w|$ (что мы знали и раньше) и
$\arg(zw)=\ph+\psi=\arg(z)+\arg(w)$, что и требовалось.
\end{proof}
\begin{corollary}\label{cor_complex_inverse}
Для любого ненулевого комплексного числа $z=r(\cos(\ph)+i\sin(\ph))$ имеем
$z^{-1}=r^{-1}(\cos(-\ph)+i\sin(-\ph))$.
\end{corollary}
\begin{corollary}
При делении комплексных чисел их модули делятся, а аргументы вычитаются.
\end{corollary}
\begin{corollary}[Формула де Муавра]\label{thm_de_moivre}
Для любого ненулевого комплексного числа $z=r(\cos(\ph)+i\sin(\ph))$
и любого целого $n$ имеет место равенство $z^n=r^n(\cos(n\ph)+i\sin(n\ph))$.
\end{corollary}
\begin{proof}
Для $n=0$ равенство очевидно; для $n>0$ следует из
теоремы~\ref{thm_complex_mult} по индукции, а случай отрицательного
$n$ сводится к случаю положительного при помощи равенства
$z^n=(z^{-1})^{-n}$ и следствия~\ref{cor_complex_inverse}.
\end{proof}
\subsection{Корни из комплексных чисел}
\literature{[F], гл. II, \S~3, пп. 1--2; [K1], гл. 5, \S~1, п. 4.}
Пусть $n$~--- положительное натуральное число, $w\in\mb C$. Посмотрим
на решения уравнения $z^n=w$. Во-первых, заметим, что если $w=0$, то
и $z=0$ (иначе из равенства $z^n=0$ делением на $z^n$ получаем
$1=0$). Пусть теперь $w\neq 0$. Запишем $w$ и $z$ в тригонометрической
форме: $w=r(\cos(\ph)+i\sin(\ph))$,
$z=|z|\cdot(\cos(\arg(z))+i\sin(\arg(z)))$.
По формуле де Муавра (\ref{thm_de_moivre})
$z^n=|z|^n\cdot(\cos(n\arg(z))+i\sin(n\arg(z)))$. Приравнивая $z^n$ к
$w$ и пользуясь единственностью тригонометрической записи
(\ref{prop_trig_unique}), получаем, что $|z|^n=r$ и
$n\arg(z)=\ph$. Отсюда следует, что $|z|=r^{1/n}$. Кроме того,
равенство углов $n\arg(z)=\ph$ означает равенство $n\psi=\ph+2\pi k$,
где $\psi$~--- некоторый числовой представитель угла $\arg(z)$, а
$k$~--- целое число.
Значит, $\psi=(\ph+2\pi k)/n$.
\begin{theorem}\label{thm_roots_of_complex_number}
Пусть $w=r(\cos(\ph)+i\sin(\ph))\in\mb C^*$, $n$~--- положительное натуральное
число. Существует ровно $n$ комплексных чисел $z$ таких, что $z^n=w$;
можно записать их так:
$$
z=r^{1/n}\left(\cos\left(\frac{\ph+2\pi k}{n}\right) +
i\sin\left(\frac{\ph+2\pi k}{n}\right)\right),
$$
где $k=0,1,\dots,n-1$.
\end{theorem}
\begin{proof}
Выше мы проверили, что решения уравнения $z^n=w$ имеют вид
$$
z_k=r^{1/n}\left(\cos\left(\frac{\ph+2\pi k}{n}\right) +
i\sin\left(\frac{\ph+2\pi k}{n}\right)\right).
$$
Осталось разобраться с их количеством и устранить неоднозначность:
дело в том, что при различных целых $k$ эта формула часто дает
одинаковые значения $z$. А именно, $z_k=z_l$ тогда и только тогда,
когда углы $(\ph+2\pi k)/n$ и $(\ph+2\pi l)/n$ совпадают. А это
происходит тогда, когда их числовые значения отличаются на целое
кратное $2\pi$: $(\ph+2\pi k)/n=(\ph+2\pi l)/n+2\pi t$, откуда
$\ph+2\pi k=\ph+2\pi l+2\pi tn$ и $k-l=tn$, то есть, $k\equiv
l\pmod{n}$. Значит различных значений $z$ столько же, сколько классов
вычетов по модулю $n$, и можно выбрать $z_k$, соответствующие
различным представителям $k$ этих классов вычетов
(см.~\ref{rem_cong_representatives}), например, $k=0,1,\dots,n-1$.
\end{proof}
\subsection{Корни из единицы}
\literature{[F], гл. II, \S~4, пп. 1--4.}
Пусть $n$~--- положительное натуральное число. Посмотрим на решения
уравнения $z^n=1$ в комплексных числах.
\begin{definition}
Пусть $n\in\mb N$, $n\geq 1$. Комплексное число $z\in\mb C$ называется
\dfn{корнем $n$-ой степени из $1$}\index{корень!степени $n$}, если $z^n=1$. Множество всех корней
степени $n$ из $1$ обозначается через $\mu_n$.
\end{definition}
\begin{proposition}[Свойства корней $n$-ой степени из 1]
Для каждого натурального $n\geq 1$ существуют ровно $n$ корней степени $n$
из $1$; это числа
$\eps_0^{(n)},\eps_1^{(n)},\dots,\eps_{n-1}^{(n)}$, где
$$
\eps_k^{(n)}=\cos(\frac{2\pi k}{n})+i\sin(\frac{2\pi k}{n}).
$$
При этом произведение двух корней степени $n$ из $1$ является корнем
степени $n$ из $1$; обратный к корню степени $n$ из $1$ является
корнем степени $n$ из $1$.
\end{proposition}
\begin{proof}
Формула для $\eps_k^{(n)}$ немедленно следует из
теоремы~\ref{thm_roots_of_complex_number} (с учетом того, что $|1|=1$
и $\arg(1)=0$.
Если $z,w\in\mu_n$, то $z^n=1$,
$w^n=1$, откуда $(zw)^n=z^n\cdot w^n=1$, поэтому и $zw\in\mu_n$. Кроме
того, $(z^{-1})^n=(z^n)^{-1}=1$, поэтому и $z^{-1}\in\mu_n$.
\end{proof}
\begin{remark}[Геометрическая интерпретация корней из единицы]\label{rem:roots_of_unity_geometry}
Из формулы для $\eps_k^{(n)}$ видно, что модули всех корней степени
$n$ из $1$ равны единице, а аргументы равны
$0,2\pi/n,4\pi/n,\dots,2(n-1)\pi/n$, то есть, образуют арифметическую
прогрессию с разностью $2\pi/n$. Значит, на комплексной плоскости
точки $\eps_k^{(n)}$ лежат на окружности с центром в $0$ и радиусом 1,
и углы $\angle AOB$ для двух соседних точек $A$, $B$, равны
$2\pi/n$. Из этого следует, что точки $\eps_k^{(n)}$ лежат в вершинах
правильного $n$-угольника с центром в $0$. Кроме того, так как
$\eps_0^{(n)}=1$, число $1$ является одной из вершин этого $n$-угольника.
\end{remark}
\begin{remark}
Вернемся к уравнению $z^n=w$ для комплексного числа $w\neq 0$. Пусть
$z_0$~--- некоторое решение этого уравнения; тогда $z_0^n=w$ и,
разделив первоначальное уравнение на это равенство, получаем
$z^n/z_0^n=w/w=1$, откуда $(z/z_0)^n=1$, то есть, $z/z_0$ является
корнем степени $n$ из $1$. Поэтому $z/z_0=\eps_k^{(n)}$ для некоторого
$k$, и $z=z_0\eps_k^{(n)}$. Таким образом, любое решение уравнения
$z^n=w$ отличается от некоторого фиксированного решения $z_0$
домножением на корень степени $n$ из $1$.
\end{remark}
\begin{definition}
Корень $n$-ой степени из $1$ называется
\dfn{первообразным}\index{корень!первообразный}, если он
не является корнем из $1$ никакой меньшей, чем $n$, степени. Иными
словами, $z$ называется первообразным корнем степени $n$ из $1$, если
$z^n=1$ и $z^m\neq 1$ при $0<m<n$.
\end{definition}
\begin{remark}
Заметим, что $\eps_1^{(n)}=\cos(2\pi/n)+i\sin(2\pi/n)$ является
первообразным корнем степени $n$ из $1$. Действительно, если
$(\cos(2\pi/n)+i\sin(2\pi/n))^m=1$ для некоторого $0<m<n$, то
по формуле Муавра $\cos(2\pi m/n)+i\sin(2\pi m/n)=1$, откуда $2\pi
m/n=2\pi k$ для некоторого целого $k$. Получаем $m=kn$, то есть, $m$
делится на $n$, что невозможно.
\end{remark}
\begin{proposition}
Пусть $\eps$~--- корень степени $n$ из $1$. Равносильны:
\begin{enumerate}
\item $\eps$~--- первообразный корень;
\item все числа $1=\eps^0, \eps^1, \eps^2,\dots,\eps^{n-1}$ различны.
\end{enumerate}
\end{proposition}
\begin{proof}
$(2)\Leftrightarrow (1)$: если $\eps^m=1$ для некоторого $0<m<n$, то
среди указанных чисел есть совпадающие.
$(1)\Leftrightarrow (2)$: если $\eps^k=\eps^m$ для некоторых $k,m$, то
можно считать, что $k>m$; тогда $\eps^k/\eps^m=\eps^{k-m}=1$. Из
определения первообразного корня следует, что $k=m$.
\end{proof}
% 05.11.2014
\begin{proposition}\label{prop_primitive_root_criteria}
Пусть $n\geq 1$~--- натуральное число, $0\geq k\geq n-1$.
Корень $\eps_k^{(n)}$ степени $n$ из $1$ является первообразным тогда
и только тогда, когда $\gcd(k,n)=1$.
\end{proposition}
\begin{proof}
Обозначим $\eps=\eps_1^{(n)}$. Нетрудно видеть, что $\eps_k^{(n)}=\eps^k$.
Если $\gcd(k,n)=d>1$, то
$(\eps_k^{(n)})^{n/d}=(\eps^k)^{n/d}=\eps^{kn/d}=(\eps^n)^{k/d}=1^{k/d}=1$
(здесь важно, что $k/d$~--- целое число). Это значит, что
$\eps_k^{(n)}$ является корнем степени $n/d$ из $1$, и, поскольку $n/d<n$, не
является первообразным корнем степени $n$ из $1$.
Обратно, если $\gcd(k,n)=1$, покажем, что $\eps_k^{(n)}=\eps^k$~---
первообразный корень степени $n$ из $1$.
Действительно, предположим,
что $(\eps^k)^m=\eps^{km}=1$, где $0<m<n$. Но
$\eps^{km}=(\cos(2\pi/n)+i\sin(2\pi/n))^{km}= (\cos(2\pi
km/n)+i\sin(2\pi km/n))=1$, откуда $2\pi km/n=2\pi t$ для некоторого
целого $t$. Это означает, что $km=nt$, то есть, $n\divides km$. Но
$k$ и $n$ взаимно просты; по свойству~\ref{coprime_prop3} взаимной
простоты (\ref{prop_properties_of_coprime}) теперь
$n\divides m$~--- противоречие с предположением $0<m<n$.
\end{proof}
\begin{corollary}
Количество первообразных корней степени $n$ из $1$ равно $\ph(n)$.
\end{corollary}
\begin{proof}
Следует из предложения~\ref{prop_primitive_root_criteria} и
определения функции Эйлера (\ref{def_euler_function}).
\end{proof}
\subsection{Экспоненциальная форма записи комплексного числа}
\literature{[F], гл. II, \S~5, пп. 1--3.}
Мы видели, что аргумент комплексного числа ведет себя подобно
логарифму: аргумент произведения равен сумме аргументов. Это
оправдывает следующее определение.
\begin{definition}
Пусть $z=a+bi$~--- комплексное число. Положим
$e^z=e^a(\cos(b)+i\sin(b))$.
\end{definition}
Заметим, что основное свойство экспоненты выполняется при таком
определении.
\begin{proposition}
$e^{z_1+z_2}=e^{z_1}\cdot e^{z_2}$.
\end{proposition}
\begin{proof}
Пусть $z_1=a_1+b_1i$, $z_2=a_2+b_2i$, тогда
$z_1+z_2=(a_1+a_2)+(b_1+b_2)i$ и
\begin{align*}
e^{z_1}\cdot e^{z_2} &=
e^{a_1}(\cos(b_1)+i\sin(b_1)e^{a_2}(\cos(b_2)+i\sin(b_2))\\
&=e^{a_1+a_2}(\cos(b_1+b_2)+i\sin(b_1+b_2)\\
&=e^{z_1+z_2}.
\end{align*}
\end{proof}
При этом $e^{i\ph}=\cos(\ph)+i\sin(\ph)$; в частности, $e^{i\pi}=-1$.
Теперь для любого ненулевого комплексного числа
$z=r(\cos(\ph)+i\sin(\ph))$ можно записать
$z=re^{i\ph}=e^{\logn(r)+i\ph}$. Эта запись называется
\dfn{экспоненциальной формой записи комплексного
числа}\index{комплексное число!экспоненциальная форма}.
Попытаемся теперь определить обратную функцию~--- логарифм. Основное
свойство логарифма должно сохраниться: логарифм должен быть обратной
функцией к экспоненте. Заметим, что экспонента переводит сумму в
произведение: $e^{a+b} = e^a\cdot e^b$. Поэтому логарифм должен
переводить произведение в сумму: $\ln(ab) = \ln(a) + \ln(b)$.
Таким образом, если определить логарифм вообще возможно,
то для комплексного числа
$z=r(\cos(\ph)+i\sin(\ph)) = r\cdot e^{i\ph}$ должно
выполняться $\logn(z)=\logn(r)+\logn(e^{i\ph})=\logn(r)+i\ph$.
Проблема состоит в том, что аргумент $\ph$ комплексного числа $z$
определен не вполне однозначно, а с точностью до прибавления целого
кратного числа $2\pi$. Поэтому и логарифм должен быть определен не
однозначно, а с точностью до целого кратного числа $2\pi i$.
Часто через $\Logn(z)$ обозначают все множество значений, то есть,
$\Logn(r(\cos(\ph)+i\sin(\ph)))=\{\logn(r)+i\ph+2\pi i k\mid k\in\mb Z\}$.
Под записью $\logn(z)$ мы будем понимать {\it какое-нибудь} значение
логарифма, то есть, какой-то элемент множества $\Logn(z)$. При этом из
основного свойства экспоненты немедленно следует основное свойство
логарифма: $\logn(z_1z_2)=\logn(z_1)+\logn(z_2)$. Понимать это равенство,
конечно, следует с точностью до слагаемого вида $2\pi ik$; например,
$\logn(1)=0$ и $\logn(-1)=\pi i$, но в то же время
$\logn(1)=\logn((-1)\cdot(-1))=\logn(-1)+\logn(-1)
=\pi i+\pi i = 2\pi i$.

2135
euclidean-spaces.tex Normal file

File diff suppressed because it is too large Load Diff

1421
group-theory.tex Normal file

File diff suppressed because it is too large Load Diff

1934
jordan-form.tex Normal file

File diff suppressed because it is too large Load Diff

1940
linear-algebra.tex Normal file

File diff suppressed because it is too large Load Diff

1564
linear-maps.tex Normal file

File diff suppressed because it is too large Load Diff

1122
multilinear.tex Normal file

File diff suppressed because it is too large Load Diff

1298
number-theory.tex Normal file

File diff suppressed because it is too large Load Diff

1483
polynomials.tex Normal file

File diff suppressed because it is too large Load Diff

828
set-theory.tex Normal file
View File

@ -0,0 +1,828 @@
\section{Наивная теория множеств}
\subsection{Множества}
\literature{[K1], гл. 1, \S~5, п. 1; [vdW], гл. 1, \S~1.}
Мы не будем давать точных определений основным понятиям теории
множеств, этим занимается аксиоматическая теория множеств. Наш подход
к теории множеств совершенно наивен; под множеством мы будем понимать
некоторый {\it набор} ({\it совокупность}, {\it семейство})
объектов~--- {\it элементов}. Природа этих объектов для нас не очень
важна: это могут
быть, скажем, натуральные числа, а могут быть другие
множества. Множество полностью определяется своими элементами. Иными
словами, два множества $A$ и $B$ равны тогда и только тогда, когда они
состоят из одних и тех же элементов: $x\in A$ тогда и только тогда,
когда $x\in B$.
Как задать множество? Самый простой способ~--- перечислить его
элементы следующим образом: $A=\{1,2,3\}$.
Сразу отметим, что каждый
объект $x$ может либо являться элементом данного множества $A$ (это
записывается так: $x\in A$), либо не
являться его элементом ($x\not\in A$); он не может быть элементом
множества $A$ <<два раза>>. Поэтому запись $\{1,2,1,3,3,2\}$ задает то
же самое множество, что и запись $\{1,2,3\}$, и запись $\{2,3,1\}$.
Прямое перечисление может задать только конечное множество. Для
задания бесконечных множеств можно использовать неформальную запись с
многоточием, например, $\mb N=\{0,1,2,3,\dots\}$~--- множество натуральных
чисел.
\begin{remark}
Мы будем считать, что $0$ является натуральным числом.
\end{remark}
В такой записи с многоточием мы предполагаем, что читатель понимает,
какие именно элементы имеются в виду. Многоточие может стоять и
справа, и слева: например, запись $\{\dots,-4,-2,0,2,4,\dots\}$ призвана
обозначать множество четных чисел.
Мы предполагаем также, что нам известны такие множества, изучающиеся в
школе, как множество вещественных чисел $\mb R$, множество
рациональных чисел $\mb Q$, множество целых чисел $\mb Z$.
Очень важный пример множества~--- пустое множество $\emptyset$. Это
такое множество, что высказывание $x\in\emptyset$ ложно для любого
объекта $x$.
Чуть более строгий способ задания множества: $A=\{s\in S\mid s\text{
удовлетворяет свойству }P\}$; здесь вертикальная черта $\mid$
читается как <<таких, что>>, а $P$~--- то, что в математической
логике называется {\it предикатом}, то есть, высказыванием, которое
может для каждого объекта $s$ быть истинным или ложным. Для записи
предикатов (и вообще высказываний) полезны значки $\forall$ (<<для
любого>>), $\exists$ (<<существует>>) и $\exists!$ (<<существует
единственный>>). Эти значки называются {\it кванторами} и также имеют
строгий смысл, но для нас они будут служить просто сокращениями
интуитивно понятных фраз <<для любого>>, <<существует>> и <<существует
единственный>>. Например, $\forall x\in\mathbb N, x>-5$ и $\exists!
x\in\mathbb N, 3x=15$~--- истинные
высказывания, а $\forall x\in\mathbb N, x<20$~--- ложное.
Теперь мы можем более точным образом описать множество всех четных
чисел: $\{x\in\mb Z\mid \exists y\in\mb Z: x=2y\}$. Еще одно полезное
сокращение позволяет записать множество четных чисел так: $\{2x\mid
x\in\mb Z\}$. Множество четных чисел мы будем обозначать через $2\mb
Z$.
Обратите внимание, что порядок, в котором идут кванторы в
высказывании, чрезвычайно важен: высказывание $\forall x\in\mb Z\exists
y\in\mb Z:x=y+1$, очевидно, истинно (из любого целого числа можно
вычесть $1$). А вот высказывание $\exists y\in\mb Z\forall x\in\mb
Z:x=y+1$ означает существование такого загадочного целого числа $y$,
которое на единицу меньше любого целого числа. Понятно, что это
высказывание ложно.
На самом деле, запись $\{s\in S\mid s\text{
удовлетворяет свойству }P\}$ задает не просто множество, а
{\it подмножество} множества $S$. Если множество $T$ таково, что любой
элемент множества $T$ является и элементом множества $S$, то говорят,
что $T$ является подмножеством $S$ и пишут $T\subseteq S$. Более
строго, $T\subseteq S$ тогда и только тогда, когда из $x\in T$ следует
$x\in S$. Конструкцию <<из \dots следует \dots>> можно записывать
значком $\Rightarrow$; в определении подмножества тогда можно писать
$x\in T\Rightarrow x\in S$. Заметим, что стрелочка идет только в одну
сторону; если бы было верно и $x\in S\Rightarrow x\in T$, то множества
$S$ и $T$ совпадали бы. Таким образом, если $T\subseteq S$ и
$S\subseteq T$, то $S=T$, поскольку в этом случае $x\in
S\Leftrightarrow X\in T$; множества $S$ и $T$ состоят из
одних и тех же элементов.
Примеры: $\mb N\subseteq\mb Z\subseteq\mb Q\subseteq\mb R$. Кроме
того, $2\mb Z\subseteq\mb Z$. Более того, $\emptyset\subseteq X$ для
любого множества $X$: пустое множество является подмножеством любого
множества. В частности, $\emptyset\subseteq\emptyset$. Не следует
путать значки $\subseteq$ и $\in$: так, $\emptyset\not\in\emptyset$. К
тому же, слева от значка $\in$ может стоять объект любой природы, а
слева от значка $\subseteq$~--- только множество.
Следующее важное понятие~--- {\it мощность} множества. Неформально
говоря, это количество элементов в множестве. Мощность множества $X$
обозначается через $|X|$. Четко различаются два
случая: когда мощность множества конечна и когда она
бесконечна. Если мощность множества конечна, то она измеряется
натуральным числом (вообще говоря, это практически является
определением натурального числа). Например, $|\emptyset|=0$,
$|\{1,2,3\}|=|\{2,1,3,2,2,1\}|=3$. Когда мощность множества $X$ не является
натуральным числом, говорят, что $X$ бесконечно: $|X|=\infty$.
Если множество $X$ конечно, то любое его подмножество $Y$ также
конечно, и $|Y|\leq |X|$. Более того, если $Y$~--- подмножество
конечного множества $X$,
то $|Y|=|X|$ тогда и только тогда,
когда $Y=X$. Если же $Y\subseteq X$ и $Y\neq X$ (в этом случае
говорят, что $Y$~--- {\it собственное подмножество} $X$), то $|Y|<|X|$.
\subsection{Операции над множествами}
\literature{[K1], гл. 1, \S~5, п. 1; [vdW], гл. 1, \S~1.}
Операции над множествами предоставляют массу способов получать новые
множества из уже имеющихся. Мы обсудим по крайней мере следующие
операции:
\begin{itemize}
\item объединение $\cup$,
\item пересечение $\cap$,
\item разность $\setminus$,
\item симметрическая разность $\Delta$,
\item (декартово) произведение $\times$,
\item несвязное объединение (копроизведение) $\coprod$,
\item факторизация $/$.
\end{itemize}
Пересечение $A\cap B$ множеств $A$ и $B$ состоит из всех элементов, лежащих и в
$A$, и в $B$. Более формально, $x\in A\cap B$ тогда и только тогда,
когда $x\in A$ и $x\in B$.
Объединение $A\cup B$ множеств $A$ и $B$ состоит из всех элементов,
лежащих в $A$ или в $B$ (возможно, и в $A$, и в $B$). Иначе говоря,
$x\in A\cup B$ тогда и только тогда, когда $x\in A$ или $x\in B$.
Разность $A\setminus B$ состоит из элементов $A$, не лежащих в $B$:
$A\setminus B=\{x\in A\mid x\not\in B\}$. Иначе говоря, $x\in
A\setminus B$ тогда и только тогда, когда $x\in A$ и $x\not\in B$.
Симметрическая разность $A$ и $B$ состоит из элементов, лежащих ровно
в одном из этих множеств. Это можно записать, например, так: $A\Delta
B=(A\cup B)\setminus(A\cap B)$.
Несвязное объединение $A\coprod B$ предназначено для того, чтобы
объединить два
множества $A$ и $B$ (которые, возможно, имеют непустое пересечение)
так, чтобы в результате элементы из $A$ и из $B$ <<не
перемешались>>: все элементы из $A$ оказались отличными от всех
элементов из $B$. Представьте, что элементы множества $A$ выкрашены в
красный цвет, а элементы $B$~--- в синий цвет. После этого они стали
все различны (их пересечение стало пустым), и мы рассмотрели их
объединение. Если множества $A$ и $B$ конечны, то $|A\coprod
B|=|A|+|B|$.
Произведение множества $A$ и $B$~--- это множество всех упорядоченных
пар $(a,b)$, где $a\in A$, $b\in B$. Запись $(a,b)$ означает, что мы
заботимся о порядке элементов $a,b$ (в отличие от записи
$\{a,b\}$): пара $(a,b)$, вообще говоря, не равна паре $(b,a)$, если
$a\neq b$. Более строго, $(a,b)=(a',b')$ тогда и только тогда, когда
$a=a'$ и $b=b'$.
Итак, $A\times B=\{(a,b)\mid a\in A,b\in B\}$. Например,
$$
\{1,2,3\}\times\{x,y\}=\{(1,x),(2,x),(3,x),(1,y),(2,y),(3,y)\}.
$$
В
школе изучают декартову плоскость, которая фактически представляет
собой квадрат вещественной прямой: $\mb R^2=\mb R\times\mb
R$. Заметим, что $|A\times B|=|A|\times |B|$ для конечных множеств
$A$, $B$.
Несложно обобщить понятия пересечения и объединения на несколько
множеств: $A_1\cap A_2\cap\dots\cap A_n$, $A_1\cup A_2\cup\dots\cup
A_n$. Например, $A_1\cap A_2\cap A_3\cap A_4=((A_1\cap A_2)\cap
A_3)\cap A_4$; и на самом деле порядок расстановки скобок в таком
выражении не имеет значения. Более интересно попробовать обобщить
понятие произведения; заметим, что $A_1\times (A_2\times A_3)$ не
равно $(A_1\times A_2)\times A_3$. Действительно, первое множество
состоит из упорядоченных пар, первый элемент которых лежит в $A_1$, а
второй является упорядоченной парой элементов из $A_2$ и $A_3$. В то
же время второе множество состоит из совершенно других упорядоченных
пар: первый их элемент является упорядоченной парой элементов из $A_1$
и $A_2$, а второй элемент лежит в множестве $A_3$. Но по аналогии с
упорядоченной парой можно определить {\it упорядоченную тройку} и
получить множество $A_1\times A_2\times A_3=\{(a_1,a_2,a_3)\mid a_1\in
A_1,a_2\in A_2,a_3\in A_3\}$ (не совпадающее ни с $A_1\times(A_2\times
A_3)$, ни с $(A_1\times A_2)\times A_3$!). Совершенно аналогично
определяется {\it упорядоченная $n$-ка} или {\it кортеж} из $n$
элементов $(a_1,\dots,a_n)$, что позволяет определить произведение
$A_1\times A_2\times\dots\times A_n$.
Несложно определить пересечение и объединение для произвольного (не
обязательно конечного) набора множеств: если $(A_i)_{i\in I}$~---
семейство множеств, проиндексированное некоторым индексным множеством
$I$, то $\bigcap_{i\in I}A_i$~--- пересечение множеств $A_i$~---
состоит из элементов, которые лежат в каждом $A_i$, а $\bigcup_{i\in
I}A_i$~--- объединение множеств $A_i$~--- состоит из элементов,
которые лежат хотя бы в одном из $A_i$.
С помощью упорядоченных пар
мы можем более строго определить несвязное объединение множеств
$A$ и $B$: рассмотрим множества $\{0\}\times A$ и $\{1\}\times B$
(состоящие из <<покрашенных элементов>> $(0,a)$ для $a\in A$ и $(1,b)$
для $b\in B$). Теперь все элементы $(0,a)$ и $(1,b)$ уж точно
различны, и можно положить $A\coprod B=(\{0\}\times A)\cup(\{1\}\times
B)$.
\subsection{Отображения}
\literature{[K1], гл. 1, \S~5, п. 2, [vdW], гл. 1, \S~2.}
{\em Наивное определение}: \dfn{отображение}\index{отображение}
$f\colon X\to Y$
сопоставляет
каждому элементу $x\in X$ некоторый элемент $y\in Y$. При этом пишут
$y=f(x)$ или $x\mapsto y$ и $y$ называют \dfn{образом}\index{образ}
элемента $x$ при отображении
$f$. Вместе с каждым отображением нужно помнить его
\dfn{область определения}\index{область определения} $X$ и
\dfn{область значений}\index{область значений} $Y$; например,
отображения
$\mathbb N\to\mathbb N$, $x\mapsto x^2$ и $\mb R\to\mb R$, $x\mapsto
x^2$~--- два совершенно разных отображения.
Для каждого множества $X$ можно рассмотреть \dfn{тождественное
отображение}\index{тождественное отображение} $\id_X\colon X\to X$,
переводящее каждый элемент $x\in X$ в $x$.
С каждым декартовым произведением $X\times Y$ множеств $X$ и $Y$
связаны отображения $\pi_1\colon X\times Y\to X$ и $\pi_2\colon
X\times Y\to Y$, определенные следующим образом: отображение $\pi_1$
сопоставляет паре $(x,y)$ элементов $x\in X$, $y\in Y$ элемент $x$, а
отображение $\pi_2$ сопоставляет этой паре элемент $y$. Эти
отображения называются \dfn{каноническими
проекциями}\index{каноническая проекция}.
Пусть $f\colon X\to Y$~--- отображение, и $A\subseteq X$;
\dfn{образом}\index{образ} подмножества $A$ называется
множество образов всех элементов из $A$: $f(A)=\{y\in Y\mid \exists
x\in A\colon f(x)=y\}=\{f(x)\mid x\in A\}$. Если же $B\subseteq Y$,
можно посмотреть на все элементы $X$, образы которых лежат в
$B$. Получаем \dfn{(полный) прообраз}\index{прообраз} подмножества $B$:
$f^{-1}(B)=\{x\in X\mid f(x)\in B\}$. Вообще, говорят, что $x$
является прообразом элемента $y\in Y$, если $f(x)=y$; таким образом,
полный прообраз подмножества составлен из всех прообразов всех его
элементов.
%17.09.2014
Если $f\colon X\to Y$~--- отображение множеств и $A\subseteq X$, можно
определить \dfn{ограничение}\index{ограничение} отображения $f$ на
$A$. Это отображение,
которое мы будем обозначать через $f|_A$, из $A$ в $Y$, задаваемое,
неформально говоря, тем же правилом, что и $f$. Более точно,
$f|_A(x)=f(x)$ для всех $x\in A$.
Пусть теперь даны два отображения, $f\colon X\to Y$, $g\colon Y\to
Z$. Их \dfn{композиция}\index{композиция} $g\circ f$~--- это новое
отображение из $X$ в
$Z$, переводящее элемент $x\in X$ в $g(f(x))\in Z$. То есть, $(g\circ
f)(x)=g(f(x))$ для всех $x\in X$. Обратите внимание, что мы записываем
композицию справа налево: в записи $g\circ f$ сначала применяется $f$,
а потом $g$.
\begin{theorem}[Ассоциативность композиции]\label{thm_composition_associative}
Пусть $X,Y,Z,T$~--- множества, $f\colon X\to Y$, $g\colon Y\to Z$,
$h\colon Z\to T$. Тогда отображения $(h\circ g)\circ f$ и $h\circ
(g\circ f)$ из $X$ в $T$ совпадают.
\end{theorem}
\begin{proof}
Что значит, что два отображения совпадают? Во-первых, должны совпадать
их области определения и значений; и действительно, $(h\circ g)\circ
f$ и $h\circ (g\circ f)$ действуют из $X$ в $T$. Во-вторых, они должны
совпадать в каждой точке. Возьмем любой элемент $x\in X$ и проверим,
что $((h\circ g)\circ f)(x)=(h\circ (g\circ f))(x)$. Действительно,
$$((h\circ g)\circ f)(x)=(h\circ g)(f(x))=h(g(f(x)))$$
и
$$(h\circ(g\circ f))(x)=h((g\circ f)(x))=h(g(f(x))).$$
\end{proof}
Еще одно полезное свойство композиции: пусть $f\colon X\to Y$~---
отображение. Тогда $f\circ\id_X=\id_Y\circ f=f$. Действительно,
$(f\circ\id_X)(x)=f(\id_X(x))=f(x)$ и $(\id_Y\circ
f)(x)=\id_Y(f(x))=f(x)$.
Все отображения из множества $X$ в множество $Y$ образуют множество,
которое мы будем обозначать через $\Map(X,Y)$ или через
$Y^X$. Последнее обозначение связано с тем, что для конечных $X$, $Y$
имеет место равенство $|Y^X|=|Y|^{|X|}$. В частности, если
$X=\emptyset$, то существует ровно одно отображение из $X$ в $Y$:
$|Y^\emptyset|=1$. Если же, наоборот, $Y=\emptyset$, то для непустого
$X$ отображений из $X$ в $\emptyset$ вообще нет: точке из $X$ нечего
сопоставить. Таким образом, $\emptyset^X=\emptyset$ для непустого
$X$. Наконец, для пустого $Y$, как и для любого другого,
существует ровно одно отображение из $\emptyset$ в $Y$
(тождественное), поэтому $|\emptyset^\emptyset|=1$.
\begin{definition}
Пусть $f\colon X\to Y$~--- отображение.
\begin{enumerate}
\item
$f$ называется \dfn{инъективным отображением}, или
\dfn{инъекцией}\index{инъекция}, если из
$x_1\neq x_2$ следует, что $f(x_1)\neq f(x_2)$ для $x_1,x_2\in
X$. Иными словами, у каждого элемента $Y$ не более одного прообраза.
\item
$f$ называется \dfn{сюръективным отображением}, или
\dfn{сюръекцией}\index{сюръекция}, если
для каждого $y\in Y$ найдется $x\in X$ такой, что $f(x)=y$. Иными
словами, у каждого элеента $Y$ не менее одного прообраза.
\item
$f$ называется \dfn{биективным отображением}, или
\dfn{биекцией}\index{биекция}, если
оно инъективно и сюръективно.
\end{enumerate}
\end{definition}
\begin{example}
Обозначим через $\mb R_{\geq 0}$ множество неотрицательных
вещественных чисел: $\mb R_{\geq 0}=\{x\in\mb R\mid x\geq
0\}$. Рассмотрим четыре отображения
\begin{eqnarray*}
&&f_1\colon\mb R\to\mb R, x\mapsto x^2;\\
&&f_2\colon\mb R\to\mb R_{\geq 0}, x\mapsto x^2;\\
&&f_3\colon\mb R_{\geq 0}\to\mb R, x\mapsto x^2;\\
&&f_4\colon\mb R_{\geq 0}\to\mb R_{\geq 0}, x\mapsto x^2.
\end{eqnarray*}
\end{example}
Хотя эти отображения задаются одной и той же формулой (возведение в
квадрат), их свойства совершенно различны: $f_4$ биективно; $f_3$
инъективно, но не сюръективно; $f_2$ сюръективно, но не инъективно;
$f_1$ не инъективно и не сюръективно.
\begin{definition}\label{dfn:inverse-map}
Пусть $f\colon X\to Y$~--- отображение. Отображение $g\colon Y\to X$
называется \dfn{левым обратным}\index{обратное отображение!левое} к
$f$, если $g\circ f = \id_X$. Отображение $g\colon Y\to X$ называется
\dfn{правым обратным}\index{обратное отображение!правое} к $f$, если
$f\circ g = \id_Y$. Наконец, $g$ называется
\dfn{[двусторонним] обратным}\index{обратное отображение} к $f$, если
оно одновременно является левым обратным и правым обратным к $f$.
Отображение $f$ называется
\dfn{обратимым слева}\index{обратимое отображение!слева},
если у него есть левое обратное,
\dfn{обратимым справа}\index{обратимое отображение!справа}, если у
него есть правое обратное, и просто
\dfn{обратимым}\index{обратимое отображение} (или
\dfn{двусторонне обратимым}\index{обратимое отображение!двусторонне}),
если у него есть обратное.
\end{definition}
\begin{lemma}\label{lemma:invertible_left_and_right}
Если у отображение $f\colon X\to Y$ есть левое обратное и правое
обратное, то они совпадают. Таким образом, отображение обратимо тогда
и только тогда, когда оно обратимо слева и обратимо справа.
\end{lemma}
\begin{proof}
Пусть у $f$ есть левое обратное $g_L$ и правое обратное $g_R$. По
определению это означает, что
$g_L\circ f=\id_X$ и $f\circ g_R = \id_Y$.
Рассмотрим отображение $(g_L\circ f)\circ g_R$. По теореме об
ассоциативности композиции~\ref{thm_composition_associative} оно равно
$g_L\circ (f\circ g_R)$. С другой стороны,
$(g_L\circ f)\circ g_R = \id_X\circ g_R = g_R$ и
$g_L\circ (f\circ g_R) = g_L\circ\id_Y = g_L$. Поэтому $g_L = g_R$.
\end{proof}
Покажем, что мы на самом деле уже встречали понятия левой, правой и
двусторонней обратимости под другими названиями.
\begin{theorem}\label{thm:sur-inj-reformulations}
Пусть $f\colon X\to Y$~--- отображение.
\begin{enumerate}
\item Пусть $X$ непусто. $f$ обратимо слева тогда и только тогда,
когда $f$ инъективно.
\item $f$ обратимо справа тогда и только тогда, когда $f$ сюръективно.
\item $f$ обратимо тогда и только тогда, когда $f$ биективно.
\end{enumerate}
\end{theorem}
\begin{proof}
\begin{enumerate}
\item
Предположим, что $f$ обратимо слева, то есть, $g\circ f = \id_X$ для
некоторого $g\colon Y\to X$. Покажем инъективность $f$: пусть
$x_1,x_2\in X$ таковы, что $f(x_1) = f(x_2)$. Применяя $g$, получаем,
что $g(f(x_1)) = g(f(x_2))$. Но $g(f(x)) = (g\circ f)(x) = \id_X(x) =
x$ для всех $x\in X$, поэтому $x_1 = x_2$.
Обратно, предположим, что $f$ инъективно, построим к $f$ левое
обратное отображение $g\colon Y\to X$. В силу непустоты $X$ можно
выбрать некоторый элемент $c\in X$. Для определения отображения $g$
нам нужно задать его значение для каждого $y\in Y$. Возьмем $y\in Y$;
в силу инъективности найдется не более одного элемента $x\in X$
такого, что $f(x) = y$. Если такой элемент (ровно один) есть, положим
$g(y) = x$. Если же его нет, положим $g(y) = c$.
Проверим, что так определенное отображение $g$ действительно является
левым обратным к $f$. Действительно, для всякого $x_0\in X$ элемент
$f(x_0)$ лежит в $Y$, и есть ровно один элемент $x\in X$ такой, что
$f(x) = f(x_0)$~--- это сам $x_0$. Поэтому в силу нашего определения
$g(f(x_0)) = x_0 = \id_X(x_0)$. Мы получили, что для произвольного
$x_0\in X$ справедливо $(g\circ f)(x_0) = \id_X(x_0)$. Поэтому
$g\circ f = \id_X$.
\item
Предположим, что $f$ обратимо справа, то есть, $f\circ g = \id_Y$ для
некоторого $g\colon Y\to X$. Покажем сюръективность $f$; нужно
проверить, что для каждого $y\in Y$ найдется элемент $x\in X$ такой,
что $f(x) = y$. Действительно, положим $x = g(y)$. Тогда
$f(x) = f(g(y)) = (f\circ g)(y) = \id_Y(y) = y$.
Обратно, предположим, что $f$ сюръективно. Построим отображение
$g\colon Y\to X$ такое, что $f\circ g = \id_Y$. Для этого мы должны
определить $g(y)$ для каждого $y\in Y$. В силу сюръективности найдется
хотя бы один элемент $x\in X$ такой, что $f(x) = y$. Тогда положим
$g(y) = x$. Очевидно, что $f(g(y)) = y$ для всех $y\in Y$.
{\small
\begin{remark}\label{remark:axiom-of-choice}
На самом деле тот факт, что мы можем {\it одновременно} для каждого
$y\in Y$ выбрать один какой-нибудь элемент $x\in X$ со свойством
$f(x)=y$, и получится корректно заданное отображение, является одной
из аксиом теории множеств (она
называется~\dfn{аксиомой выбора}\index{аксиома выбора}). Фактически,
она равносильна как раз тому, что мы доказываем: обратимости справа
любого сюръективного отображения. Заметим, что при доказательстве
первого пункта теоремы такой проблемы не возникает: там при построении
левого обратного отображения мы либо выбираем единственный прообраз,
либо (в случае пустого прообраза) отправляем наш элемент в
фиксированный элемент $c$. Здесь же прообраз может быть огромным, и
возможность одновременно в огромном количестве прообразов выбрать по
одному элементу как раз и гарантируется аксиомой выбора. Мы не
обсуждаем строгую формализацию понятия множества, поэтому игнорируем
все проблемы, связанные с аксиомой выбора.
\end{remark}
}
\item Пусть $f$ обратимо. Тогда, очевидно, оно обратимо слева и
обратимо справа. По доказанному выше, из этого следует, что $f$
инъективно и сюръективно (заметим, что в доказательстве того, что из
обратимости слева следует инъективность, мы не использовали
предположение о непустоте $X$). Значит, $f$ биективно.
Обратно, пусть $f$ биективно, то есть, инъективно и
сюръективно. Предположим сначала, что $X$ непусто. Тогда, по
доказанному выше, $f$ обратимо слева и обратимо справа. По
лемме~\ref{lemma:invertible_left_and_right} из этого следует, что
$f$ обратимо. Осталось рассмотреть случай, когда $X =
\emptyset$. Покажем, что в этом случае и $Y = \emptyset$. Для этого
вспомним, что $f$ сюръективно. По определению это означает, что для
каждого $y\in Y$ найдется $x\in X$ такой, что $f(x) = y$. Если $Y$
непусто, то для какого-нибудь элемента $y\in Y$ должен найтись
элемент $x\in X$, а это невозможно, поскольку $X$ пусто. Мы
показали, что $X = Y = \emptyset$; но в этом случае есть
единственное отображение $f\colon X\to Y$ (тождественное), и
единственное отображение $g\colon Y\to X$ будет обратным к нему.
\end{enumerate}
\end{proof}
Если $f\colon X\to Y$~--- некоторое отображение, можно рассмотреть его
\dfn{график}\index{график}
$$
\Gamma_f=\{(x,f(x))\mid x\in X\}\subseteq X\times Y.
$$
Это понятие помогает нам дать точное определение понятию
отображения. Нетрудно видеть, что график отображения $f$ однозначно
определяет само $f$. С другой стороны, какие подмножества $X\times Y$
могут быть графиками отображений из $X$ в $Y$? Нетрудно понять, что
над каждой точкой $x\in X$ должна находиться ровно одна точка $(x,y)$
из графика (у каждой точки $x$ есть ровно один образ). Это приводит
нас к следующему определению.
\begin{definition}
Упорядоченная тройка $(X,Y,\Gamma)$, где $X,Y$~--- множества и
$\Gamma\subseteq X\times Y$, называется
\dfn{отображением}\index{отображение} из $X$ в
$Y$, если
\begin{enumerate}
\item для любого $x\in X$ из того, что $(x,y_1)\in\Gamma$ и
$(x,y_2)\in\Gamma$, следует, что $y_1=y_2$;
\item для любого $x\in X$ существует $y\in Y$ такое, что
$(x,y)\in\Gamma$.
\end{enumerate}
\end{definition}
\subsection{Бинарные отношения}
\literature{[K1], гл. 1, \S~6, п. 1.}
\begin{definition}
\dfn{Бинарным отношением}\index{отношение!бинарное} на множестве $S$
называется подмножество
$R\subseteq S\times S$. Если $(x,y)\in S$, говорят, что
\dfn{$x$ находится в отношении $R$ с $y$}\index{отношение}, и пишут
$xRy$.
\end{definition}
%24.09.2014
\begin{examples}\label{examples:relations}
Отношение $\geq$ на множестве $\mb R$: $\geq=\{(x,y)\in\mb R\times\mb
R\mid x\geq y\}$. Аналогично~--- на множестве $\mb Z$, или
на множестве $\mb N$. Отношения $\leq$, $>$, $<$ на тех же
множествах. Отношение равенства на $\mb R$: $\{(x,x)\mid x\in\mb
R\}$~--- аналогично на любом множестве.
Отношение делимости на целых числах (точное определение будет
дано во второй главе).
На множестве всех прямых на декартовой плоскости можно ввести
отношение параллельности и отношение перпендикулярности.
\end{examples}
Для визуализации отношений полезно рисовать их графики~---
изображать множества точек, координаты которых лежат в данном
отношении.
\subsection{Отношения эквивалентности}
\literature{[K1], гл. 1, \S~6, п. 2; [vdW], гл. 1, \S~5.}
Определение отношения достаточно общее; на практике встречаются
отношения,
удовлетворяющие некоторым из следующих свойств.
\begin{definition}
Пусть $R\subseteq X\times X$~--- бинарное отношение на множестве $X$.
\begin{enumerate}
\item $R$ называется \dfn{рефлексивным}\index{отношение!рефлексивное},
если для любого $x\in X$
выполнено $xRx$.
\item $R$ называется \dfn{симметричным}\index{отношение!симметричное},
если для любых $x,y\in X$ из
$xRy$ следует $yRx$.
\item $R$ называется \dfn{транзитивным}\index{отношение!транзитивное},
если для любых $x,y,z\in X$
из $xRy$ и $yRz$ следует $xRz$.
\item $R$ называется \dfn{отношением
эквивалентности}\index{отношение!эквивалентности}, если оно
рефлексивно, симметрично и транзитивно.
\end{enumerate}
\end{definition}
\begin{examples}
Посмотрим на примеры~\ref{examples:relations}.
Нетрудно видеть, что отношения $\geq$, $\leq$, $>$, $<$ на множестве
$\mb R$ транзитивны, но не симметричны. При этом отношения $\geq$ и
$\leq$ рефлексивны. Отношение равенства на любом множестве является
отношением эквивалентности. Отношение делимости рефлексивно и
транзитивно. Отношение параллельности прямых на плоскости (если
учесть, что прямая параллельна самой себе) является отношением
эквивалентности. Отношение перпендикулярности симметрично, но не
рефлексивно и не транзитивно.
\end{examples}
\begin{definition}\label{def_equiv_class}
Пусть $\sim$~--- отношение эквивалентности на множестве $X$. Для
элемента $x\in X$ рассмотрим множество $\{y\in X\mid y\sim x\}$. Мы
будем обозначать его через $\overline{x}$ или $[x]$ и называть
\dfn{классом эквивалентности}\index{класс эквивалентности} элемента $x$.
\end{definition}
\begin{theorem}[О разбиении на классы эквивалентности]\label{thm_quotient_set}
Пусть $\sim$~--- отношение эквивалентности на множестве $X$.
Тогда $X$ разбивается на классы эквивалентности, то есть, каждый
элемент множества $X$ лежит в каком-то классе, и любые два класса либо
не пересекаются, либо совпадают.
\end{theorem}
\begin{proof}
Из рефлексивности следует, что $x\in\overline{x}$, поэтому каждый
элемент лежит в каком-то классе. Пусть $\overline{x}$ и
$\overline{y}$~--- два класса эквивалентности и
$\overline{x}\cap\overline{y}\neq\emptyset$. Выберем
$z\in\overline{x}\cap\overline{y}$; тогда $z\sim x$ и $z\sim
y$. Докажем, что на самом деле $\overline{x}=\overline{y}$, проверив
включения в обе стороны. Возьмем $t\in\overline{x}$; тогда $t\sim
x$, $x\sim z$, $z\sim y$, откуда $t\sim y$, то есть,
$t\in\overline{y}$. Поэтому
$\overline{x}\subseteq\overline{y}$. Аналогично,
$\overline{y}\subseteq\overline{x}$.
\end{proof}
\begin{definition}\label{def_quotient_set}
Пусть $\sim$~--- отношение эквивалентности на множестве $X$.
Множество всех классов эквивалентности элементов $X$ называется
\dfn{фактор-множеством}\index{фактор-множество} множества $X$ по
отношению $\sim$ и
обозначается через $X/\sim$. Отображение $\pi\colon X\to X/\sim$,
сопоставляющее каждому элементу $x\in X$ его класс эквивалентности
$\overline{x}$, называется
\dfn{канонической проекцией}\index{каноническая проекция} множества
$X$ на фактор-множество $X/\sim$. Нетрудно видеть, что это отображение
сюръективно.
\end{definition}
\subsection{Метод математической индукции}
\literature{[K1], гл. 1, \S~7; [vdW], гл. 1, \S~3; [B], гл. 1, п. 2.}
Пусть $P(n)$~--- набор высказываний, зависящий от натурального
параметра $n$. \dfn{Принцип математической индукции}\index{принцип
математической индукции} гласит, что если
$P(0)$
истинно (\dfn{база индукции}\index{база индукции}) и для любого
натурального $k$ из истинности $P(k)$ следует истинность
$P(k+1)$ (\dfn{индукционный переход}\index{индукционный переход}), то
$P(n)$
истинно для всех натуральных $n$.
Эквивалентная переформулировка принципа математической индукции
гласит, что в любом непустом множестве натуральных чисел есть
минимальный элемент. Этот принцип (или какой-то равносильный ему), как
правило, принимается за аксиому в современных аксиоматиках натуральных
чисел.
Покажем, что если в любом непустом множестве натуральных чисел есть
минимальный элемент, то принцип математической индукции
выполняется. Будем действовать от противного: предположим, что $P(0)$
истинно, и для любого $k\in\mb N$ из истинности $P(k)$ следует
истинность $P(k+1)$, но, в то же время, $P(n)$ истинно не для всех
$n$. Пусть $A\subseteq\mb N$~--- множество натуральных чисел $n$, для
которых $P(n)$ ложно; оно непусто по нашему предположению.
Тогда в $A$ есть минимальный элемент $a$. Если $a=0$, то $P(0)$ ложно
(поскольку $a\in A$), что противоречит базе индукции. Если же $a>0$,
то $a-1$ также является натуральным числом, и $a-1\notin A$ в силу
минимальности. Поэтому $P(a-1)$ истинно. Но тогда из индукционного
перехода следует, что и $P(a) = P((a-1)+1)$ истинно~--- противоречие.
Принципа математической индукции равносилен следующему
принципу полной индукции: пусть
$P(n)$~--- набор высказываний, зависящий от натурального параметра
$n$. Если $P(0)$ истинно и из истинности $P(0), P(1),\dots,P(k)$
следует истинность $P(k+1)$, то $P(n)$ истинно для всех натуральных $n$.
\subsection{Операции}
\literature{[K1], гл. 4, \S~1, п. 1.}
\begin{definition}
Пусть $X$~--- множество. \dfn{Бинарной
операцией}\index{операция!бинарная} на множестве $X$
называется отображение $X\times X\to X$.
\end{definition}
\begin{examples}
Отображения $\mb R\times\mb R\to\mb R$, задаваемые формулами
$(a,b)\mapsto a+b$, $(a,b)\mapsto ab$, $(a,b)\mapsto a-b$, являются
бинарными операциями. Отображение $(a,b)\mapsto a^b$ является бинарной
операцией на множестве $\mb N_{\geq 0}$ положительных натуральных чисел.
\end{examples}
\begin{definition}
Пусть $\ph\colon X\times X\to X$~--- бинарная операция на множестве $X$.
\begin{enumerate}
\item Операция $\ph$ называется
\dfn{ассоциативной}\index{операция!ассоциативная}\index{ассоциативность}, если
$\ph(\ph(a,b),c)=\ph(a,\ph(b,c))$ выполняется для всех
$a,b,c\in X$.
\item Операция $\ph$ называется
\dfn{коммутативной}\index{операция!коммутативная}\index{коммутативность},
если
$\ph(a,b)=\ph(b,a)$ выполняется для всех $a,b\in X$.
\end{enumerate}
\end{definition}
Нетрудно видеть, что операции сложения и умножения на множестве
вещественных чисел являются ассоциативными и коммутативными, а вот
возведение в степень
положительных натуральных положительных чисел не является ни
ассоциативной, ни коммутативной операцией.
\begin{definition}
Пусть $\bullet$~--- бинарная операция на множестве $X$.
Элемент $e\in X$ называется
\dfn{левым нейтральным}\index{нейтральный элемент!левый}
(или \dfn{левой единицей}\index{единица!левая}) по отношению к операции
$\bullet$, если $e\bullet x = x$ для любого $x\in X$. Элемент $e\in X$
называется
\dfn{правым нейтральным}\index{нейтральный элемент!правый} (или
\dfn{правой единицей}\index{единица!правая}) по
отношению к $\bullet$, если
$x\bullet e = x$ для любого $x\in X$. Элемент $e\in X$ называется
\dfn{нейтральным}\index{нейтральный элемент} (или
\dfn{единицей}\index{единица}), если он одновременно является
левым и правым нейтральным.
\end{definition}
Отметим, что бинарная операция возведения в степень на множестве
$\mb R$ обладает правой единицей (это $1$: действительно, $a^1 = a$),
но не обладает левой единицей.
\begin{lemma}
Если $\bullet\colon X\times X\to X$~--- бинарная операция,
и в $X$ есть правая единица и левая единица относительно
$\bullet$, то они совпадают.
\end{lemma}
\begin{proof}
Действительно, если $e_L\in X$~--- левая единица, а $e_R\in X$~---
правая единица, то по определению левой единицы выполнено $e_L\bullet
e_R = e_R$, а по определению правой единицы выполнено $e_L\bullet e_R
= e_L$. Поэтому
$e_L = e_L\bullet e_R = e_R$.
\end{proof}
\begin{definition}
Пусть $\bullet$~--- бинарная операция на множестве $X$, и в $X$ есть
нейтральный элемент $e$ относительно этой операции.
Пусть $x\in X$. Элемент $y\in X$ называется
\dfn{левым обратным}\index{обратный элемент!левый}
(относительно операции $\bullet$) к $x$, если $yx = e$.
Элемент $y\in X$ называется
\dfn{правым обратным}\index{обратный элемент!правый} (относительно
операции $\bullet$) к $x$, если $xy = e$.
Если $y\in X$ одновременно является левым и правым обратным к
$x$, то он называется просто \dfn{обратным}\index{обратный элемент} к
$x$. Элемент $x$ называется
\dfn{обратимым слева}\index{обратимый элемент!слева},
если у него есть левый
обратный, \dfn{обратимым справа}\index{обратимый элемент!справа},
если у него есть правый обратный, и
\dfn{обратимым}\index{обратимый элемент}, если у него есть обратный.
\end{definition}
\begin{lemma}
Пусть $\bullet$~--- бинарная операция на множестве $X$, и в $X$ есть
нейтральный элемент $e$ относительно это операции. Предположим, что
операция $\bullet$ ассоциативна. Пусть элемент $x$ обратим слева и
обратим справа. Тогда он обратим. Иными словами, если у элемента есть
левый и правый обратный относительно ассоциативной операции, то они
совпадают.
\end{lemma}
\begin{proof}
Пусть $y_L$~--- левый обратный к $x$, а $y_R$~--- правый обратный к
$x$. По определению это означает, что $y_L\bullet x = e$
и $x\bullet y_R = e$. Но тогда
$$
y_R = e\bullet y_R = (y_L\bullet x)\bullet y_R = y_L\bullet (x\bullet y_R) =
y_L\bullet e = y_L
$$
(обратите внимание, что в середине мы воспользовались ассоциативностью
операции $\bullet$).
\end{proof}
Пусть на $X$ задана бинарная операция $\bullet$, и $a,b,c\in
X$. Выражение $a\bullet b\bullet c$ не определено: для его однозначной
интерпретации необходимо расставить скобки, и получится либо
$(a\bullet b)\bullet c$, либо $a\bullet (b\bullet c)$. Если операция
$\bullet$ ассоциативна, то результат вычисления этих двух выражений
одинаков. Пусть теперь $a,b,c,d\in X$. Скобки в выражении $a\bullet
b\bullet c\bullet d$ можно расставить уже пятью вариантами:
$$
((a\bullet b)\bullet c)\bullet d,\quad
(a\bullet (b\bullet c))\bullet d,\quad
(a\bullet b)\bullet (c\bullet d),\quad
a\bullet((b\bullet c)\bullet d),\quad
a\bullet (b\bullet (c\bullet d)).
$$
Оказывается, что если операция $\bullet$ ассоциативна, то результат
вычисления всех этих выражений одинаков.
Аналогично, в выаржении любой длины для указания порядка, в котором
выполняются операции, необходимо расставить скобки. Оказывается, для
ассоциативной операции результат выполнения
не зависит от порядка расстановки скобок. Это
свойство называется \dfn{обобщенной
ассоциативностью}\index{ассоциативность!обобщенная}. Поэтому для
ассоциативных операций ставить скобки в подобных выражениях не
обязательно.
\begin{theorem}
Если на множестве $X$ задана ассоциативная операция $\bullet$, то она
обладает обобщенной ассоциативностью: результат вычисления выражения
$x_1\bullet x_2\bullet\dots\bullet x_n$ не зависит от расстановки в
нем скобок.
\end{theorem}
\begin{proof}
Будем доказывать индукцией по $n$. База $n=3$ является определением
ассоциативности. Пусть теперь $n>3$, и для всех меньших $n$ теорема
уже доказана.
Достаточно показать, что результат при любой расстановке скобок
совпадает с результатом при следующей расстановке, в которой все скобки
<<сдвинуты влево>>
$$
(\dots ((x_1\bullet x_2)\bullet x_3)\bullet\dots\bullet x_n).
$$
Возьмем произвольную расстановку и посмотрим на действие, которое
выполняется последним: оно состоит в перемножении некоторого выражения
от $x_1,\dots,x_k$ и некоторого выражения от $x_{k+1},\dots,x_n$:
$$
(\dots x_1\bullet\dots\bullet x_k\dots) \bullet
(\dots x_{k+1}\bullet\dots\bullet x_n\dots).
$$
При этом $1 < k < n$.
Предположим сначала, что $k = n-1$. Тогда последняя операция состоит в
перемножении скобки, в которой стоят $x_1,\dots,x_{n-1}$, на $x_n$. В
выражении от $x_1,\dots,x_{n-1}$ мы можем, по предположению индукции,
сдвинуть все скобки влево, не меняя результата. Приписывая справа
$x_n$, получаем как раз выражение нужного вида уже от
$x_1,\dots,x_n$, и доказательство закончено.
Пусть теперь $k<n-1$. Заметим, что во второй скобке стоят
$x_{k+1},\dots,x_n$~--- здесь хотя бы два элемента, и меньше, чем
$n$. По предположению индукции мы можем расставить в этом выражении
скобки нашим выбранным способом, не меняя результата:
$$
\underbrace{\left(\dots x_1\bullet\dots\bullet x_k\dots\right)}_{A} \bullet
(\underbrace{(\dots (x_{k+1}\bullet x_{k+2})\bullet\dots\bullet x_{n-1})}_B\bullet\underbrace{x_n}_C)
$$
(тут нужно отметить, что рассуждение работает и при $k=n-2$; в этом
случае во второй скобке стоит лишь два элемента, и формально мы не
можем применить предположение индукции, но в этом нет ничего страшного).
Применим теперь ассоциативность к полученному выражению вида
$A\bullet (B\bullet C)$ и заменим его на $(A\bullet B)\bullet C$:
$$
(\underbrace{\dots x_1\bullet\dots\bullet x_k\dots}_{A} \bullet
\underbrace{\dots (x_{k+1}\bullet x_{k+2})\bullet\dots\bullet x_{n-1}}_B)\bullet\underbrace{x_n}_C)
$$
Заметим, что теперь последняя выполняемая операция~--- умножения
некоторого выражения от переменных $x_1,\dots,x_{n-1}$ на $x_n$. Это
означает,
что мы свели задачу к уже разобранному случаю $k=n-1$; теперь можно,
как и выше, воспользоваться предположением индукции, расставить скобки
в выражении от $x_1,\dots,x_{n-1}$ нужным образом, и мы сразу получим
необходимую расстановку.
\end{proof}

957
vector-spaces.tex Normal file
View File

@ -0,0 +1,957 @@
%%% 2015
% 17.02.2015
\section{Векторные пространства}\label{section_vector_spaces}
\subsection{Первые определения}
\literature{[F], гл. XII, \S~1, п. 1, \S~2, пп. 1, 2; [K2], гл. 1,
\S~1; [KM], ч. 1, \S~1; [vdW], гл. 4, \S~19.}
Неформально говоря, векторное пространство~--- это множество, элементы
которого называются векторами, на котором определены операции сложения
векторов и умножения вектора на число, причем выполняются некоторые
естественные свойства этих операций. Здесь <<число>> означает
произвольный элемент некоторого основного поля $k$.
\begin{definition}\label{def:vector_space}
Пусть $k$~--- поле.
Множество $V$ вместе с операциями $+\colon V\times V\to V$,
$\cdot\colon V\times k\to V$ называется \dfn{векторным
пространством}\index{векторное пространство}
(точнее~--- \dfn{правым векторным пространством}),
если выполняются следующие свойства (называемые {\em аксиомами
векторного пространства}):
\begin{enumerate}
\item $(u+v)+w=u+(v+w)$ для любых $u,v,w\in V$ ({\em ассоциативность сложения});
\item существует $0\in V$ такой, что $0+v=v+0=v$ для всех $v\in V$
({\em нейтральный элемент по сложению});
\item для любого $v\in V$ найдется элемент $-v\in V$ такой, что
$v+(-v)=(-v)+v=0$ ({\em обратный элемент по сложению=противоположный
элемент});
\item $u+v=v+u$ для любых $u,v\in V$ ({\em коммутативность сложения});
\item $(u+v)a=u\cdot a+v\cdot a$ для любых $u,v\in V$,
$a\in k$ ({\em левая дистрибутивность});
\item $u(a+b) = u\cdot a + u\cdot b$ для любых $u\in V$,
$a,b\in k$ ({\em правая дистрибутивность});
\item $u\cdot(a\cdot b)=(u\cdot a)\cdot b$ для любых $u\in V$,
$a,b\in k$ ({\em внешняя ассоциативность});
\item $u\cdot 1 = u$ для любого $u\in U$ ({\em унитальность}).
\end{enumerate}
При этом элементы пространства $V$ называются
\dfn{векторами}\index{вектор}, а
элементы поля $k$~--- \dfn{скалярами}\index{скаляр}.
\end{definition}
\begin{remark}
Заметим, что первые три аксиомы не включают в себя умножение на скаляр
и выражают тот факт, что $V$ с операцией сложения является {\em
группой} (см. определение~\ref{def_group}); четвертая аксиома
означает, что эта группа коммутативна.
\end{remark}
\begin{remark}
Обратите внимание, что знаки $+$ и $\cdot$ в аксиомах используются в
разных смыслах: $+$ может означать сложение как в векторном
пространстве $V$, так и в поле $k$, а $\cdot$ означает умножение
скаляра на вектор и умножение скаляров в поле $k$. Упражнение:
про каждый знак $+$ и $\cdot$ в аксиомах векторного пространства
скажите, какую именно операцию он обозначает.
Символ <<$0$>> также используется в дальнейшем в двух смыслах: он может
обозначать как нулевой элемент поля, так и нулевой элемент векторного
пространства. При желании мы могли бы как-нибудь различать их (некоторые
авторы пишут $\overline{0}$ для нулевого вектора), но
не будем этого делать, поскольку из контекста всегда ясно, какой
элемент имеется в виду (а если не ясно, читатель получает
хорошее упражнение).
\end{remark}
\begin{remark}
Мы постараемся всегда при умножении вектора на скаляр записывать
вектор слева, а вектор справа, то есть, писать $v\cdot a$ для $v\in V$
и $a\in k$. Вместе с тем, можно было бы везде писать $a\cdot v$
вместо $v\cdot a$. Читателю предлагается переписать
определение~\ref{def:vector_space} в таких терминах и убедиться, что
получатся совершенно аналогичные аксиомы (за счет коммутативности
умножения в поле!) Более щепетильные авторы различают две конвенции
в записи и говорят о {\em правых векторных пространствах}
и {\em левых векторных пространствах}, соответственно.
Отметим, что естественное обобщение понятия векторного пространства
на произвольные кольца (не обязательно коммутативные) требует
строгого различения этих двух понятий.
\end{remark}
\begin{examples}
\begin{enumerate}
\item Для натурального $n$ рассмотрим множество всех столбцов высоты
$n$, состоящих из элементов поля $k$:
$k^n=\{\begin{pmatrix}a_1 \\ \vdots \\ a_n\end{pmatrix}\mid a_i\in
k\}$. Введем на $k^n$ естественные операции [покомпонентного]
сложения и [покомпонентного] умножения на скаляры. Тогда $k^n$
превратится в векторное пространство над полем $k$: справедливость
всех аксиом немедленно следует из свойств операций над матрицами,
поскольку можно рассматривать такие столбцы как матрицы $n\times 1$:
$k^n=M(n,1,k)$.
\item Аналогично, множество всех строк длины $n$ над $k$ с
покомпонентными операциями сложения и умножения на скаляры образует
векторное пространство над $k$; мы будем обозначать его через
${}^nk$. Альтернативно, ${}^nk=M(1,n,k)$.
\item Обобщая предыдущие примеры, можно заметить, что множество
$M(m,n,k)$ всех матриц фиксированного размера $m\times n$ с обычными
операциями сложения матриц и умножения на скаляры образует векторное
пространство над $k$.
\item Аналогично первым двум примерам, можно рассмотреть множества столбцов
{\em бесконечной высоты} и строк {\em бесконечной ширины}, состоящих
из элементов поля $k$. И то, и другое~--- это просто множество бесконечных
последовательностей $a_1,a_2,\dots$, где все $a_i$ лежат в $k$.
Различие между множеством столбцов и множеством строк лишь в форме записи.
Множество таких последовательностей, воспринимаемых как столбцы,
мы будем обозначать через $k^\infty$, а множество последовательностей,
воспринимаемых как строки~--- через ${}^{\infty}k$.
На каждом из этих множеств определены операции [покомпонентного]
сложения и [покомпонентного] умножения на элементы поля $k$. Несложно
проверить выполнение для них всех свойств из
определения~\ref{def:vector_space}, поэтому $k^\infty$ и ${}^{\infty}k$
являются векторными пространствами над полем $k$.
\item Пусть $E$~--- множество [свободных] векторов на стандартной
эвклидовой плоскости. Из школьного курса известно, что сложение
векторов и умножение векторов на вещественные числа обладает всеми
свойствами из определения векторного пространства. Поэтому $E$ можно
рассматривать как векторное пространство над $\mb R$.
Аналогично, множество векторов в трехмерном пространстве является
векторным пространством над $\mb R$.
\item Пусть $k\subseteq L$~--- поля. Элементы $L$ можно складывать
между собой и умножать на элементы поля $k$ (на самом деле, их можно
перемножать и между собой, но мы забудем про эту операцию). Все
свойства из определения векторного пространства немедленно следуют
из свойств операций в поле. Поэтому
$L$ естественным образом является векторным пространством над
$k$. Например, $\mb R$~--- векторное пространство над $\mb Q$, а
$\mb C$~--- векторное пространство над $\mb Q$ и над $\mb R$. Кроме
того, любое поле является (не очень интересным) векторным
пространством над самим собой.
\item Многочлены от одной переменной над полем $k$ можно складывать
между собой и умножать на скаляры из $k$; поэтому $k[x]$ (с
естественными операциями) является векторным пространством над $k$
(необходимые аксиомы немедленно следуют из свойств операций в
$k[x]$).
\end{enumerate}
\end{examples}
\begin{proposition}
Пусть $V$~--- векторное пространство над $k$. Тогда
\begin{enumerate}
\item $v\cdot 0=0$ для любого вектора $v\in V$, где $0\in k$;
\item $0\cdot a = 0$ для любого скаляра $a\in k$, где $0$~--- нулевой вектор;
\item $v\cdot (-1)=-v$ для любого вектора $v\in V$.
\end{enumerate}
\end{proposition}
\begin{proof}
\begin{enumerate}
\item Заметим, что $v\cdot 0 = v\cdot (0+0) = v\cdot 0 + v\cdot
0$. Прибавим к обеим частям $-(v\cdot 0)$; получим
$(-v\cdot 0) + v\cdot 0 = (-v\cdot 0) + v\cdot 0 + v\cdot 0$, откуда
$0=0+v\cdot 0=v\cdot 0$, что и требовалось.
\item Заметим, что $0\cdot a = (0+0)\cdot a = 0\cdot a
+ 0\cdot a$. Прибавим к обеим частям $-(0\cdot a)$; получим
$-(0\cdot a) + 0\cdot a = -(0\cdot a) + 0\cdot a
+ 0\cdot a$, откуда $0 = 0 + 0\cdot a = 0\cdot a$,
что и требовалось.
\item Воспользуемся первой частью: $0 = v\cdot 0 = v\cdot (1+(-1)) =
v\cdot 1 + v\cdot (-1) = v + v\cdot (-1)$. Прибавим к обеим частям
$(-v)$; получим $-v = (-v) + v + v\cdot (-1) = 0 + v\cdot (-1) =
v\cdot (-1)$.
\end{enumerate}
\end{proof}
\subsection{Подпространства}
\begin{definition}
Пусть $V$~--- векторное пространство над полем $k$.
Подмножество $U\subseteq V$ называется
\dfn{подпространством}\index{подпространство}, если выполнены следующие условия:
\begin{enumerate}
\item $0\in U$;
\item если $u,v\in U$, то и $u+v\in U$;
\item если $u\in U$, $a\in k$, то $u\cdot a\in U$.
\end{enumerate}
Тот факт, что $U$ является подпространством $V$, мы будем обозначать
так: $U\leq V$.
\end{definition}
\begin{remark}
Если $U\leq V$, то $-u\in U$ для любого $u\in
U$. Действительно, для любого $u\in U$
выполнено $-u = u\cdot (-1)\in U$.
\end{remark}
\begin{examples}
\begin{enumerate}
\item В любом пространстве $V$ есть <<тривиальные>> подпространства
$0\leq V$ и $V\leq V$.
\item Пусть $V = k[x]$, $U = \{f\in k[x]\mid f(1) = 0\}$. Тогда
$U\leq V$.
\item Пусть $k[x]_{\leq n}$~--- множество многочленов степени не выше
$n$: $k[x]_{\leq n}=\{f\in k[x]\mid \deg(f)\leq n\}$. Нетрудно
проверить, что $k[x]_{\leq n}\leq k[x]$.
\item Множество векторов, параллельных некоторой плоскости, является
подпространством трехмерного пространства векторов.
% добавить пример про все подпространства плоскости и трехмерного пространства!
\end{enumerate}
\end{examples}
\begin{lemma}
Пересечение произвольного набора подпространств пространства $V$
является подпространством в $V$.
\end{lemma}
\begin{proof}
Пусть $\{U_\alpha\}_{\alpha\in A}$~--- подпространства в
$V$. Пусть $u,v\in\bigcap_{\alpha\in A}U_\alpha$. По определению
пересечения выполнено $u,v\in U_\alpha$ для всех $\alpha$. Так как
$U_\alpha\leq V$, то для каждого $\alpha$ выполнено $u+v\in U_\alpha$,
откуда $u+v\in\bigcap_{\alpha\in A}U_\alpha$. Кроме того, если
$a\in k$, то для каждого $\alpha$ выполнено $ua\in
U_\alpha$, откуда $ua\in\bigcap_{\alpha\in A}U_\alpha$.
\end{proof}
\begin{definition}
Пусть $U_1,\dots,U_m$~--- подпространства в $V$.
\dfn{Суммой} подпространств $U_1,\dots,U_m$ называется множество
всевозможных сумм элементов $U_1,\dots,U_m$.
Обозначение: $U_1+\dots+U_m$.
Более точно,
$$
U_1+\dots+U_m = \{u_1+\dots+u_m\mid u_1\in U_1,\dots,u_m\in U_m\}.
$$
\end{definition}
Несложно проверить (упражнение!), что для любых подпространств
$U_1,\dots,U_m$ в $V$ их сумма $U_1+\dots+U_m$ также является
подпространством в $V$.
\begin{lemma}
Пусть $U_1,\dots,U_m$~--- подпространства векторного пространства $V$.
Тогда их сумма $U_1+\dots+U_m$~--- это наименьшее (по включение)
векторное подпространство в $V$, содержащее каждое из подпространств
$U_1,\dots,U_m$.
\end{lemma}
\begin{proof}
Очевидно, что каждое из подпространств $U_1,\dots,U_m$ содержится
в сумме $U_1+\dots+U_m$ (достаточно рассмотреть суммы
вида $u_1+\dots+u_m$, в которых все элементы, кроме одного, равны нулю).
С другой стороны, если некоторое подпространство пространства $V$
содержит $U_1,\dots,U_m$, то оно обязано содержать и все элементы
вида $u_1+\dots+u_m$ ($u_i\in U_i$), поэтому обязано содержать
$U_1+\dots+U_m$.
\end{proof}
Итак, любой элемент $u\in U_1+\dots+U_m$ можно представить
в виде $u = u_1+\dots+u_m$ для некоторых $u_i\in U_i$.
Нас интересует случай, когда такое представление
{\em единственно}.
\begin{definition}
Пусть $U_1,\dots,U_m$~--- подпространства векторного пространства $V$.
Будем говорить, что $V$ является \dfn{прямой суммой} подпространств
$U_1,\dots,U_m$, если каждый элемент $v\in V$ можно единственным образом
представить в виде суммы $v = u_1+\dots+u_m$, где все $u_i\in U_i$.
Обозначение: $V=U_1\oplus\dots\oplus U_m$ или
$V = \bigoplus_{i=1}^m U_i$.
\end{definition}
\begin{examples}
\begin{enumerate}
\item Пусть $V = k^3$~--- пространство столбцов высоты $3$ над полем $k$,
$U = \{\begin{pmatrix} * \\ * \\ 0 \end{pmatrix}\}$~--- подпространство
столбцов, третья координата которых равна нулю,
$W = \{\begin{pmatrix} 0 \\ 0 \\ * \end{pmatrix}\}$~--- подпространство
столбцов, первые две координаты которых равны нулю.
Тогда $V$ является прямой суммой $U$ и $W$: $V = U\oplus W$.
\item Пусть $V = k^n$~--- пространство столбцов высоты $n$ над полем $k$.
Обозначим через $U_i$ подпространство столбцов в $V$, в которых на всех
местах кроме, возможно, $i$-го, стоит нуль:
$$
U_i = \{\begin{pmatrix}0 \\ \vdots \\ 0 \\ * \\ 0 \\ \vdots \\ 0\end{pmatrix}\}.
$$
Тогда $V = U_1\oplus\dots\oplus U_n$.
\item Пусть теперь снова $V = k^3$, $U_1$~--- множество столбцов вида
$\begin{pmatrix} a \\ a \\ 0\end{pmatrix}$, где $a\in k$;
$U_2$~--- множество столбцов вида
$\begin{pmatrix} b \\ 0 \\ 0\end{pmatrix}$, где $b\in k$;
$U_3$~--- множество столбцов вида
$\begin{pmatrix} 0 \\ c \\ d\end{pmatrix}$, где $c,d\in k$.
Тогда $V$ {\em не является} прямой суммой подпространств $U_1, U_2, U_3$.
Дело в том, что столбец вида $\begin{pmatrix}0 \\ 0 \\ 0\end{pmatrix}$
можно разными способами представить в виде суммы трех векторов $u_1\in U_1$,
$u_2\in U_2$, $u_3\in U_3$. Действительно,
во-первых,
$$
\begin{pmatrix} 0 \\ 0 \\ 0\end{pmatrix}
=
\begin{pmatrix} 1 \\ 1 \\ 0\end{pmatrix} +
\begin{pmatrix} -1 \\ 0 \\ 0\end{pmatrix} +
\begin{pmatrix} 0 \\ -1 \\ 0\end{pmatrix},
$$
а во-вторых, разумеется,
$$
\begin{pmatrix} 0 \\ 0 \\ 0\end{pmatrix}
=
\begin{pmatrix} 0 \\ 0 \\ 0\end{pmatrix} +
\begin{pmatrix} 0 \\ 0 \\ 0\end{pmatrix} +
\begin{pmatrix} 0 \\ 0 \\ 0\end{pmatrix}.
$$
\end{enumerate}
\end{examples}
В последнем примере мы показали, что пространство {\em не является}
прямой суммой данных подпространств, предъявив два различных разложения
для {\em нулевого} вектора. Предположим теперь, что у нас есть набор
подпространств в $V$, сумма которых равна $V$. Следующее предложение
показывает, что для доказательства того, что эта сумма прямая,
достаточно доказать, что $0$ единственным образом представляется
в виде суммы векторов из этих подпространств.
\begin{proposition}\label{prop:direct_sum_zero_criteria}
Пусть $U_1,\dots,U_n$~--- подпространства в $V$.
Пространство $V$ является прямой суммой этих подпространств тогда
и только тогда, когда выполняются два следующих условия:
\begin{enumerate}
\item $V = U_1 + \dots + U_n$;
\item если $0 = u_1 + \dots + u_n$ для некоторых $u_i\in U_i$, то
$u_1 = \dots = u_n = 0$.
\end{enumerate}
\end{proposition}
\begin{proof}
Предположим сначала, что $V = U_1\oplus\dots\oplus V_n$.
Тогда по определению $V = U_1 + \dots + U_n$.
Предположим, что $0 = u_1 + \dots + u_n$, где $u_1\in U_1,\dots,u_n\in U_n$.
Заметим, что также $0 = 0 + \dots + 0$, где $0\in U_1,\dots,0\in U_n$.
Из определения прямой суммы теперь следует, что
$u_1 = 0,\dots,u_n=0$.
Обратно, пусть выполняются два условия выше, и пусть $v\in V$.
Из первого условия следует, что мы можем записать
$v = u_1 + \dots + u_n$ для некоторых $u_1\in U_1,\dots,u_n\in U_n$.
Осталось доказать, что такое представление единственно.
Если $v = u'_1 + \dots + u'_n$ для $u'_1\in U_1,\dots,u'_n\in U_n$,
то $0 = v - v = (u_1 - u'_1) + \dots + (u_n - u'_n)$, где каждая
разность $u_i - u'_i$ лежит в $U_i$. Из второго условия теперь
следует, что $u_i - u'_i = 0$ для всех $i$, то есть,
что два данных разложения на самом деле совпадают.
\end{proof}
Приведем еще один полезный критерий разложения пространства
в прямую сумму {\em двух} подпространств.
\begin{proposition}\label{prop:direct-sum-criteria-for-2}
Пусть $U,W\leq V$. Пространство $V$ является прямой суммой $U$ и $W$
тогда и только тогда, когда $V = U+W$ и $U\cap W = \{0\}$.
\end{proposition}
\begin{proof}
Предположим, что $V = U\oplus W$. Тогда $V = U + W$ по определению
прямой суммы. Если $v\in U\cap W$, то можно записать
$0 = v + (-v)$, где $v\in U$, $(-v)\in W$. Из единственности представления
$0$ в виде суммы векторов из $U$ и $W$ теперь следует, что $v=0$.
Поэтому $U\cap W = \{0\}$.
Для доказательства обратного утверждения предположим, что $V = U+W$
и $U\cap W = \{0\}$. Пусть $0 = u+w$, где $u\in U$, $w\in W$.
По предложению~\ref{prop:direct_sum_zero_criteria}
нам достаточно доказать, что $u=w=0$. Но из $0=u+w$ следует,
что $u = -w\in W$, в то время $u\in U$. Значит,
$u\in U\cap W$, и потому $u=0$ и $w = -u = 0$, что и требовалось.
\end{proof}
\begin{remark}
Представьте три прямые $U_1$, $U_2$, $U_3$, проходящие через $0$
на эвклидовой плоскости $V$. Очевидно, что $V = U_1 + U_2 + U_3$
и $U_1\cap U_2 = U_2\cap U_3 = U_3\cap U_1 = \{0\}$.
Это значит, что {\em наивное} обобщение предложения~\ref{prop:direct-sum-criteria-for-2}
неверно.
\end{remark}
% 02.03.2015
\subsection{Линейная зависимость и независимость}
\literature{[F], гл. XII, \S~1, п. 2; [K2], гл. 1,
\S~1, п. 2, \S~2, п. 1; [KM], ч. 1, \S~2; [vdW], гл. 4, \S~19.}
\begin{definition}\label{dfn:linear-combination-and-span}
Пусть $V$~--- векторное пространство над $k$, $v_1,\dots,v_n\in V$ и
$a_1,\dots,a_n\in k$. Выражение вида
$v_1a_1+\dots+v_na_n$ называется \dfn{линейной
комбинацией}\index{линейная комбинация} элементов
$v_1,\dots,v_n$. Отметим, что иногда линейной
комбинацией называется сама формальная сумма
$v_1a_1+\dots+v_na_n$, а иногда~--- ее значение (то есть,
элемент $V$).
Множество всех линейных комбинаций векторов $v_1,\dots,v_m$
называется их \dfn{линейной оболочкой} и обозначается
через $\la v_1,\dots,v_m\ra$.
Полезно определить линейную оболочку и для бесконечного множества векторов:
пусть $S\subseteq V$~--- произвольное подмножество векторного
пространства $V$. Его линейной оболочкой называется
множество всех линейных комбинаций вида $v_1a_1 + \dots + v_na_n$,
где $v_1,\dots,v_n\in S$. Обозначение: $\la S\ra$.
\end{definition}
\begin{remark}
Нетрудно проверить, что линейная оболочка произвольного подмножества
в $V$ является векторным подпространством в $V$.
Заметим также, что линейная оболочка пустого подмножества
$\varnothing\subset V$ равна тривиальному подпространству $\{0\}$.
\end{remark}
\begin{definition}\label{dfn:spanning-set}
Пусть $V$~--- векторное пространство, $v_1,\dots,v_m\in V$.
Будем говорить, что $v_1,\dots,v_m$~--- \dfn{система образующих}
пространства $V$ (или что векторы $v_1,\dots,v_m$ \dfn{порождают}
пространство $V$, или что пространство $V$ \dfn{порождается}
векторами $v_1,\dots,v_m$), если их линейная оболочка совпадает с $V$:
$\la v_1,\dots,v_m\ra = V$.
Пространство называется \dfn{конечномерным}, если
оно порождается некоторым конечным набором векторов.
Можно определить систему образующих и в случае бесконечного набора
векторов: подмножество $S\subseteq V$ называется \dfn{системой образующих}
пространства $V$, если его линейная оболочка совпадает с $V$.
\end{definition}
\begin{examples}
\begin{enumerate}
\item Пространство столбцов $k^n$ конечномерно. Действительно, обозначим
через $e_i\in k^n$ столбец, у которого в $i$-ой позиции стоит $1$, а
в остальных~--- $0$. Нетрудно проверить, что векторы
$e_1,\dots,e_n$ порождают $k^n$.
\item Пространство многочленов $k[x]$ над полем $k$ не является конечномерным.
Действительно, предположим, что оно порождается некоторым конечным набором
многочленов. Пусть $m$~--- наибольшая из степеней этих многочленов.
Тогда все линейные комбинации элементов нашего набора являются многочленами
степени не выше $m$, и поэтому их множество не совпадает со всем
пространством $k[x]$.
\end{enumerate}
\end{examples}
\begin{definition}
Пространство, не являющееся конечномерным, называется
\dfn{бесконечномерным}. По определению это означает, что
{\em никакой} конечный набор элементов этого пространства не порождает его.
\end{definition}
Пусть $v_1,\dots,v_n\in V$, и пусть $v\in\la v_1,\dots,v_n\ra$. По определению
это означает, что существуют коэффициенты $a_1,\dots,a_n\in k$ такие,
что $v = v_1a_1 + \dots + v_na_n$.
Зададимся вопросом: единственен ли такой набор коэффициентов?
Пусть $b_1,\dots,b_n\in k$~--- еще один набор скаляров, для которого
$v = v_1b_1 + \dots + v_nb_n$.
Вычитая одно равенство из другого, получаем
$0 = v_1(b_1 - a_1) + \dots + v_n(b_n - a_n)$.
Мы записали $0$ как линейную комбинацию векторов $v_1,\dots,v_m$.
Если единственный способ сделать это тривиален (положить все коэффициенты
равными $0$), то $b_i = a_i$ для всех $i$, и поэтому наш набор коэффициентов
$a_1,\dots,a_n$ единственен.
\begin{definition}\label{def:linearly_independent}
Набор векторов $v_1,\dots,v_n\in V$ называется \dfn{линейно независимым},
если из равенства $v_1a_1 + \dots + v_na_n = 0$ следует, что
$a_1 = \dots = a_n$. Назовем выражение вида
$v_1a_1 + \dots + v_na_n$ \dfn{тривиальной линейной комбинацией},
если все ее коэффициенты равны нулю: $a_1 = \dots = a_n$.
Тогда векторы $v_1,\dots,v_n\in V$ линейно независимым если и только если
никакая их нетривиальная линейная комбинация не равна нулю.
В таком виде определение удобно обобщить на произвольное (не обязательно
конечное) множество векторов: подмножество $S\subseteq V$ назовем
\dfn{линейно независимым}, если из того, что некоторая линейная комбинация
векторов $S$ равна нулю, следует, что все ее коэффициенты равны нулю.
\end{definition}
\begin{definition}
Набор векторов $S\subseteq V$, который {\em не является} линейно независимым,
называется \dfn{линейно зависимым}. По определению это означает,
что {\em существует} некоторая нетривиальная линейная комбинация
векторов из $S$, которая равна нулю. Таким образом,
набор $v_1,\dots,v_n\in V$ \dfn{линейно зависим}, если существуют
коэффициенты $a_1,\dots,a_n\in k$, не все из которых равны нулю, такие,
что $v_1a_1 + \dots + v_na_n = 0$
\end{definition}
\begin{remark}
Еще одна полезная переформулировка: набор векторов линейно зависим тогда и только тогда,
когда некоторый вектор из него выражается через остальные (то есть,
лежит в линейной оболочке остальных). Действительно,
если набор $S$ линейно зависим, то существует нетривиальная линейная зависимость
вида $v_1a_1 + \dots + v_na_n = 0$. Нетривиальность означает, что некоторый
ее коэффициент отличен от нуля; без ограничения общности можно считать,
что $a_1\neq 0$. Но тогда $v_1 = -\frac{a_2}{a_1}v_2 - \dots - \frac{a_n}{a_1}v_n$.
Обратное следствие очевидно. Упражнение: проверьте,
что наша переформулировка работает и для <<вырожденных>> случаев
наборов из одного вектора.
\end{remark}
\begin{remark}
Рассуждение перед определением~\ref{def:linearly_independent} показывает,
что набор $v_1,\dots,v_n$ линейно независим тогда и только тогда,
когда у каждого вектора из линейной оболочки $\la v_1,\dots,v_n\ra$ есть
только одно представление в виде линейной комбинации векторов
$v_1,\dots,v_n$. Аналогично, линейная независимость
произвольного подмножества $S\subseteq V$ означает, что
у каждого вектора из линейной оболочки $\la S\ra$ есть только
одно представление в виде линейной комбинации векторов из $S$.
\end{remark}
\begin{examples}
\begin{enumerate}
\item Набор из трех векторов
$\begin{pmatrix}1 \\ 0 \\ 0 \\ 0\end{pmatrix},
\begin{pmatrix}0 \\ 0 \\ 1 \\ 0\end{pmatrix},
\begin{pmatrix}0 \\ 0 \\ 0 \\ 1\end{pmatrix} \in k^4$
линейно независим. Действительно, их линейная комбинация с коэффициентами
$a_1,a_2,a_3$ равна $\begin{pmatrix} a_1 \\ 0 \\ a_2 \\ a_3\end{pmatrix}$,
и из равенства нулю этого вектора следует, что $a_1 = a_2 = a_3$.
\item Пусть $n$~--- произвольное натуральное число.
Тогда набор $1,x,x^2,\dots,x^n$ линейно независим в пространстве
многочленов $k[x]$ (упражнение!). Более того, бесконечное множество
$\{1,x,x^2,\dots,x^n,\dots\}$ линейно независимо в $k[x]$.
\item Любое множество векторов, содержащее нулевой вектор, линейно зависимо.
\item Набор из одного вектора $v\in V$ линейно независим тогда и только тогда,
когда $v\neq 0$.
\item Набор из двух векторов $u,v\in V$ линейно независим тогда и только тогда,
когда ни один из них не получается из другого умножением на скаляр
(почему?).
\end{enumerate}
\end{examples}
\begin{lemma}\label{lemma_lnz_lz_up_down}
Пусть $V$~--- векторное пространство, $X\subseteq Y\subseteq V$. Если
$Y$ линейно независимо, то и $X$ линейно независимо. Если $X$ линейно
зависимо, то и $Y$ линейно зависимо.
\end{lemma}
\begin{proof}
Очевидно.
\end{proof}
Следующая лемма окажется чрезвычайно полезной. Она утверждает, что если
имеется линейно зависимый набор векторов, в котором первый вектор отличен
от нуля, то один из векторов набора выражается через предыдущие;
тогда его можно выбросить, не изменив линейную оболочку набора.
\begin{lemma}[о линейной зависимости]\label{lemma:linear-dependence-lemma}
Пусть набор $(v_1,\dots,v_n)$ векторов пространства $V$ линейно зависим, и
$v_1\neq 0$. Тогда существует индекс $j\in\{2,\dots,n\}$ такой, что
\begin{itemize}
\item $v_j\in\la v_1,\dots,v_{j-1}\ra$;
\item $\la v_1,\dots,v_n\ra = \la v_1,\dots,\widehat{v_j},\dots,v_n\ra$.
\end{itemize}
\end{lemma}
\begin{proof}
По условию найдутся $a_1,\dots,a_n\in k$ такие, что
$v_1a_1+\dots+v_na_n = 0$.
Пусть $j$~--- наибольший индекс, для которого $a_j\neq 0$.
Тогда
$$
v_j = - \frac{a_1}{a_j}v_1 - \dots - \frac{a_{j-1}}{a_j}v_{j-1},
$$
и первый пункт доказан. Очевидно, что
$\la v_1,\dots,\widehat{v_j},\dots,v_n\ra\subseteq\la v_1,\dots,v_n\ra$.
Покажем обратное включение. Пусть $u\in \la v_1,\dots,v_n\ra$.
Это означает, что $u = v_1c_1 + \dots + v_nc_n$ для некоторых
$c_1,\dots,c_n\in k$. Заменим в правой части
вектор $v_j$ на его выражение через $v_1,\dots,v_{j-1}$; получим,
что $u$ есть линейная комбинация векторов $v_1,\dots,\widehat{v_j},\dots,v_n$,
что и требовалось.
\end{proof}
\begin{corollary}\label{cor:lnz-becomes-lz}
Пусть набор векторов $v_1,\dots,v_n$ линейно независим, и $v\in V$.
Набор $v_1,\dots,v_n,v$ линейно зависим тогда и только тогда,
когда $v$ лежит в $\la v_1,\dots,v_n\ra$.
\end{corollary}
\begin{proof}
Если набор $v_1,\dots,v_n,v$ линейно зависим, то
(по лемме~\ref{lemma:linear-dependence-lemma}) некоторый вектор в нем
выражается через предыдущие. Это не может быть один из $v_1,\dots,v_n$
в силу линейной независимости $v_1,\dots,v_n$
\end{proof}
Следующая теорема играет ключевую роль в изучении линейно независимых
и порождающих систем.
\begin{theorem}\label{thm:independent-set-smaller-than-generating}
В конечномерном векторном пространстве количество элементов в любом линейно независимом
множестве не превосходит количества элементов в любом порождающем множестве.
Иными словами, если $u_1,\dots,u_m$ линейно независимые векторы пространства $V$,
и $\la v_1,\dots,v_n\ra = V$, то $m\leq n$.
\end{theorem}
\begin{proof}
Опишем процесс, на каждом шаге которого мы заменяем один
вектор из $\{v_i\}$ на один вектор из $\{u_j\}$.
Заметим сначала, что при добавлении к $v_1,\dots,v_n$ любого вектора
мы получим линейно зависимую систему. В частности, набор
$u_1,v_1,\dots,v_n$ линейно зависим. По лемме~\ref{lemma:linear-dependence-lemma}
мы можем выкинуть из этого набора один из векторов $v_1,\dots,v_n$
(скажем, $v_j$) так,
что оставшиеся векторы все еще будут порождать $V$.
Мы получили набор вида $u_1,v_1,\dots,\widehat{v_j},\dots,v_n$, порождающий $V$.
Снова заметим, что при добавлении к нему любого вектора мы получим линейно зависимую
систему. В частности, система $u_1,u_2,v_1,\dots,\widehat{v_j},\dots,v_n$ линейно зависима.
По лемме~\ref{lemma:linear-dependence-lemma} какой-то вектор в ней выражается через предыдущие.
Понятно, что это не $u_2$: это бы означало, что $u_1,u_2$ линейно зависимы.
Значит, это один из $v_i$. Лемма~\ref{lemma:linear-dependence-lemma} утверждает, что его
можно выбросить, и оставшиеся векторы все еще будут порождать $V$.
Теперь ясно, что мы можем продолжать этот процесс: на $i$-ом шаге у нас есть
порождающий набор $u_1,\dots,u_{i-1},v_{j_1},\dots$ длины $n$. Добавим к нему вектор $u_i$,
поместив его после $u_{i-1}$, и получим линейно зависимый набор
$u_1,\dots,u_i,v_{j_1},\dots$. По лемме~\ref{lemma:linear-dependence-lemma} некоторый
вектор из этого набора выражается через предыдущие. Это не может быть один из векторов
$u_1,\dots,u_i$ в силу линейной независимости набора $u_1,\dots,u_m$.
Поэтому это один из $v_i$; его можно выбросить и линейная оболочка набора не изменится.
Заметим теперь, что на каждом шаге мы заменяем один вектор из $v_i$ на один вектор
из $u_j$.
Если же $m>n$, это означает, что после $n$-го шага мы получили порождающий набор
вида $u_1,\dots,u_n$. Добавляя вектор $u_{n+1}$ мы должны получить линейно зависимый
набор, который в то же время является подмножеством линейно независимого набора
$u_1,\dots,u_m$, чего не может быть.
\end{proof}
\begin{proposition}\label{prop:subspace-of-fin-dim-is-fin-dim}
Любое подпространство конечномерного векторного пространства конечномерно.
\end{proposition}
\begin{proof}
Пусть $V$~--- конечномерное пространство, $U\leq V$. Построим цепочку
векторов $v_1,v_2,\dots$ следующим образом.
Заметим для начала, что если $U = \{0\}$, то $U$ конечномерно и доказывать
нечего. Если же $U\neq \{0\}$, выберем ненулевой вектор $v_1\in U$.
Очевидно, что $\la v_1\ra\subseteq U$.
Если на самом деле $\la v_1\ra = U$, то доказательство окончено. Иначе
можно выбрать $v_2\in U$ так, что $v_2\notin\la v_1\ra$.
Теперь мы получили набор $v_1,v_2$, и $\la v_1,v_2\ra\subseteq U$.
Продолжим процесс: на $i$-ом шаге у нас есть набор $v_1,\dots,v_{i-1}$ такой,
что $\la v_1,\dots,v_{i-1}\ra\subseteq U$. Если на самом деле имеет место равенство,
то $U$ конечномерно, что и требовалось. Если нет~--- выберем
$v_i\in U$ так, что $v_i\notin\la v_1,\dots,v_{i-1}$. Заметим, что
на каждом шаге мы получаем линейно независимый набор. Действительно,
если векторы $v_1,\dots,v_i$ линейно зависимы, то по лемме~\ref{lemma:linear-dependence-lemma}
какой-то из них выражается через предыдущие, что невозможно в силу выбора
каждого вектора.
Но по теореме~\ref{thm:independent-set-smaller-than-generating} длина
этого линейно независимого набора векторов пространства $V$ не превосходит
количества элементов в некотором (конечном) порождающем множестве (которое
существует по предположению теоремы). Поэтому описанный процесс не может
продолжаться бесконечно.
\end{proof}
\subsection{Базис}
\literature{[F], гл. XII, \S~1, п. 2; [K2], гл. 1,
\S~2, п. 1--2; [KM], ч. 1, \S~2; [vdW], гл. 4, \S~20.}
\begin{definition}
Пусть $V$~--- векторное пространство над полем $k$.
Набор векторов называется \dfn{базисом} пространства $V$,
если он одновременно линейно независим и порождает $V$.
\end{definition}
Неформально говоря, линейно независимые наборы векторов очень
<<маленькие>>, а системы образующих~--- <<большие>>. На стыке этих
двух плохо совместимых свойств возникает понятие базиса. Сейчас мы
сформулируем и докажем несколько эквивалентных переформулировок
понятия базиса.
\begin{theorem}\label{thm:basis-equiv}
Подмножество $\mc B\subseteq V$ является базисом тогда и только тогда,
когда любой вектор $V$ представляется в виде линейной комбинации
элементов из $\mc B$, причем единственным образом.
\end{theorem}
\begin{proof}
Если $\mc B$~--- базис, то по определению системы образующих любой
вектор из $V$ представляется в виде линейной комбинации элементов из
$\mc B$. Если таких представления у вектора $v\in V$ два, например,
$u_1a_1+\dots+u_na_n = v = u_1b_1+\dots+u_nb_n$ для
некоторых $u_i\in\mc B$, $a_i,b_i\in k$, то
$u_1(a_1-b_1)+\dots+u_n(a_n-b_n)=0$, и из линейной
независимости $\mc B$ следует, что все коэффициенты в этой линейной
комбинации равны $0$, откуда $a_i=b_i$ для всех $i$, и на
самом деле два представления вектора $v$ совпадают.
Обратно, если любой вектор $V$ представляется в виде линейной
комбинации элементов из $\mc B$ единственным образом, то $\mc B$
является системой образующих, и если она линейно зависима, то имеется
нетривиальная линейная комбинация
$v_1a_1+\dots+v_na_n=0=v_1\cdot 0+\dots+v_n\cdot 0$. Мы
получили два различных представления одного вектора $0\in V$ (они
различны, поскольку не все $a_i$ равны нулю)~--- противоречие.
\end{proof}
\begin{theorem}\label{thm:spanning-list-contains-basis}
Из любой конечной системы образующих пространства $V$ можно выбрать
базис.
\end{theorem}
\begin{proof}
Пусть $v_1,\dots,v_n$~--- система образующих пространства $V$.
Сейчас мы выбросим из нее некоторые векторы так, чтобы она стала базисом $V$.
А именно, последовательно для $j=1,2,\dots,n$, мы выбросим
$v_j$, если $v_j\in\la v_1,\dots,v_{j-1}\ra$. Заметим, что при каждом выбрасывании
линейная оболочка векторов не меняется, поскольку мы выбрасываем только такие векторы,
которые выражаются через предыдущие. Покажем, что полученный в итоге
набор векторов линейно независим. Если он линейно зависим, то
по лемме~\ref{lemma:linear-dependence-lemma} там найдется вектор, лежащий
в линейной оболочке предыдущих; но такой вектор был бы выкинут в процессе.
Заметим, что лемму~\ref{lemma:linear-dependence-lemma} можно применить, поскольку
первый вектор в нашем наборе обязан быть ненулевым: линейная оболочка пустого
набора равна $\{0\}$.
\end{proof}
% 16.03.2015
\begin{corollary}\label{cor:a-basis-exists}
В любом конечномерном пространстве есть базис.
\end{corollary}
\begin{proof}
По определению, в конечномерном пространстве есть конечная система образующих.
По теореме~\ref{thm:spanning-list-contains-basis} из нее можно выбрать базис.
\end{proof}
\begin{remark}
На самом деле, базис есть в любом пространстве, даже бесконечномерном.
Доказательство этого факта, однако, требует тонкого рассуждения
с использованием {\em аксиомы выбора}\index{аксиома выбора}
(см. замечание~\ref{remark:axiom-of-choice}
в недрах доказательства теоремы~\ref{thm:sur-inj-reformulations}),
поэтому мы воздержимся от него. В нашем курсе речь будет вестись только
о конечномерных пространствах; формулировки для бесконечномерных пространств
мы приводим только тогда, когда они в точности повторяют формулировки
в конечномерном случае.
\end{remark}
Следующая теорема в некотором смысле двойственна
теореме~\ref{thm:spanning-list-contains-basis}.
\begin{theorem}\label{thm:li-contained-in-a-basis}
Любой линейно независимый набор векторов в конечномерном пространстве
можно дополнить до базиса.
\end{theorem}
\begin{proof}
Пусть $u_1,\dots,u_m$~--- линейно независимая система векторов пространства $V$,
и пусть $v_1,\dots,v_n$~--- произвольная порождающая система пространства $V$
(она существует по определению конечномерности).
Положим для начала $\mc B = \{u_1,\dots,u_m\}$ и
проделаем следующую процедуру последовательно для $j=1,\dots,n$:
если вектор $v_j$ не лежит в линейной оболочке $\la\mc B\ra$ множества $\mc B$,
то добавим его к $\mc B$; а если лежит~--- пропустим. Заметим, что
после каждого такого шага множество $\mc B$ все еще линейно независимо
(следствие~\ref{cor:lnz-becomes-lz}). После $n$-го шага мы получим,
что {\em каждый} из векторов $v_1,\dots,v_n$ лежит в $\la\mc B\ra$.
Но тогда и любой вектор, выражающийся через $v_1,\dots,v_n$, лежит
в $\la\mc B\ra$. Поэтому $\la\mc B\ra = V$.
\end{proof}
В качестве применения теоремы~\ref{thm:li-contained-in-a-basis} приведем следующий
полезный результат.
\begin{proposition}
Пусть $V$~--- конечномерное пространство, $U\leq V$. Тогда существует
подпространство $W\leq V$ такое, что $U\oplus W = V$.
\end{proposition}
\begin{proof}
По предложению~\ref{prop:subspace-of-fin-dim-is-fin-dim} пространство $U$
конечномерно. По следствию~\ref{cor:a-basis-exists} в нем есть базис,
скажем, $u_1,\dots,u_m$. Система векторов $u_1,\dots,u_m$ в пространстве
$V$ линейно независима; по теореме~\ref{thm:li-contained-in-a-basis}
ее можно дополнить до базиса. Этот базис имеет вид
$u_1,\dots,u_m,w_1,\dots,w_n$ для некоторых векторов $w_1,\dots,w_n\in V$.
Пусть $W = \la w_1,\dots,w_n\ra$. Покажем, что $U\oplus W = V$.
По предложению~\ref{prop:direct-sum-criteria-for-2} для этого достаточно
проверить, что $U + W = V$ и $U\cap W = \{0\}$.
Покажем сначала, что $U + W = V$.
Пусть $v\in V$; поскольку $u_1,\dots,u_m,w_1,\dots,w_n$~--- базис $V$,
можно записать
$v = u_1a_1 + \dots + u_ma_m + w_1b_1 + \dots + w_nb_n$
для некоторых скаляров $a_i,b_j\in k$.
Обозначим $u = u_1a_1 + \dots + u_ma_m$, $w = w_1b_1 + \dots + w_nb_n$;
тогда $v = u+w$, причем $u\in U$, $w\in W$.
Пусть теперь $v\in U\cap W$. Тогда существуют скаляры $a_i,b_j\in k$
такие, что $v = u_1a_1 + \dots + u_ma_m = w_1b_1 + \dots + w_nb_n$.
Но тогда $u_1a_1 + \dots + u_ma_m - w_1b_1 - \dots - w_nb_n = 0$~---
линейная комбинация, равная нулю. Из линейной независимости
нашего набора следует, что все ее коэффициенты равны нулю,
а потому и $v=0$.
\end{proof}
\subsection{Размерность}
\literature{[F], гл. XII, \S~1, п. 2; [K2], гл. 1,
\S~2, п. 1--2; [KM], ч. 1, \S~2; [vdW], гл. 4, \S~19.}
Мы говорили о {\em конечномерных} пространствах, не зная, что такое
{\em размерность}. Как же определить размерность векторного пространства?
Интуитивно понятно, что размерность пространства столбцов $k^n$ должна равняться $n$.
Заметим, что столбцы
$$
\begin{pmatrix}
1 \\ 0 \\ \vdots \\ 0
\end{pmatrix},
\begin{pmatrix}
0 \\ 1 \\ \vdots \\ 0
\end{pmatrix},\dots,
\begin{pmatrix}
0 \\ 0 \\ \vdots \\ 1
\end{pmatrix}
$$
образуют базис в $k^n$. Поэтому хочется определить размерность пространства $V$
как количество элементов в базисе $V$. Но возникает проблема: в {\em каком} базисе?
Конечномерное пространство $V$ может иметь много различных базисов,
и могло бы оказаться, что у него есть базисы разной длины.
Следующая теорема утверждает, что этого не происходит.
\begin{theorem}\label{thm:bases-have-equal-cardinality}
Пусть $V$~--- конечномерное векторное пространство. В любых двух
базисах $V$ поровну элементов.
\end{theorem}
\begin{proof}
Пусть $\mc B_1$, $\mc B_2$~--- два [конечных] базиса $V$.
Тогда $\mc B_1$~--- линейно независимая система, а $\mc B_2$~--- порождающая
система; по теореме~\ref{thm:independent-set-smaller-than-generating}
количество элементов в $\mc B_1$ не больше, чем в $\mc B_2$.
С другой стороны, $\mc B_2$~--- линейно независимая система,
а $\mc B_1$~--- порождающая, поэтому количество элементов
в $\mc B_2$ не больше, чем в $\mc B_1$. Поэтому в них поровну элементов.
\end{proof}
\begin{definition}
Пусть $V$~--- конечномерное векторное пространство над полем
$k$. Количество элементов в любом его базисе называется
\dfn{размерностью}\index{размерность} пространства $V$ и обозначается
через
$\dim_kV$ или просто через $\dim V$. Если же в $V$ нет конечной
системы образующих, то любой
базис $V$ содержит бесконечное число элементов; в этом случае мы пишем
$\dim_kV=\infty$ и говорим, что пространство $V$
\dfn{бесконечномерно}\index{векторное пространство!бесконечномерное}.
\end{definition}
\begin{proposition}\label{prop:dimension_is_monotonic}
Пусть $V$~--- конечномерное векторное пространство над $k$ и
$U<V$. Тогда $\dim_kU\leq\dim_kV$. Более того, $\dim_kU=\dim_kV$ тогда
и только тогда, когда $U=V$.
\end{proposition}
\begin{proof}
Пусть $n=\dim_kV$ и $\mc B$~--- некоторый базис $U$. Заметим, что
$\mc B$~--- линейно независимая система векторов в пространстве
$V$. По теореме~\ref{thm:li-contained-in-a-basis} ее можно дополнить
до базиса $V$. Значит, $|\mc B| = \dim_k U$ не превосходит размерности $V$.
Если при этом $\dim_kU = \dim_kV$, то это дополнение должно быть того
же размера, что и само множество $\mc B$. Это означает,
что $\mc B$ является базисом всего пространства $V$,
значит, $U = \la\mc B\ra = V$. Обратное очевидно: если $U = V$,
то $\dim_k U = \dim_k V$.
\end{proof}
Представим, что перед нами [конечный] набор векторов
пространства $V$. Как показать, что он образует базис?
Можно действовать по определению и проверить два факта:
\begin{itemize}
\item этот набор линейно независим;
\item этот набор порождает $V$.
\end{itemize}
Оказывается, из теорем~\ref{thm:spanning-list-contains-basis}
и~\ref{thm:li-contained-in-a-basis}
(вместе с теоремой~\ref{thm:bases-have-equal-cardinality}) следует, что проверку любого
одного из этих пунктов можно опустить, если мы уже знаем, что
в нашем наборе нужное количество элементов: столько, какова
размерность пространства $V$. Разумеется, для этого мы должны
заранее знать эту размерность.
\begin{proposition}\label{prop:right-dim-implies-basis}
Пусть $V$~--- конечномерное векторное пространство.
Любая система образующих $V$ длины $\dim(V)$ является базисом $V$.
Любая линейно независимая система длины $\dim(V)$ является
базисом $V$.
\end{proposition}
\begin{proof}
По теореме~\ref{thm:spanning-list-contains-basis} из
системы образующих можно выбрать базис. Поскольку этот базис
должен иметь длину $\dim(V)$, как и исходная система, то
она сама является базисом.
Аналогично, по теореме~\ref{thm:li-contained-in-a-basis} любую
линейно независимую систему можно дополнить до базиса.
Поскольку в ней уже
столько же элементов, сколько в любом базисе, это дополнение
должно быть пустым. Значит, она сама является базисом.
\end{proof}
Следующая теорема выражает размерность суммы подпространств
через размерности самих подпространств и их пересечения.
\begin{theorem}[Грассмана]
Пусть $U_1,U_2\leq V$. Тогда
$$
\dim(U_1+U_2) = \dim(U_1) + \dim(U_2) - \dim(U_1\cap U_2).
$$
\end{theorem}
\begin{proof}
Пусть $\{u_1,\dots,u_m\}$~--- произвольный базис пространства
$U_1\cap U_2$ (и, таким образом, $m = \dim(U_1\cap U_2$).
Система $\{u_1,\dots,u_m\}$ линейно независима как набор
векторов в $U_1$, и поэтому ее можно дополнить до базиса:
пусть $\{u_1,\dots,u_m,v_1\,dots,v_l\}$~--- базис $U_1$.
Аналогично, система $\{u_1,\dots,u_m\}$ линейно независима
как набор векторов в $U_2$, и поэтому ее можно дополнить
до базиса пространства $U_2$: пусть
$\{u_1,\dots,u_m,w_1,\dots,w_n\}$~--- этот базис.
Покажем, что
набор $\mc B = \{u_1,\dots,u_m,v_1,\dots,v_l,w_1,\dots,w_n\}$
является базисом пространства $U_1+U_2$.
Это система образующих: действительно, любой вектор в $U_1+U_2$
по определению есть сумма вектора из $U_1$ и вектора из $U_2$,
и каждый из этих двух векторов есть линейная комбинация
векторов из $\mc B$. Поэтому $\la\mc B\ra$ содержит $U_1+U_2$;
с другой стороны, все векторы из $\mc B$ лежат в $U_1+U_2$,
поэтому на самом деле $\la\mc B\ra = U_1 + U_2$.
Осталось проверить, что множество $\mc B$ линейно независимо.
Предположим, что $u_1a_1+\dots+u_ma_m + v_1b_1+\dots+v_lb_l +
w_1c_1+\dots +w_nc_n = 0$. Перепишем это равенство:
$$
w_1c_1+\dots+w_nc_n = -u_1a_1-\dots-u_ma_m - v_1b_1-\dots-v_lb_l.
$$
Заметим, что левая часть лежит в $U_2$, а правая лежит в $U_1$.
Поэтому $w_1c_1+\dots+w_nc_n\in U_1\cap U_2$. Мы знаем базис
в $U_1\cap U_2$~--- это $\{u_1,\dots,u_m\}$. Поэтому
$$
w_1c_1 + \dots + w_nc_n = u_1d_1+\dots+u_md_m.
$$
Но набор векторов $\{u_1,\dots,u_m,w_1,\dots,w_n\}$
линейно независим; поэтому из последнего равенства следует,
что все коэффициенты в нем равны 0.
В частности, $c_1=\dots=c_n=0$.
Поэтому наша исходная линейная зависимость имеет вид
$$
u_1a_1+\dots+u_ma_m + v_1b_1+\dots+v_lb_l = 0.
$$
Но набор $\{u_1,\dots,u_m,v_1,\dots,v_l\}$ также линейно
независим, и потому $a_1 = \dots = a_m = v_1 = \dots = v_l = 0$;
значит, исходная линейная комбинация тривиальна,
что и требовалось.
\end{proof}
\begin{corollary}\label{cor:direct-sum-dimension}
Если $V = U_1\oplus U_2$, то $\dim(V) = \dim(U_1)+\dim(U_2)$.
\end{corollary}
\begin{proof}
Очевидно.
\end{proof}
\begin{proposition}
Пусть пространство $V$ конечномерно, и $U_1,\dots,U_m$~--- его
подпространства такие, что $V = U_1 + \dots + U_m$
и $\dim(V) = \dim(U_1) + \dots + \dim(U_m)$.
Тогда $V = U_1\oplus \dots \oplus U_m$.
\end{proposition}
\begin{proof}
Выберем базис в каждом подпространстве $U_i$. Объединение этих
базисов является порождающей системой векторов в $V$
(поскольку $V$ является суммой $U_i$), а их количество
равно размерности $V$. По предложению~\ref{prop:right-dim-implies-basis}
он является базисом в $V$. Обозначим этот базис через $\mc B$.
По определению прямой суммы нам нужно доказать, что если
$0 = u_1+\dots+u_m$ для некоторых $u_i\in U_i$, то $u_1=\dots=u_m=0$.
Разложим каждый вектор $u_i$ по выбранному базису пространства
$U_i$~--- мы получим некоторую линейную комбинацию элементов
базиса $\mc B$. Из ее равенства нулю следует, что все ее коэффициенты
равны нулю, а потому и все $u_i$ равны нулю, что и требовалось.
\end{proof}