第一章 向量空间
文章目录
本章将回顾本书会用到的向量空间的方方面面. 由于篇幅限制, 这里仅作简短介绍. 建议想要获取对向量空间更加全面和详细阐释的读者参阅高等线性代数和泛函分析书籍.
1. 定义
实数域 R \mathbb{R} R上的向量空间 (vector space) E \mathbb{E} E为满足如下条件的非空集合.
-
E
\mathbb{E}
E上有代数运算“
+
+
+”. 关于“
+
+
+”,
E
\mathbb{E}
E构成Abel群. 也即对
∀
x
,
y
∈
E
\forall \mathbf{x},\mathbf{y}\in\mathbb{E}
∀x,y∈E,
x
+
y
∈
R
\mathbf{x}+\mathbf{y}\in\mathbb{R}
x+y∈R, 称作
x
\mathbf{x}
x和
y
\mathbf{y}
y的和, 同时有
a. (交换律) x + y = y + x , ∀ x , y ∈ E \mathbf{x}+\mathbf{y}=\mathbf{y}+\mathbf{x},\quad\forall \mathbf{x},\mathbf{y}\in\mathbb{E} x+y=y+x,∀x,y∈E;
b. (结合律) x + ( y + z ) = ( x + y ) + z , ∀ x , y , z ∈ E \mathbf{x}+(\mathbf{y}+\mathbf{z})=(\mathbf{x}+\mathbf{y})+\mathbf{z},\quad\forall \mathbf{x},\mathbf{y},\mathbf{z}\in\mathbb{E} x+(y+z)=(x+y)+z,∀x,y,z∈E;
c. (零元的存在性) 存在(唯一)向量 0 \mathbf{0} 0使得 x + 0 = x , ∀ x ∈ E \mathbf{x}+\mathbf{0}=\mathbf{x},\forall \mathbf{x}\in\mathbb{E} x+0=x,∀x∈E. 我们称该向量 0 \mathbf{0} 0为零向量;
d. (负元的存在性) 对 ∀ x ∈ E \forall \mathbf{x}\in\mathbb{E} ∀x∈E, 存在(唯一)向量 − x ∈ E -\mathbf{x}\in\mathbb{E} −x∈E, 使得 x + ( − x ) = 0 \mathbf{x}+(-\mathbf{x})=\mathbf{0} x+(−x)=0. - 定义数乘: 对
∀
α
∈
R
,
x
∈
E
\forall\alpha\in\mathbb{R},\mathbf{x}\in\mathbb{E}
∀α∈R,x∈E, 有
α
x
∈
E
\alpha \mathbf{x}\in\mathbb{E}
αx∈E, 且满足以下性质:
a. (数乘结合律) α ( β x ) = ( α β ) x , ∀ α , β ∈ R , x ∈ E \alpha(\beta \mathbf{x})=(\alpha\beta)\mathbf{x},\quad\forall\alpha,\beta\in\mathbb{R},\mathbf{x}\in\mathbb{E} α(βx)=(αβ)x,∀α,β∈R,x∈E;
b. 1 x = x , ∀ x ∈ E 1\mathbf{x}=\mathbf{x},\quad\forall \mathbf{x}\in\mathbb{E} 1x=x,∀x∈E.1 - 关于加法和数乘的分配律:
a. α ( x + y ) = α x + α y , ∀ α ∈ R , x , y ∈ E \alpha(\mathbf{x}+\mathbf{y})=\alpha \mathbf{x}+\alpha \mathbf{y},\quad\forall\alpha\in\mathbb{R},\mathbf{x},\mathbf{y}\in\mathbb{E} α(x+y)=αx+αy,∀α∈R,x,y∈E;
b. ( α + β ) x = α x + β x , ∀ α , β ∈ R , x ∈ R (\alpha+\beta)\mathbf{x}=\alpha \mathbf{x}+\beta \mathbf{x},\quad\forall\alpha,\beta\in\mathbb{R},\mathbf{x}\in\mathbb{R} (α+β)x=αx+βx,∀α,β∈R,x∈R.
2. 维数
- 我们称向量空间 E \mathbb{E} E中的向量集 { v 1 , v 2 , … , v n } \{\mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_n\} {v1,v2,…,vn}线性无关 (linearly independent), 若线性系统 ∑ i = 1 n α i v i = 0 \sum\limits_{i=1}^n\alpha_i\mathbf{v}_i=\mathbf{0} i=1∑nαivi=0成立当且仅当 α 1 = α 2 = ⋯ = α n = 0 \alpha_1=\alpha_2=\cdots=\alpha_n=0 α1=α2=⋯=αn=0;
- 我们称向量集 { v 1 , v 2 , … , v n } \{\mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_n\} {v1,v2,…,vn}张成 (span) E \mathbb{E} E, 若对 ∀ x ∈ E \forall \mathbf{x}\in\mathbb{E} ∀x∈E, 存在 β 1 , β 2 , … , β n ∈ R \beta_1,\beta_2,\ldots,\beta_n\in\mathbb{R} β1,β2,…,βn∈R使得 x = ∑ i = 1 n β i v i . \mathbf{x}=\sum\limits_{i=1}^n\beta_i\mathbf{v}_i. x=i=1∑nβivi.
- 我们称线性无关且张成向量空间 E \mathbb{E} E的一组向量为 E \mathbb{E} E的一组基. 易知不同基内, 向量数相等. 我们称这个数目为 E \mathbb{E} E的维数 (dimension), 记为 dim ( E ) \dim(\mathbb{E}) dim(E). 本书中, 我们仅讨论有限维向量空间 (finite dimensional vector space).
3. 范数
向量空间 E \mathbb{E} E上的范数 (norm) ∥ ⋅ ∥ \Vert\cdot\Vert ∥⋅∥是 E \mathbb{E} E上的泛函 ∥ ⋅ ∥ : E → R \Vert\cdot\Vert:\mathbb{E}\to\mathbb{R} ∥⋅∥:E→R, 且满足以下性质:
- (非负性) ∥ x ∥ ≥ 0 , ∀ x ∈ E \Vert \mathbf{x}\Vert\ge0,\forall \mathbf{x}\in\mathbb{E} ∥x∥≥0,∀x∈E; ∥ x ∥ = 0 \Vert \mathbf{x}\Vert=0 ∥x∥=0当且仅当 x = 0 \mathbf{x}=\mathbf{0} x=0;
- (正齐次性) ∥ λ x ∥ = ∣ λ ∣ ⋅ ∥ x ∥ , ∀ x ∈ E , λ ∈ R \Vert\lambda \mathbf{x}\Vert=|\lambda|\cdot\Vert \mathbf{x}\Vert,\forall \mathbf{x}\in\mathbb{E},\lambda\in\mathbb{R} ∥λx∥=∣λ∣⋅∥x∥,∀x∈E,λ∈R;
- (三角不等式性) ∥ x + y ∥ ≤ ∥ x ∥ + ∥ y ∥ , ∀ x , y ∈ E \Vert \mathbf{x}+\mathbf{y}\Vert\le\Vert \mathbf{x}\Vert+\Vert \mathbf{y}\Vert,\forall \mathbf{x},\mathbf{y}\in\mathbb{E} ∥x+y∥≤∥x∥+∥y∥,∀x,y∈E.
有时, 我们以 ∥ ⋅ ∥ E \Vert\cdot\Vert_{\mathbb{E}} ∥⋅∥E表示 E \mathbb{E} E上的范数以强调对空间的依赖性.2 我们称具有范数的向量空间为赋范空间 (normed vector space) . 利用范数, 我们定义以 c ∈ E \mathbf{c}\in\mathbb{E} c∈E为中心, r > 0 r>0 r>0为半径的开球 B ( c , r ) B(\mathbf{c},r) B(c,r)为 B ( c , r ) = { x ∈ E : ∥ x − c ∥ < r } . B(\mathbf{c},r)=\{\mathbf{x}\in\mathbb{E}:\Vert \mathbf{x}-\mathbf{c}\Vert<r\}. B(c,r)={x∈E:∥x−c∥<r}.相应地, 闭球 B [ c , r ] B[\mathbf{c},r] B[c,r]为 B [ c , r ] = { x ∈ E : ∥ x − c ∥ ≤ r } . B[\mathbf{c},r]=\{\mathbf{x}\in\mathbb{E}:\Vert \mathbf{x}-\mathbf{c}\Vert\le r\}. B[c,r]={x∈E:∥x−c∥≤r}.有时我们以 B ∥ ⋅ ∥ [ c , r ] B_{\Vert\cdot\Vert}[\mathbf{c},r] B∥⋅∥[c,r]或 B ∥ ⋅ ∥ ( c , r ) B_{\Vert\cdot\Vert}(\mathbf{c},r) B∥⋅∥(c,r)来明确使用的范数.
4. 内积
实向量空间 E \mathbb{E} E的内积可以视作是由 E × E \mathbb{E}\times\mathbb{E} E×E到 R \mathbb{R} R的泛函. 具体地, 使用记号 ⟨ ⋅ , ⋅ ⟩ \langle\cdot,\cdot\rangle ⟨⋅,⋅⟩, 将 E × E \mathbb{E}\times\mathbb{E} E×E中的元素 ( x , y ) (\mathbf{x},\mathbf{y}) (x,y)映射成 R \mathbb{R} R中的 ⟨ x , y ⟩ \langle \mathbf{x},\mathbf{y}\rangle ⟨x,y⟩. ⟨ ⋅ , ⋅ ⟩ \langle\cdot,\cdot\rangle ⟨⋅,⋅⟩满足如下性质:
- (可交换性) ⟨ x , y ⟩ = ⟨ y , x ⟩ , ∀ x , y ∈ E \langle \mathbf{x},\mathbf{y}\rangle=\langle \mathbf{y},\mathbf{x}\rangle,\quad\forall \mathbf{x},\mathbf{y}\in\mathbb{E} ⟨x,y⟩=⟨y,x⟩,∀x,y∈E;
- (线性性) ( α 1 x 1 + α 2 x 2 , y ⟩ = α 1 ⟨ x 1 , y ⟩ + α 2 ⟨ x 2 , y ⟩ , ∀ α 1 , α 2 ∈ R , x 1 , x 2 , y ∈ E (\alpha_1\mathbf{x}_1+\alpha_2\mathbf{x}_2,\mathbf{y}\rangle=\alpha_1\langle \mathbf{x}_1,\mathbf{y}\rangle+\alpha_2\langle \mathbf{x}_2,\mathbf{y}\rangle,\quad\forall\alpha_1,\alpha_2\in\mathbb{R},\mathbf{x}_1,\mathbf{x}_2,\mathbf{y}\in\mathbb{E} (α1x1+α2x2,y⟩=α1⟨x1,y⟩+α2⟨x2,y⟩,∀α1,α2∈R,x1,x2,y∈E;
- (正定性) ⟨ x , x ⟩ ≥ 0 , ∀ x ∈ E \langle \mathbf{x},\mathbf{x}\rangle\ge0,\quad\forall \mathbf{x}\in\mathbb{E} ⟨x,x⟩≥0,∀x∈E; ⟨ x , x ⟩ = 0 \langle \mathbf{x},\mathbf{x}\rangle=0 ⟨x,x⟩=0当且仅当 x = 0 \mathbf{x}=\mathbf{0} x=0.
我们称具有内积的向量空间为内积空间 (inner product vector space) .3
5. 仿射集和凸集
- 给定一实向量空间 E \mathbb{E} E, 我们称集合 S ⊂ E S\subset\mathbb{E} S⊂E是仿射集 (affine set), 若 ∀ x , y ∈ S , λ ∈ R \forall \mathbf{x},\mathbf{y}\in S,\lambda\in\mathbb{R} ∀x,y∈S,λ∈R, 有 λ x + ( 1 − λ ) y ∈ S \lambda \mathbf{x}+(1-\lambda)\mathbf{y}\in S λx+(1−λ)y∈S. 也即 S S S中的任意两点所在的直线上的点均在 S S S中. 对于 S ⊂ E S\subset \mathbb{E} S⊂E, S S S的仿射包 (affine hull) 为包含 S S S的所有仿射集的交, 记作 a f f ( S ) \mathrm{aff}(S) aff(S). 显然, a f f ( S ) \mathrm{aff}(S) aff(S)是包含 S S S的最小仿射集. E \mathbb{E} E中的超平面 (hyperplane) 定义为 H a , b = { x ∈ E : ⟨ a , x ⟩ = b } , H_{\mathbf{a},b}=\{\mathbf{x}\in\mathbb{E}:\langle\mathbf{a},\mathbf{x}\rangle=b\}, Ha,b={x∈E:⟨a,x⟩=b},其中 a ∈ E , b ∈ R \mathbb{a}\in\mathbb{E},b\in\mathbb{R} a∈E,b∈R. 易证任意一个超平面都是仿射集.
- 我们称集合
C
⊂
E
C\subset\mathbb{E}
C⊂E是凸集 (convex set), 若对
∀
x
,
y
∈
C
,
λ
∈
[
0
,
1
]
\forall \mathbf{x},\mathbf{y}\in C,\lambda\in[0,1]
∀x,y∈C,λ∈[0,1], 有
λ
x
+
(
1
−
λ
)
y
∈
C
\lambda\mathbf{x}+(1-\lambda)\mathbf{y}\in C
λx+(1−λ)y∈C. 由定义可知, 仿射集一定是凸集; 不论范数的选取, 开球和闭球一定是凸集.
给定 x , y ∈ E \mathbf{x},\mathbf{y}\in\mathbb{E} x,y∈E, x \mathbf{x} x和 y \mathbf{y} y之间的闭线段 (closed line segment) [ x , y ] [\mathbf{x},\mathbf{y}] [x,y]定义为 [ x , y ] = { α x + ( 1 − α ) y : α ∈ [ 0 , 1 ] } . [\mathbf{x},\mathbf{y}]=\{\alpha\mathbf{x}+(1-\alpha)\mathbf{y}:\alpha\in[0,1]\}. [x,y]={αx+(1−α)y:α∈[0,1]}.对应地, 也有开线段 ( x , y ) = { α x + ( 1 − α ) y : α ∈ ( 0 , 1 ) } . (\mathbf{x},\mathbf{y})=\{\alpha\mathbf{x}+(1-\alpha)\mathbf{y}:\alpha\in(0,1)\}. (x,y)={αx+(1−α)y:α∈(0,1)}.当 x = y \mathbf{x}=\mathbf{y} x=y, 有 ( x , y ) = ∅ (\mathbf{x},\mathbf{y})=\emptyset (x,y)=∅. 闭线段和开线段都是凸集. 另一个凸集的例子是半空间. 它形如 H a , b − = { x ∈ E : ⟨ a , x ⟩ ≤ b } , H_{\mathbf{a},b}^-=\{\mathbf{x}\in\mathbb{E}:\langle\mathbf{a},\mathbf{x}\rangle\le b\}, Ha,b−={x∈E:⟨a,x⟩≤b},这里 a ∈ E , b ∈ R \mathbf{a}\in\mathbb{E},b\in\mathbb{R} a∈E,b∈R.
6. 欧式空间
我们称定义了内积 ⟨ ⋅ , ⋅ ⟩ \langle\cdot,\cdot\rangle ⟨⋅,⋅⟩的有限维实赋范向量空间为欧式空间 (Euclidean space). 其中每个元素 x \mathbf{x} x的范数定义为 ∥ x ∥ = ⟨ x , x ⟩ \Vert\mathbf{x}\Vert=\sqrt{\langle\mathbf{x},\mathbf{x}\rangle} ∥x∥=⟨x,x⟩ (即内积诱导 (induced) 的范数). 我们称这样的范数为欧式范数 (Euclidean norm).
7. 实空间 R n \mathbb{R}^n Rn
所有 n n n( ∈ N + \in\mathbb{N}_+ ∈N+) 维实列向量构成实空间 R n \mathbb{R}^n Rn, 其中“ + + +”运算定义为 ( x 1 x 2 ⋮ x n ) + ( y 1 y 2 ⋮ y n ) = ( x 1 + y 1 x 2 + y 2 ⋮ x n + y n ) , \begin{pmatrix}x_1\\x_2\\\vdots\\x_n\end{pmatrix}+\begin{pmatrix}y_1\\y_2\\\vdots\\y_n\end{pmatrix}=\begin{pmatrix}x_1+y_1\\x_2+y_2\\\vdots\\x_n+y_n\end{pmatrix}, ⎝⎜⎜⎜⎛x1x2⋮xn⎠⎟⎟⎟⎞+⎝⎜⎜⎜⎛y1y2⋮yn⎠⎟⎟⎟⎞=⎝⎜⎜⎜⎛x1+y1x2+y2⋮xn+yn⎠⎟⎟⎟⎞,数乘运算定义为 λ ( x 1 x 2 ⋮ x n ) = ( λ x 1 λ x 2 ⋮ λ x n ) , \lambda\begin{pmatrix}x_1\\x_2\\\vdots\\x_n\end{pmatrix}=\begin{pmatrix}\lambda x_1\\\lambda x_2\\\vdots\\\lambda x_n\end{pmatrix}, λ⎝⎜⎜⎜⎛x1x2⋮xn⎠⎟⎟⎟⎞=⎝⎜⎜⎜⎛λx1λx2⋮λxn⎠⎟⎟⎟⎞,这里 x 1 , x 2 , … , x n , λ ∈ R x_1,x_2,\ldots,x_n,\lambda\in\mathbb{R} x1,x2,…,xn,λ∈R. 我们记 R n \mathbb{R}^n Rn的标准基为 e 1 , e 2 , … , e n \mathbf{e}_1,\mathbf{e}_2,\ldots,\mathbf{e}_n e1,e2,…,en, 其中 e i \mathbf{e}_i ei是只有第 i i i个分量为1的 n n n维列向量. 全1向量和零向量则分别用 e , 0 \mathbf{e},\mathbf{0} e,0表示.
- R n \mathbb{R}^n Rn中最常用的内积为点积 (dot product)4, 定义为 ⟨ x , y ⟩ = ∑ i = 1 n x i y i . \langle\mathbf{x},\mathbf{y}\rangle=\sum\limits_{i=1}^nx_iy_i. ⟨x,y⟩=i=1∑nxiyi.在 R n \mathbb{R}^n Rn中我们自然也可以定义其他内积. 例如 Q \mathbf{Q} Q-内积, 定义为 ⟨ x , y ⟩ Q = x T Q y , \langle\mathbf{x},\mathbf{y}\rangle_{\mathbf{Q}}=\mathbf{x}^T\mathbf{Q}\mathbf{y}, ⟨x,y⟩Q=xTQy,其中 Q \mathbf{Q} Q为 n × n n\times n n×n正定矩阵. 显然 Q \mathbf{Q} Q-内积在 Q = I \mathbf{Q}=\mathbf{I} Q=I时, 就是点积.
- 相应地, R n \mathbb{R}^n Rn中定义的欧式范数有 ℓ 2 \ell_2 ℓ2-范数以及 Q \mathbf{Q} Q-范数, 分别定义为 ∥ x ∥ 2 = ⟨ x , x ⟩ = ∑ i = 1 n x i 2 , ∥ x ∥ Q = x T Q x . \Vert\mathbf{x}\Vert_2=\sqrt{\langle\mathbf{x},\mathbf{x}\rangle}=\sqrt{\sum\limits_{i=1}^nx_i^2},\quad \Vert\mathbf{x}\Vert_{\mathbf{Q}}=\sqrt{\mathbf{x}^T\mathbf{Q}\mathbf{x}}. ∥x∥2=⟨x,x⟩=i=1∑nxi2,∥x∥Q=xTQx.我们还可以在 R n \mathbb{R}^n Rn上定义不是欧式范数的范数, 例如给定 p ≥ 1 p\ge1 p≥1, 我们有 ℓ 2 \ell_2 ℓ2-范数的推广 ℓ p \ell_p ℓp-范数: ∥ x ∥ p = ∑ i = 1 n ∣ x i ∣ p p . \Vert\mathbf{x}\Vert_p=\sqrt[p]{\sum\limits_{i=1}^n|x_i|^p}. ∥x∥p=pi=1∑n∣xi∣p.我们称赋以 ℓ p \ell_p ℓp-范数的向量空间为 ℓ p \ell_p ℓp-空间5. 特别地, R n \mathbb{R}^n Rn上的 ℓ 1 \ell_1 ℓ1-范数定义为 ∥ x ∥ 1 = ∑ i = 1 n ∣ x i ∣ , \Vert\mathbf{x}\Vert_1=\sum\limits_{i=1}^n|x_i|, ∥x∥1=i=1∑n∣xi∣, ℓ ∞ \ell_{\infty} ℓ∞-范数定义为 ∥ x ∥ ∞ = max i = 1 , 2 , … , n ∣ x i ∣ . \Vert\mathbf{x}\Vert_{\infty}=\max_{i=1,2,\ldots,n}|x_i|. ∥x∥∞=i=1,2,…,nmax∣xi∣.
7.1 R n \mathbb{R}^n Rn中的特殊集合
- 非负象限 (nonnegative orthant) 与正象限 (positive orthant): R + n = { ( x 1 , x 2 , … , x n ) T : x 1 , x 2 , … , x n ≥ 0 } , \mathbb{R}_+^n=\{(x_1,x_2,\ldots,x_n)^T:x_1,x_2,\ldots,x_n\ge0\}, R+n={(x1,x2,…,xn)T:x1,x2,…,xn≥0}, R + + n = { ( x 1 , x 2 , … , x n ) T : x 1 , x 2 , … , x n > 0 } ; \mathbb{R}^n_{++}=\{(x_1,x_2,\ldots,x_n)^T:x_1,x_2,\ldots,x_n>0\}; R++n={(x1,x2,…,xn)T:x1,x2,…,xn>0};
- 单位单纯形 (unit simplex): Δ n = { x ∈ R n : x ≥ 0 , e T x = 1 } ; \Delta_n=\{\mathbf{x}\in\mathbb{R}^n:\mathbf{x}\ge\mathbf{0},\mathbf{e}^T\mathbf{x}=1\}; Δn={x∈Rn:x≥0,eTx=1};
- 箱型子集 (box): 给定 ℓ , u ∈ R n : ℓ ≤ u \mathbf{\ell},\mathbf{u}\in\mathbb{R}^n:\mathbf{\ell}\le\mathbf{u} ℓ,u∈Rn:ℓ≤u, B o x [ ℓ , u ] = { x ∈ R n : ℓ ≤ x ≤ u } . \mathrm{Box}[\mathbf{\ell},\mathbf{u}]=\{\mathbf{x}\in\mathbb{R}^n:\mathbf{\ell}\le\mathbf{x}\le\mathbf{u}\}. Box[ℓ,u]={x∈Rn:ℓ≤x≤u}.
7.2 R n \mathbb{R}^n Rn中的特殊运算
- 取非负部 (nonnegative part): [ x ] + = ( max { x i , 0 } ) i = 1 n ; [\mathbf{x}]_+=\left(\max\{x_i,0\}\right)_{i=1}^n; [x]+=(max{xi,0})i=1n;
- 取绝对值: ∣ x ∣ = ( ∣ x i ∣ ) i = 1 n ; |\mathbf{x}|=\left(|x_i|\right)_{i=1}^n; ∣x∣=(∣xi∣)i=1n;
- 符号函数: s g n ( x ) i = { 1 , x i ≥ 0 , − 1 , x i < 0. \mathrm{sgn}(\mathbf{x})_i=\left\{\begin{array}{ll}1, & x_i\ge0,\\-1, & x_i<0.\end{array}\right. sgn(x)i={1,−1,xi≥0,xi<0.
- Hadamard积: a ⊙ b = ( a i b i ) i = 1 n . \mathbf{a}\odot\mathbf{b}=\left(a_ib_i\right)_{i=1}^n. a⊙b=(aibi)i=1n.
注意, 以上运算均为元素级的运算.
8. 实空间 R m × n \mathbb{R}^{m\times n} Rm×n
所有实 m × n m\times n m×n矩阵构成的实向量空间为 R m × n \mathbb{R}^{m\times n} Rm×n. 此空间中加法“ + + +”和数乘的定义是 R n \mathbb{R}^n Rn中的推广, 即均为元素级的对应运算. R m × n \mathbb{R}^{m\times n} Rm×n中的点积定义为 ⟨ A , B ⟩ = T r ( A T B ) = ∑ i = 1 m ∑ j = 1 n A i j B i j , ∀ A , B ∈ R m × n . \langle\mathbf{A},\mathbf{B}\rangle=\mathrm{Tr}(\mathbf{A}^T\mathbf{B})=\sum\limits_{i=1}^m\sum\limits_{j=1}^nA_{ij}B_{ij},\quad\forall \mathbf{A},\mathbf{B}\in\mathbb{R}^{m\times n}. ⟨A,B⟩=Tr(ATB)=i=1∑mj=1∑nAijBij,∀A,B∈Rm×n.事实上, 这一点积的定义同样是 R n \mathbb{R}^n Rn中点积定义的推广6. 这只需将 R m × n \mathbb{R}^{m\times n} Rm×n中的元素一一对应到 R m n \mathbb{R}^{mn} Rmn中的列向量即可7.
8.1 R n × n \mathbb{R}^{n\times n} Rn×n中的特殊子集
- 对称矩阵加群8: S n = { A ∈ R n × n : A = A T } ; \mathbb{S}^n=\{\mathbf{A}\in\mathbb{R}^{n\times n}:\mathbf{A}=\mathbf{A}^T\}; Sn={A∈Rn×n:A=AT};
- 半正定子集和正定子集、半负定子集和负定子集: S + n = { A ∈ R n × n : A ⪰ 0 } ; \mathbb{S}_+^n=\{\mathbf{A}\in\mathbb{R}^{n\times n}:\mathbf{A}\succeq\mathbf{0}\}; S+n={A∈Rn×n:A⪰0}; S + + n = { A ∈ R n × n : A ≻ 0 } ; \mathbb{S}_{++}^n=\{\mathbf{A}\in\mathbb{R}^{n\times n}:\mathbf{A}\succ\mathbf{0}\}; S++n={A∈Rn×n:A≻0}; S − n = { A ∈ R n × n : A ⪯ 0 } ; \mathbb{S}_-^n=\{\mathbf{A}\in\mathbb{R}^{n\times n}:\mathbf{A}\preceq\mathbf{0}\}; S−n={A∈Rn×n:A⪯0}; S − − n = { A ∈ R n × n : A ≺ 0 } ; \mathbb{S}_{--}^n=\{\mathbf{A}\in\mathbb{R}^{n\times n}:\mathbf{A}\prec\mathbf{0}\}; S−−n={A∈Rn×n:A≺0};
- 正交矩阵群: O n = { A ∈ R n × n : A A T = A T A = I } . \mathbb{O}^n=\{\mathbf{A}\in\mathbb{R}^{n\times n}:\mathbf{A}\mathbf{A}^T=\mathbf{A}^T\mathbf{A}=\mathbf{I}\}. On={A∈Rn×n:AAT=ATA=I}.
8.2 R m × n \mathbb{R}^{m\times n} Rm×n中的范数
若 R m × n \mathbb{R}^{m\times n} Rm×n中的内积为默认的点积, 则对应的欧式范数为我们所熟悉的 F F F-范数 (Frobenius norm): ∥ A ∥ F = T r ( A T A ) = ∑ i = 1 m ∑ j = 1 n A i j 2 , A ∈ R m × n . \Vert\mathbf{A}\Vert_F=\sqrt{\mathrm{Tr}(\mathbf{A}^T\mathbf{A})}=\sqrt{\sum\limits_{i=1}^m\sum\limits_{j=1}^nA_{ij}^2},\quad\mathbf{A}\in\mathbb{R}^{m\times n}. ∥A∥F=Tr(ATA)=i=1∑mj=1∑nAij2,A∈Rm×n.矩阵空间中还有诱导范数 (induced norm) 的概念. 给定 A ∈ R m × n \mathbf{A}\in\mathbb{R}^{m\times n} A∈Rm×n以及 R n , R m \mathbb{R}^n,\mathbb{R}^m Rn,Rm上的范数 ∥ ⋅ ∥ a , ∥ ⋅ ∥ b \Vert\cdot\Vert_a,\Vert\cdot\Vert_b ∥⋅∥a,∥⋅∥b, 则 A \mathbf{A} A的诱导范数 ∥ A ∥ a , b \Vert A\Vert_{a,b} ∥A∥a,b定义为 ∥ A ∥ a , b = max x { ∥ A x ∥ b : ∥ x ∥ a ≤ 1 } . \Vert\mathbf{A}\Vert_{a,b}=\max_{\mathbf{x}}\{\Vert\mathbf{Ax}\Vert_b:\Vert\mathbf{x}\Vert_a\le1\}. ∥A∥a,b=xmax{∥Ax∥b:∥x∥a≤1}.以上的定义给出了不等式 ∥ A x ∥ b ≤ ∥ A ∥ a , b ∥ x ∥ a , ∀ x ∈ R n . \Vert\mathbf{Ax}\Vert_b\le\Vert\mathbf{A}\Vert_{a,b}\Vert\mathbf{x}\Vert_a,\quad\forall\mathbf{x}\in\mathbb{R}^n. ∥Ax∥b≤∥A∥a,b∥x∥a,∀x∈Rn.这一形式的不等式在本章中我们会经常见到. 特别地, 诱导范数的定义具有以下等价形式9: ∥ A ∥ a , b = max x { ∥ A x ∥ b : ∥ x ∥ a = 1 } = max x ≠ 0 ∥ A x ∥ b ∥ x ∥ a . \Vert\mathbf{A}\Vert_{a,b}=\max_{\mathbf{x}}\{\Vert\mathbf{Ax}\Vert_b:\Vert\mathbf{x}\Vert_a=1\}=\max_{\mathbf{x}\neq0}\frac{\Vert\mathbf{Ax}\Vert_b}{\Vert\mathbf{x}\Vert_a}. ∥A∥a,b=xmax{∥Ax∥b:∥x∥a=1}=x=0max∥x∥a∥Ax∥b.第二个等号是显然的. 因此我们仅对第一个等号进行说明. 根据定义, 我们有 max x { ∥ A x ∥ b : ∥ x ∥ a ≤ 1 } ≥ max x { ∥ A x ∥ b : ∥ x ∥ a = 1 } . \max_{\mathbf{x}}\{\Vert\mathbf{Ax}\Vert_b:\Vert\mathbf{x}\Vert_a\le1\}\ge\max_{\mathbf{x}}\{\Vert\mathbf{Ax}\Vert_b:\Vert\mathbf{x}\Vert_a=1\}. xmax{∥Ax∥b:∥x∥a≤1}≥xmax{∥Ax∥b:∥x∥a=1}.而对 ∀ x ∈ R n : ∥ x ∥ a ≤ 1 \forall\mathbf{x}\in\mathbb{R}^n:\Vert\mathbf{x}\Vert_a\le1 ∀x∈Rn:∥x∥a≤1, 我们有 ∥ A x ∥ b ≤ ∥ A x ∥ b ∥ x ∥ a ≤ max x ≠ 0 ∥ A x ∥ b ∥ x ∥ a = max x { ∥ A x ∥ b : ∥ x ∥ a = 1 } . \Vert\mathbf{Ax}\Vert_b\le\frac{\Vert\mathbf{Ax}\Vert_b}{\Vert\mathbf{x}\Vert_a}\le\max\limits_{\mathbf{x}\neq0}\frac{\Vert\mathbf{Ax}\Vert_b}{\Vert\mathbf{x}\Vert_a}=\max_{\mathbf{x}}\{\Vert\mathbf{Ax}\Vert_b:\Vert\mathbf{x}\Vert_a=1\}. ∥Ax∥b≤∥x∥a∥Ax∥b≤x=0max∥x∥a∥Ax∥b=xmax{∥Ax∥b:∥x∥a=1}.再在左端对 x \mathbf{x} x取极大, 即有 max x { ∥ A x ∥ b : ∥ x ∥ a ≤ 1 } ≤ max x { ∥ A x ∥ b : ∥ x ∥ a = 1 } . \max_{\mathbf{x}}\{\Vert\mathbf{Ax}\Vert_b:\Vert\mathbf{x}\Vert_a\le1\}\le\max_{\mathbf{x}}\{\Vert\mathbf{Ax}\Vert_b:\Vert\mathbf{x}\Vert_a=1\}. xmax{∥Ax∥b:∥x∥a≤1}≤xmax{∥Ax∥b:∥x∥a=1}.第一个等号即得证. 我们称矩阵范数 ∥ ⋅ ∥ a , b \Vert\cdot\Vert_{a,b} ∥⋅∥a,b为 ( a , b ) (a,b) (a,b)-范数. 当 a = b a=b a=b时, 我们就称之为 a a a-范数, 并使用记号 ∥ ⋅ ∥ a \Vert\cdot\Vert_a ∥⋅∥a. 下面给出一些诱导范数的具体例子.
例1 (谱范数 (spectral norm)) 若 ∥ ⋅ ∥ a = ∥ ⋅ ∥ b = ∥ ⋅ ∥ 2 \Vert\cdot\Vert_a=\Vert\cdot\Vert_b=\Vert\cdot\Vert_2 ∥⋅∥a=∥⋅∥b=∥⋅∥2, 则 A \mathbf{A} A的诱导范数为 A \mathbf{A} A的最大奇异值: ∥ A ∥ 2 = ∥ A ∥ 2 , 2 = λ max ( A T A ) = σ max ( A ) . \Vert\mathbf{A}\Vert_2=\Vert\mathbf{A}\Vert_{2,2}=\sqrt{\lambda_{\max}(\mathbf{A}^T\mathbf{A})}=\sigma_{\max}(\mathbf{A}). ∥A∥2=∥A∥2,2=λmax(ATA)=σmax(A).这里第二个等号可用Rayleigh商导出, 而最后一个等式则可由 A \mathbf{A} A的奇异值分解 (singular value decomposition)得到.
例2 ( 1 1 1-范数) 当 ∥ ⋅ ∥ a = ∥ ⋅ ∥ b = ∥ ⋅ ∥ 1 \Vert\cdot\Vert_a=\Vert\cdot\Vert_b=\Vert\cdot\Vert_1 ∥⋅∥a=∥⋅∥b=∥⋅∥1, 则 A \mathbf{A} A的诱导范数为 ∥ A ∥ 1 = max j = 1 , 2 , … , n ∑ i = 1 m ∣ A i , j ∣ . \Vert\mathbf{A}\Vert_1=\max\limits_{j=1,2,\ldots,n}\sum\limits_{i=1}^m|A_{i,j}|. ∥A∥1=j=1,2,…,nmaxi=1∑m∣Ai,j∣.这一范数也被称为最大绝对值列和范数 (maximum absolute column sum norm).
例3 ( ∞ \infty ∞-范数) 当 ∥ ⋅ ∥ a = ∥ ⋅ ∥ b = ∥ ⋅ ∥ ∞ \Vert\cdot\Vert_a=\Vert\cdot\Vert_b=\Vert\cdot\Vert_{\infty} ∥⋅∥a=∥⋅∥b=∥⋅∥∞, 则 A \mathbf{A} A的诱导范数为 ∥ A ∥ ∞ = max i = 1 , 2 , … , m ∑ j = 1 n ∣ A i , j ∣ . \Vert\mathbf{A}\Vert_{\infty}=\max\limits_{i=1,2,\ldots,m}\sum\limits_{j=1}^n|A_{i,j}|. ∥A∥∞=i=1,2,…,mmaxj=1∑n∣Ai,j∣.这一范数也被称为最大绝对值行和范数 (maximum absolute row sum norm).
注意, 以上例2-3中的范数表示均可用诱导范数的定义及其等价形式证明. 一般说来, “ ≤ \le ≤”是好证的. 证明“ ≥ \ge ≥”则往往需要我们构造一些实例.
9. 向量空间的笛卡尔积
给定
m
m
m个向量空间
E
1
,
E
2
,
…
,
E
m
\mathbb{E}_1,\mathbb{E}_2,\ldots,\mathbb{E}_m
E1,E2,…,Em, 其中对每个
i
i
i,
E
i
\mathbb{E}_i
Ei上定义了内积
⟨
⋅
,
⋅
⟩
E
i
\langle\cdot,\cdot\rangle_{\mathbb{E}_i}
⟨⋅,⋅⟩Ei, 则所有的
m
m
m-元组
(
v
1
,
v
2
,
…
,
v
m
)
:
v
i
∈
E
i
(\mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_m):\mathbf{v_i}\in\mathbb{E}_i
(v1,v2,…,vm):vi∈Ei构成了它们的笛卡尔积 (Cartesian Product)
E
1
×
E
2
×
⋯
×
E
m
\mathbb{E}_1\times\mathbb{E}_2\times\cdots\times\mathbb{E}_m
E1×E2×⋯×Em. 在其上的加法和数乘运算均按分量进行.
特别地, 笛卡尔积空间的内积定义为
⟨
(
v
1
,
v
2
,
…
,
v
m
)
,
(
w
1
,
w
2
,
…
,
w
m
)
⟩
E
1
×
E
2
×
⋯
×
E
m
=
∑
i
=
1
m
⟨
v
i
,
w
i
⟩
E
i
.
\langle(\mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_m),(\mathbf{w}_1,\mathbf{w}_2,\ldots,\mathbf{w}_m)\rangle_{\mathbb{E}_1\times\mathbb{E}_2\times\cdots\times\mathbb{E}_m}=\sum\limits_{i=1}^m\langle\mathbf{v}_i,\mathbf{w}_i\rangle_{\mathbb{E}_i}.
⟨(v1,v2,…,vm),(w1,w2,…,wm)⟩E1×E2×⋯×Em=i=1∑m⟨vi,wi⟩Ei.例如空间
R
×
R
\mathbb{R}\times\mathbb{R}
R×R就由所有二维实行向量组成, 因此从定义上来说它与
R
2
\mathbb{R}^2
R2是不同的. 但在不至混淆的前提下, 我们有时将二者视作等同.
若
E
1
,
E
2
,
…
,
E
m
\mathbb{E}_1,\mathbb{E}_2,\ldots,\mathbb{E}_m
E1,E2,…,Em为欧式空间, 则笛卡尔积
E
1
×
E
2
×
⋯
×
E
m
\mathbb{E}_1\times\mathbb{E}_2\times\cdots\times\mathbb{E}_m
E1×E2×⋯×Em也是欧式空间. 相应地, 我们有笛卡尔积空间的欧式范数
∥
(
u
1
,
u
2
,
…
,
u
m
)
∥
E
1
×
E
2
×
⋯
×
E
m
=
∑
i
=
1
m
∥
u
i
∥
E
i
2
.
\Vert(\mathbf{u}_1,\mathbf{u}_2,\ldots,\mathbf{u}_m)\Vert_{\mathbb{E}_1\times\mathbb{E}_2\times\cdots\times\mathbb{E}_m}=\sqrt{\sum\limits_{i=1}^m\Vert\mathbf{u}_i\Vert_{\mathbb{E}_i}^2}.
∥(u1,u2,…,um)∥E1×E2×⋯×Em=i=1∑m∥ui∥Ei2.这也被称为复合 (composite)
ℓ
2
\ell_2
ℓ2-范数. 推广至一般情形, 对
∀
p
≥
1
\forall p\ge1
∀p≥1, 定义复合
ℓ
p
\ell_p
ℓp-范数为
∥
(
u
1
,
u
2
,
…
,
u
m
)
∥
=
∑
i
=
1
m
∥
u
i
∥
E
i
p
p
.
\Vert(\mathbf{u}_1,\mathbf{u}_2,\ldots,\mathbf{u}_m)\Vert=\sqrt[p]{\sum\limits_{i=1}^m\Vert\mathbf{u}_i\Vert_{\mathbb{E}_i}^p}.
∥(u1,u2,…,um)∥=pi=1∑m∥ui∥Eip.进一步, 有复合加权
ℓ
p
\ell_p
ℓp-范数:
∥
(
u
1
,
u
2
,
…
,
u
m
)
∥
=
∑
i
=
1
m
w
i
∥
u
i
∥
E
i
p
p
,
\Vert(\mathbf{u}_1,\mathbf{u}_2,\ldots,\mathbf{u}_m)\Vert=\sqrt[p]{\sum\limits_{i=1}^mw_i\Vert\mathbf{u}_i\Vert_{\mathbb{E}_i}^p},
∥(u1,u2,…,um)∥=pi=1∑mwi∥ui∥Eip,这里
w
1
,
w
2
,
…
,
w
m
∈
R
+
w_1,w_2,\ldots,w_m\in\mathbb{R}_+
w1,w2,…,wm∈R+.
10. 线性映射
给定两向量空间 E , V \mathbb{E},\mathbb{V} E,V, 我们称映射 A : E → V \mathcal{A}:\mathbb{E}\to\mathbb{V} A:E→V为线性映射 (linear transformation) , 若对 ∀ x , y ∈ E , α , β ∈ R \forall\mathbf{x},\mathbf{y}\in\mathbb{E},\alpha,\beta\in\mathbb{R} ∀x,y∈E,α,β∈R, 有 A ( α x + β y ) = α A ( x ) + β A ( y ) . \mathcal{A}(\alpha\mathbf{x}+\beta\mathbf{y})=\alpha\mathcal{A}(\mathbf{x})+\beta\mathcal{A}(\mathbf{y}). A(αx+βy)=αA(x)+βA(y).特别地, 由高等线性代数可得, 从 R n \mathbb{R}^n Rn到 R m \mathbb{R}^m Rm的所有线性映射均具有形式 A ( x ) = A x , ∃ A ∈ R m × n . \mathcal{A}(\mathbf{x})=\mathbf{Ax},\quad\exists\mathbf{A}\in\mathbb{R}^{m\times n}. A(x)=Ax,∃A∈Rm×n.而从 R m × n \mathbb{R}^{m\times n} Rm×n到 R k \mathbb{R}^k Rk的所有线性映射均具有形式 A ( X ) = ( T r ( A 1 T X ) T r ( A 2 T X ) ⋮ T r ( A 1 T X ) ) , ∃ A 1 , A 2 , … , A k ∈ R m × n . \mathcal{A}(\mathbf{X})=\begin{pmatrix}\mathrm{Tr}(\mathbf{A}_1^T\mathbf{X})\\\mathrm{Tr}(\mathbf{A}_2^T\mathbf{X})\\\vdots\\\mathrm{Tr}(\mathbf{A}_1^T\mathbf{X})\end{pmatrix},\quad\exists\mathbf{A}_1,\mathbf{A}_2,\ldots,\mathbf{A}_k\in\mathbb{R}^{m\times n}. A(X)=⎝⎜⎜⎜⎛Tr(A1TX)Tr(A2TX)⋮Tr(A1TX)⎠⎟⎟⎟⎞,∃A1,A2,…,Ak∈Rm×n.另外, 我们记恒等映射 (identity transformation) 为 I : I ( x ) = x , ∀ x ∈ E \mathcal{I}:\mathcal{I}(\mathbf{x})=\mathbf{x},\forall\mathbf{x}\in\mathbb{E} I:I(x)=x,∀x∈E.
11. 对偶空间
向量空间
E
\mathbb{E}
E上的线性泛函 (linear functional) 为将
E
\mathbb{E}
E映到
R
\mathbb{R}
R上的线性映射. 而给定向量空间
E
\mathbb{E}
E, 其上所有的线性泛函就构成了
E
\mathbb{E}
E的对偶空间 (dual space), 记作
E
∗
\mathbb{E}^*
E∗. 对定义了内积的空间, 由Riesz表示定理可知对
∀
f
∈
E
∗
\forall f\in\mathbb{E}^*
∀f∈E∗,
∃
v
∈
E
\exists\mathbf{v}\in\mathbb{E}
∃v∈E, 使得
f
(
x
)
=
⟨
v
,
x
⟩
.
f(\mathbf{x})=\langle\mathbf{v},\mathbf{x}\rangle.
f(x)=⟨v,x⟩.反之, 对
∀
v
∈
E
\forall\mathbf{v}\in\mathbb{E}
∀v∈E, 上面的表达式也定义了一个线性泛函. 由于这样的一一对应关系10的存在, 因此有时我们对
f
f
f和
v
\mathbf{v}
v不进行区分. 进一步我们知道,
E
\mathbb{E}
E与
E
∗
\mathbb{E}^*
E∗之间唯一的不同在于二者所选取的范数上. 设
E
\mathbb{E}
E上定义了范数
∥
⋅
∥
\Vert\cdot\Vert
∥⋅∥. 于是我们可以如下定义对偶空间上的范数, 这也叫做对偶范数 (或算子范数) (dual norm):
∥
y
∥
∗
≡
max
x
{
⟨
y
,
x
⟩
:
∥
x
∥
≤
1
}
=
max
x
{
⟨
y
,
x
⟩
:
∥
x
∥
=
1
}
,
y
∈
E
∗
.
\Vert\mathbf{y}\Vert_*\equiv\max_{\mathbf{x}}\{\langle\mathbf{y},\mathbf{x}\rangle:\Vert\mathbf{x}\Vert\le1\}=\max_{\mathbf{x}}\{\langle\mathbf{y},\mathbf{x}\rangle:\Vert\mathbf{x}\Vert=1\},\quad\mathbf{y}\in\mathbb{E}^*.
∥y∥∗≡xmax{⟨y,x⟩:∥x∥≤1}=xmax{⟨y,x⟩:∥x∥=1},y∈E∗.注意这里的
y
\mathbf{y}
y可以视作
E
\mathbb{E}
E中的元. 这表示上式实际上定义了
E
\mathbb{E}
E中的一个范数.
由以上对偶范数的定义, 我们可导出推广的Cauchy-Schwarz不等式.
引理1 (推广的Cauchy-Schwarz不等式) 令 E \mathbb{E} E为赋范内积空间, 则 ∣ ⟨ y , x ⟩ ∣ ≤ ∥ y ∥ ∗ ∥ x ∥ , ∀ y ∈ E ∗ , x ∈ E . |\langle\mathbf{y},\mathbf{x}\rangle|\le\Vert\mathbf{y}\Vert_*\Vert\mathbf{x}\Vert,\quad\forall\mathbf{y}\in\mathbb{E}^*,\mathbf{x}\in\mathbb{E}. ∣⟨y,x⟩∣≤∥y∥∗∥x∥,∀y∈E∗,x∈E.证明: 若 x = 0 \mathbf{x}=0 x=0, 则不等式显然成立. 不然, 令 x ~ = x ∥ x ∥ \tilde\mathbf{x}=\frac{\mathbf{x}}{\Vert\mathbf{x}\Vert} x~=∥x∥x. 显然 ∥ x ~ ∥ = 1 \Vert\tilde\mathbf{x}\Vert=1 ∥x~∥=1. 因此由对偶范数的定义, 可得 ∥ y ∥ ∗ ≥ ⟨ y , x ~ ⟩ = 1 ∥ x ∥ ⟨ y , x ⟩ ⇒ ⟨ y , x ⟩ ≤ ∥ y ∥ ∗ ∥ x ∥ . \Vert\mathbf{y}\Vert_*\ge\langle\mathbf{y},\tilde\mathbf{x}\rangle=\frac{1}{\Vert\mathbf{x}\Vert}\langle\mathbf{y},\mathbf{x}\rangle\Rightarrow\langle\mathbf{y},\mathbf{x}\rangle\le\Vert\mathbf{y}\Vert_*\Vert\mathbf{x}\Vert. ∥y∥∗≥⟨y,x~⟩=∥x∥1⟨y,x⟩⇒⟨y,x⟩≤∥y∥∗∥x∥.用 − x -\mathbf{x} −x替换上面的 x \mathbf{x} x, 又可得 ⟨ y , x ⟩ ≥ − ∥ y ∥ ∗ ∥ x ∥ . \langle\mathbf{y},\mathbf{x}\rangle\ge-\Vert\mathbf{y}\Vert_*\Vert\mathbf{x}\Vert. ⟨y,x⟩≥−∥y∥∗∥x∥.证毕.
那么什么时候原范数和定义的对偶范数是相同的呢? 下面的定理告诉我们, 在 E \mathbb{E} E是欧式空间时, 欧式范数是自对偶的 (self-dual), 也即 ∥ ⋅ ∥ = ∥ ⋅ ∥ ∗ \Vert\cdot\Vert=\Vert\cdot\Vert_* ∥⋅∥=∥⋅∥∗.
定理1 任何欧式空间
E
\mathbb{E}
E都是自对偶的.
证明: 对
∀
x
∈
E
\forall\mathbf{x}\in\mathbb{E}
∀x∈E,
∥
x
∥
∗
≥
⟨
x
,
x
∥
x
∥
⟩
=
∥
x
∥
.
\Vert\mathbf{x}\Vert_*\ge\left\langle\mathbf{x},\frac{\mathbf{x}}{\Vert\mathbf{x}\Vert}\right\rangle=\Vert\mathbf{x}\Vert.
∥x∥∗≥⟨x,∥x∥x⟩=∥x∥.另一方面, 由欧式空间中的Cauchy-Schwarz不等式,
∥
x
∥
∗
=
max
y
{
⟨
x
,
y
⟩
:
∥
y
∥
≤
1
}
≤
max
y
{
∥
x
∥
∥
y
∥
:
∥
y
∥
≤
1
}
≤
max
y
:
∥
y
∥
≤
1
{
∥
x
∥
}
=
∥
x
∥
.
\begin{aligned}\Vert\mathbf{x}\Vert_*=\max_{\mathbf{y}}\{\langle\mathbf{x},\mathbf{y}\rangle:\Vert\mathbf{y}\Vert\le1\}&\le\max_{\mathbf{y}}\{\Vert\mathbf{x}\Vert\Vert\mathbf{y}\Vert:\Vert\mathbf{y}\Vert\le1\}\\ &\le\max_{\mathbf{y}:\Vert\mathbf{y}\Vert\le1}\{\Vert\mathbf{x}\Vert\}=\Vert\mathbf{x}\Vert.\end{aligned}
∥x∥∗=ymax{⟨x,y⟩:∥y∥≤1}≤ymax{∥x∥∥y∥:∥y∥≤1}≤y:∥y∥≤1max{∥x∥}=∥x∥.证毕.
定理1说明, 当 E \mathbb{E} E是欧式空间, 在不至混淆的前提下, 我们有 E = E ∗ \mathbb{E}=\mathbb{E}^* E=E∗.
例5 ( ℓ p \ell_p ℓp-范数) 考虑赋以 ℓ p \ell_p ℓp-范数的实空间 R n \mathbb{R}^n Rn. 当 p > 1 p>1 p>1, 其对偶范数为 ℓ q \ell_q ℓq-范数, 其中 q > 1 : 1 p + 1 q = 1 q>1:\frac{1}{p}+\frac{1}{q}=1 q>1:p1+q1=1. 特别地, 当 p = 1 p=1 p=1, 其对偶范数为 ℓ ∞ \ell_{\infty} ℓ∞-范数, 反之 ℓ ∞ \ell_{\infty} ℓ∞-范数的对偶范数为 ℓ 1 \ell_1 ℓ1-范数.
例6 ( Q \mathbf{Q} Q-范数) 考虑赋以 Q \mathbf{Q} Q-范数的实空间 R n \mathbb{R}^n Rn, 其中 Q ∈ S + + n \mathbf{Q}\in\mathbb{S}_{++}^n Q∈S++n. ∥ ⋅ ∥ Q \Vert\cdot\Vert_{\mathbf{Q}} ∥⋅∥Q的对偶范数为 ∥ ⋅ ∥ Q − 1 \Vert\cdot\Vert_{\mathbf{Q}^{-1}} ∥⋅∥Q−1: ∥ x ∥ Q − 1 = x T Q − 1 x . \Vert\mathbf{x}\Vert_{\mathbf{Q}^{-1}}=\sqrt{\mathbf{x}^T\mathbf{Q}^{-1}\mathbf{x}}. ∥x∥Q−1=xTQ−1x.特别地, 考虑 Q \mathbf{Q} Q是对角阵 Q = d i a g ( w 1 , w 2 , … , w n ) : w 1 , w 2 , … , w n > 0 \mathbf{Q}=\mathrm{diag}(w_1,w_2,\ldots,w_n):w_1,w_2,\ldots,w_n>0 Q=diag(w1,w2,…,wn):w1,w2,…,wn>0. 于是 ∥ x ∥ = ∑ i = 1 n w i x i 2 , \Vert\mathbf{x}\Vert=\sqrt{\sum\limits_{i=1}^nw_ix_i^2}, ∥x∥=i=1∑nwixi2,其对偶范数为 ∥ x ∥ ∗ = ∑ i = 1 n 1 w i x i 2 . \Vert\mathbf{x}\Vert_*=\sqrt{\sum\limits_{i=1}^n\frac{1}{w_i}x_i^2}. ∥x∥∗=i=1∑nwi1xi2.
例7 (笛卡尔积空间的对偶范数) 考虑笛卡尔积空间 E = E 1 × E 2 × ⋯ × E m \mathbb{E}=\mathbb{E}_1\times\mathbb{E}_2\times\cdots\times\mathbb{E}_m E=E1×E2×⋯×Em, 其中 E 1 , E 2 , … , E m \mathbb{E}_1,\mathbb{E}_2,\ldots,\mathbb{E}_m E1,E2,…,Em为欧式空间. 其对偶空间为 E 1 ∗ × E 2 ∗ × ⋯ × E m ∗ \mathbb{E}_1^*\times\mathbb{E}_2^*\times\cdots\times\mathbb{E}_m^* E1∗×E2∗×⋯×Em∗. 例如若笛卡尔积空间的范数为复合加权 ℓ 2 \ell_2 ℓ2-范数: ∥ ( u 1 , u 2 , … , u m ) ∥ = ∑ i = 1 m w i ∥ u i ∥ E i 2 , u i ∈ E i , i = 1 , 2 , … , p , \Vert(\mathbf{u}_1,\mathbf{u}_2,\ldots,\mathbf{u}_m)\Vert=\sqrt{\sum\limits_{i=1}^mw_i\Vert\mathbf{u}_i\Vert_{\mathbb{E}_i}^2},\quad\mathbf{u}_i\in\mathbb{E}_i,i=1,2,\ldots,p, ∥(u1,u2,…,um)∥=i=1∑mwi∥ui∥Ei2,ui∈Ei,i=1,2,…,p,其中 w 1 , w 2 , … , w m > 0 w_1,w_2,\ldots,w_m>0 w1,w2,…,wm>0为给定的权重. 则其对偶范数为 ∥ ( v 1 , v 2 , … , v m ) ∥ ∗ = ∑ i = 1 m 1 w i ∥ v i ∥ E i ∗ 2 , v i ∈ E i ∗ , i = 1 , 2 , … , p . \Vert(\mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_m)\Vert_*=\sqrt{\sum\limits_{i=1}^m\frac{1}{w_i}\Vert\mathbf{v}_i\Vert_{\mathbb{E}_i^*}^2},\quad\mathbf{v}_i\in\mathbb{E}_i^*,i=1,2,\ldots,p. ∥(v1,v2,…,vm)∥∗=i=1∑mwi1∥vi∥Ei∗2,vi∈Ei∗,i=1,2,…,p.这里 ∥ ⋅ ∥ E i ∗ \Vert\cdot\Vert_{\mathbb{E}_i}^* ∥⋅∥Ei∗为 ∥ ⋅ ∥ E i \Vert\cdot\Vert_{\mathbb{E}_i} ∥⋅∥Ei的对偶范数.
12. 二次对偶空间
给定向量空间 E \mathbb{E} E, 其对偶空间 E ∗ \mathbb{E}^* E∗同样也是向量空间, 因此我们也可以定义它的对偶空间 E ∗ ∗ ≜ ( E ∗ ) ∗ \mathbb{E}^{**}\triangleq(\mathbb{E}^*)^* E∗∗≜(E∗)∗. 我们称之为二次对偶空间 (bidual space). 由泛函分析可知, 自反空间 (reflexive space) 的二次对偶就是它本身 (元素上看), 而且范数也是相同的. 特别地, 有限维向量空间.
13. 伴随映射
给定两个内积空间 E , V \mathbb{E},\mathbb{V} E,V和从 V \mathbb{V} V到 E \mathbb{E} E的线性映射 A \mathcal{A} A, 我们以如下方式定义其伴随映射 (adjoint transformation) A T : E ∗ → V ∗ \mathcal{A}^T:\mathbb{E}^*\to\mathbb{V}^* AT:E∗→V∗: ⟨ y , A ( x ) ⟩ = ⟨ A T ( y ) , x ⟩ , ∀ x ∈ V , y ∈ E ∗ . \langle\mathbf{y},\mathcal{A}(\mathbf{x})\rangle=\langle\mathcal{A}^T(\mathbf{y}),\mathbf{x}\rangle,\quad\forall\mathbf{x}\in\mathbb{V},\mathbf{y}\in\mathbb{E}^*. ⟨y,A(x)⟩=⟨AT(y),x⟩,∀x∈V,y∈E∗.特别地, 当 V = R n , E = R m \mathbb{V}=\mathbb{R}^n,\mathbb{E}=\mathbb{R}^m V=Rn,E=Rm, A ( x ) = A x , ∃ A ∈ R m × n \mathcal{A}(\mathbf{x})=\mathbf{Ax},\exists\mathbf{A}\in\mathbb{R}^{m\times n} A(x)=Ax,∃A∈Rm×n. 可以验证伴随映射的定义为 A T ( x ) = A T x \mathcal{A}^T(\mathbf{x})=\mathbf{A}^T\mathbf{x} AT(x)=ATx.
例8 (从 R m × n \mathbb{R}^{m\times n} Rm×n到 R k \mathbb{R}^k Rk映射的伴随) 考虑从 R m × n \mathbb{R}^{m\times n} Rm×n到 R k \mathbb{R}^k Rk的线性映射: A ( x ) = ( T r ( A 1 T X ) T r ( A 2 T X ) ⋮ T r ( A n T X ) ) , ∃ A i ∈ R m × n , i = 1 , 2 , … , k . \mathcal{A}(\mathbf{x})=\begin{pmatrix}\mathrm{Tr}(\mathbf{A}_1^T\mathbf{X})\\\mathrm{Tr}(\mathbf{A}_2^T\mathbf{X})\\\vdots\\\mathrm{Tr}(\mathbf{A}_n^T\mathbf{X})\end{pmatrix},\quad\exists\mathbf{A}_i\in\mathbb{R}^{m\times n},i=1,2,\ldots,k. A(x)=⎝⎜⎜⎜⎛Tr(A1TX)Tr(A2TX)⋮Tr(AnTX)⎠⎟⎟⎟⎞,∃Ai∈Rm×n,i=1,2,…,k.于是伴随映射 A T \mathcal{A}^T AT从 R k \mathbb{R}^k Rk映到 R m × n \mathbb{R}^{m\times n} Rm×n. 为将其具体写出, 考虑伴随映射的定义式: ⟨ y , A ( X ) ⟩ = ⟨ A T ( y ) , X ⟩ , ∀ X ∈ R m × n , y ∈ R k ⇔ ∑ i = 1 k y i T r ( A i T X ) = ⟨ A T ( y ) , X ⟩ , ∀ X ∈ R m × n , y ∈ R k ⇔ T r ( [ ∑ i = 1 k y i A i ] T X ) = ⟨ A T ( y ) , X ⟩ , ∀ X ∈ R m × n , y ∈ R k ⇔ A T ( y ) = ∑ i = 1 k y i A i , ∀ y ∈ R k . \begin{aligned}\langle\mathbf{y},\mathcal{A}(\mathbf{X})\rangle&=\langle\mathcal{A}^T(\mathbf{y}),\mathbf{X}\rangle,\quad\forall\mathbf{X}\in\mathbb{R}^{m\times n},\mathbf{y}\in\mathbb{R}^k\\ \Leftrightarrow\sum\limits_{i=1}^ky_i\mathrm{Tr}(\mathbf{A}_i^T\mathbf{X})&=\langle\mathcal{A}^T(\mathbf{y}),\mathbf{X}\rangle,\quad\forall\mathbf{X}\in\mathbb{R}^{m\times n},\mathbf{y}\in\mathbb{R}^k\\ \Leftrightarrow\mathrm{Tr}\left(\left[\sum\limits_{i=1}^ky_i\mathbf{A}_i\right]^T\mathbf{X}\right)&=\langle\mathcal{A}^T(\mathbf{y}),\mathbf{X}\rangle,\quad\forall\mathbf{X}\in\mathbb{R}^{m\times n},\mathbf{y}\in\mathbb{R}^k\\ \Leftrightarrow\mathcal{A}^T(\mathbf{y})&=\sum\limits_{i=1}^ky_i\mathbf{A}_i,\quad\forall\mathbf{y}\in\mathbb{R}^k.\end{aligned} ⟨y,A(X)⟩⇔i=1∑kyiTr(AiTX)⇔Tr⎝⎛[i=1∑kyiAi]TX⎠⎞⇔AT(y)=⟨AT(y),X⟩,∀X∈Rm×n,y∈Rk=⟨AT(y),X⟩,∀X∈Rm×n,y∈Rk=⟨AT(y),X⟩,∀X∈Rm×n,y∈Rk=i=1∑kyiAi,∀y∈Rk.伴随映射的伴随是原映射: ( A T ) T = A (\mathcal{A}^T)^T=\mathcal{A} (AT)T=A. 当 A \mathcal{A} A为可逆映射是, 我们还有 ( A T ) − 1 = ( A − 1 ) T . (\mathcal{A}^T)^{-1}=(\mathcal{A}^{-1})^T. (AT)−1=(A−1)T.
14. 线性算子的范数
令
A
:
E
→
V
\mathcal{A}:\mathbb{E}\to\mathbb{V}
A:E→V为从
E
\mathbb{E}
E到
V
\mathbb{V}
V的线性映射. 线性映射
A
\mathcal{A}
A的范数定义为
∥
A
∥
=
max
{
∥
A
(
x
)
∥
V
:
∥
x
∥
E
≤
1
}
.
\Vert\mathcal{A}\Vert=\max\{\Vert\mathcal{A}(\mathbf{x})\Vert_{\mathbb{V}}:\Vert\mathbf{x}\Vert_{\mathbb{E}}\le1\}.
∥A∥=max{∥A(x)∥V:∥x∥E≤1}.易见, 这一定义是第8节矩阵诱导范数和第11节对偶空间范数定义的推广. 易证
∥
A
∥
=
∥
A
T
∥
\Vert\mathcal{A}\Vert=\Vert\mathcal{A}^T\Vert
∥A∥=∥AT∥. 事实上, 由定义,
⟨
y
,
A
(
x
)
⟩
=
⟨
A
T
(
y
)
,
x
⟩
,
∀
x
∈
E
,
y
∈
V
∗
:
∥
x
∥
E
,
∥
y
∥
V
∗
≤
1.
\langle\mathbf{y},\mathcal{A}(\mathbf{x})\rangle=\langle\mathcal{A}^T(\mathbf{y}),\mathbf{x}\rangle,\quad\forall\mathbf{x}\in\mathbb{E},\mathbf{y}\in\mathbb{V}^*:\Vert\mathbf{x}\Vert_{\mathbb{E}},\Vert\mathbf{y}\Vert_{\mathbb{V}^*}\le1.
⟨y,A(x)⟩=⟨AT(y),x⟩,∀x∈E,y∈V∗:∥x∥E,∥y∥V∗≤1.由推广的Cauchy-Schwarz不等式,
⟨
A
T
(
y
)
,
x
⟩
≤
∥
A
T
(
y
)
∥
E
∗
⋅
∥
x
∥
E
≤
∥
A
T
(
y
)
∥
E
∗
≤
∥
A
T
∥
.
\langle\mathcal{A}^T(\mathbf{y}),\mathbf{x}\rangle\le\Vert\mathcal{A}^T(\mathbf{y})\Vert_{\mathbb{E}^*}\cdot\Vert\mathbf{x}\Vert_{\mathbb{E}}\le\Vert\mathcal{A}^T(\mathbf{y})\Vert_{\mathbb{E}^*}\le\Vert\mathcal{A}^T\Vert.
⟨AT(y),x⟩≤∥AT(y)∥E∗⋅∥x∥E≤∥AT(y)∥E∗≤∥AT∥.最后一个不等式来自于线性算子范数的定义. 因此,
⟨
y
,
A
(
x
)
⟩
≤
∥
A
T
∥
,
∀
x
∈
E
,
y
∈
V
∗
:
∥
x
∥
E
,
∥
y
∥
V
∗
≤
1.
\langle\mathbf{y},\mathcal{A}(\mathbf{x})\rangle\le\Vert\mathcal{A}^T\Vert,\quad\forall\mathbf{x}\in\mathbb{E},\mathbf{y}\in\mathbb{V}^*:\Vert\mathbf{x}\Vert_{\mathbb{E}},\Vert\mathbf{y}\Vert_{\mathbb{V}^*}\le1.
⟨y,A(x)⟩≤∥AT∥,∀x∈E,y∈V∗:∥x∥E,∥y∥V∗≤1.将
y
\mathbf{y}
y视为
V
\mathbb{V}
V中的元素, 令
y
=
A
(
x
)
∥
A
(
x
)
∥
V
\mathbf{y}=\frac{\mathcal{A}(\mathbf{x})}{\Vert\mathcal{A}(\mathbf{x})\Vert_{\mathbb{V}}}
y=∥A(x)∥VA(x). 于是有
∥
A
(
x
)
∥
V
≤
∥
A
T
∥
,
∀
x
∈
E
:
∥
x
∥
E
⇒
∥
A
∥
≤
∥
A
T
∥
.
\Vert\mathcal{A}(\mathbf{x})\Vert_{\mathbb{V}}\le\Vert\mathcal{A}^T\Vert,\quad\forall\mathbf{x}\in\mathbb{E}:\Vert\mathbf{x}\Vert_{\mathbb{E}}\Rightarrow\Vert\mathcal{A}\Vert\le\Vert\mathcal{A}^T\Vert.
∥A(x)∥V≤∥AT∥,∀x∈E:∥x∥E⇒∥A∥≤∥AT∥.反之类似, 得证.
在第8节讨论的诱导范数和如上定义的线性映射的范数之间也有一个显式的关系. 设
A
\mathcal{A}
A为
R
n
\mathbb{R}^n
Rn到
R
m
\mathbb{R}^m
Rm的线性映射:
A
(
x
)
=
A
x
,
∃
A
∈
R
m
×
n
.
\mathcal{A}(\mathbf{x})=\mathbf{Ax},\quad\exists\mathbf{A}\in\mathbb{R}^{m\times n}.
A(x)=Ax,∃A∈Rm×n.设
R
n
,
R
m
\mathbb{R}^n,\mathbb{R}^m
Rn,Rm分别赋以范数
∥
⋅
∥
a
,
∥
⋅
∥
b
\Vert\cdot\Vert_a,\Vert\cdot\Vert_b
∥⋅∥a,∥⋅∥b. 于是
∥
A
∥
=
∥
A
∥
a
,
b
\Vert\mathcal{A}\Vert=\Vert\mathbf{A}\Vert_{a,b}
∥A∥=∥A∥a,b.
注意此处的1是实数1而不是 E \mathbb{E} E中的“单位元”. 事实上若没有定义“乘法”, E \mathbb{E} E中的单位元无从说起. ↩︎
事实上同一个空间也有不同的范数取法, 但它们在有限维空间中都是等价的. 比如对 E \mathbb{E} E中的两种范数 ∥ ⋅ ∥ 1 , ∥ ⋅ ∥ 2 \Vert\cdot\Vert_1,\Vert\cdot\Vert_2 ∥⋅∥1,∥⋅∥2, 则存在 0 ≤ c 1 ≤ c 2 0\le c_1\le c_2 0≤c1≤c2, 使得 c 1 ∥ x ∥ 2 ≤ ∥ x ∥ 1 ≤ c 2 ∥ x ∥ 2 c_1\Vert \mathbf{x}\Vert_2\le\Vert \mathbf{x}\Vert_1\le c_2\Vert \mathbf{x}\Vert_2 c1∥x∥2≤∥x∥1≤c2∥x∥2对 ∀ x ∈ E \forall \mathbf{x}\in\mathbb{E} ∀x∈E均成立. 这一结论可以进一步推广到无穷维Banach空间. ↩︎
本书中所讨论的向量空间, 如不说明, 默认为有限维实赋范内积空间. ↩︎
本书 R n \mathbb{R}^n Rn中的内积, 如不说明, 则默认为点积. ↩︎
注意 ℓ p \ell_p ℓp-空间都是Banach空间, 但只有 ℓ 2 \ell_2 ℓ2-空间是Hilbert空间; ℓ p \ell_p ℓp-空间可以是无限维的. ↩︎
同样地, 本书中 R m × n \mathbb{R}^{m\times n} Rm×n的内积, 如不说明, 则默认为点积. ↩︎
这一映射有时写作 v e c \mathrm{vec} vec: v e c ( A ) = ( A ( : , 1 ) A ( : , 2 ) ⋮ A ( : , n ) ) , ∀ A ∈ R m × n . \mathrm{vec}(\mathbf{A})=\begin{pmatrix}\mathbf{A}(:,1)\\\mathbf{A}(:,2)\\\vdots\\\mathbf{A}(:,n)\end{pmatrix},\quad\forall\mathbf{A}\in\mathbb{R}^{m\times n}. vec(A)=⎝⎜⎜⎜⎛A(:,1)A(:,2)⋮A(:,n)⎠⎟⎟⎟⎞,∀A∈Rm×n. ↩︎
S n \mathbb{S}^n Sn关于向量的加法和数乘构成 R n × n \mathbb{R}^{n\times n} Rn×n的子空间. ↩︎
注我们有时使用 max \max max并不代表可以取到, 也就是说我们将 max \max max和 sup \sup sup混用. ↩︎
注意对于一般的Banach空间不一定存在这样的一一对应关系. ↩︎