最近刚开始读Rockafellar的这本convex analysis,尝试记一些boyd convex optimization里面没有的东西。自己还是太弱了。很多问题还是想不明白。先写一些作为学习笔记好了。希望能找到小伙伴一起学习。
关于仿射集的Tucker表示。
首先,仿射变换
:Rn→Rm
的图像是
Rm+n
中的一个仿射子集。
对于
y=x=Ax+a
,
的图像由点
z=(x,y)
组成,其中
x∈Rn,y∈Rm
。显然,对于
z
,有
所以
的图像为
{z|Bz=b}
。
B
为线性变换
特别的,从
Rn
到
Rm
的线性变换:
x→x
(即
a=b=0
)的图像是包含空间
Rm+n
原点的仿射集。
因此它是
Rm+n
的某个子空间
L
,
即 L⊥ 是 −⋆ 的图像。
事实上,对于 y=x 的图像 z=(x,y) 。记 z⋆=(x⋆,y⋆)∈L⊥
∴⟨z,z⋆⟩=⟨(x,y),(x⋆,y⋆)⟩=0
⇒⟨x,y⟩+⟨x⋆,y⋆⟩=0
⇒⟨x,x⋆⟩+⟨x,y⋆⟩=⟨x,x⋆⟩+⟨x,⋆y⋆⟩=0
⇒⟨x,x⋆+⋆y⋆⟩=0 对任意 x∈Rn 成立。
⇒x⋆+⋆y⋆=0 即 x⋆=−A⋆y⋆
进一步的,有结论:任何非平凡仿射集都可以表示成仿射变换的图像。
不妨设 M 是
∴M={x|Bx=β},x∈RN
将 x 写成
Bx=β⇒βi1ξ1+⋯+βiNξN=βi,i=1,…,k,k>N−n=m
∵M 为 n 维仿射集 \quad
即
∴ 方程组 βi1ξ1+⋯+βiNξN=βi,i=1,…,k 可以通过初等行变换来消去 k−m 行,化简为 βi1ξ1+⋯+βiNξN=βi,i=1,…,m
记为 B′x=β′ 此时 r(B′)=r(B′|β)=m 。
∵ 矩阵的行秩等于列秩。
∴ξ1,…,ξN 的秩为 m ,因此可排序为
那么我们可以用 ξ1¯,…,ξn¯ 来表示出其余 m 个
即 ξn+i¯=αi1ξ1¯+⋯+αinξn¯+αi,i=1,…,m
实际上,我们可以考虑非齐次线性方程组 Bx=β 由于 r(B)=r(B|β)=m ,则存在 n−m 个自由未知量,并且其余 m 个约束变量可以由自由未知量表出。
方程组
显然,对于 N 个列向量,当其中任意
当然,子空间 L 的Tucker表示是齐次形式的:
以上 L 的这种表示是作为线性变换的图像,那么
成立时, x⋆=(ξ⋆1,…,ξ⋆N) 属于 L⊥ 。这就给出了 L⊥ 的Tucker表示。(书上这个地方好像写错了)
另外,我们可以用线性算子证明矩阵的行秩等于列秩。
我们考虑线性映射 :Rn→Rm 以及它的伴随 ⋆:Rm→Rn 。
又 Im={w|w=x,x∈Rn}={矩阵A所有列向量的线性组合}
不妨设矩阵列向量为 α1,…,αn
∴Im={k1α1+⋯+knαn|∀ki}
∵{k1α1+⋯+knαn} 和 {α1,…,αn} 可以互相线性表出。
∴rank({k1α1+⋯+knαn})=rank({α1,…,αn})
即 dim(Im)= 矩阵A的列秩。
对 ∀w∈Rm , w∈ker⋆⇔⋆(w)=0⇔∀v∈Rn,<A⋆(w),v>=0
⇔∀v∈Rn,⟨w,A(v)⟩=0⇔w∈(Im)⊥
∴ker⋆=(Im)⊥⇒dim(ker⋆)=dim(Im)⊥=m−dim(Im)
又由秩零定理,有 dim(ker⋆)=m−dim(Im⋆)
∴dim(Im)=dim(Im⋆) ,由于实范围内 A⋆ 即为 AT
∴A 列秩= AT 列秩 ⇒ 矩阵A行秩=列秩。