在神经网络出现overfit的时候,通常采用regularization的方式来解决过拟合,包括:
- L1/L2正则化
- Dropout正则化
在L1/L2正则化中分别用到了L1范数和L2范数,本篇我们对常见的向量范数和矩阵范数进行总结。
1. 向量范数
对于向量 ,常用的范数包括
1-范数
,即向量元素绝对值之和,x 到零点的曼哈顿距离
2-范数
,2-范数也称为Euclid范数(欧几里得范数,常用计算向量长度),即向量元素绝对值的平方和再开方,表示x到零点的欧式距离
p-范数
,即向量元素绝对值的p次方和的1/p次幂,表示x到零点的p阶闵氏距离。
-范数
,当p趋向于正无穷时,即所有向量元素绝对值中的最大值
-范数
,当p趋向于负无穷时,即所有向量元素绝对值中的最小值
0-范数
零范数即是当p趋于零,可以证明这时候的极限恰好是向量非零元素的个数。
2. 矩阵范数
对于矩阵
1-范数
,列和范数,即所有矩阵列向量绝对值之和的最大值
2-范数
, 表示 的最大特征值,称为谱范数
-范数
,称为行和范数,即所有矩阵行向量绝对值之和的最大值
F-范数
,称为Frobenius范数,即矩阵元素绝对值的平方和再开平方