### 线性回归任
参考:
· 说明为什么用L1-Norm代替L0-Norm
L0范数的优化求解是NP难的问题,而L1是范数是L0范数的最优凸近似且L1范数有特定的求解方法。
· 学习为什么只对w/Θ做限制,不对b做限制
因为做限制的原因是防止模型对当前的训练数据过拟合进而失去泛化能力,而过拟合的表现就是模型为了符合当前数据的分布情况趋向于变得复杂以获得更低的loss。而模型的复杂程度是由w/θ决定的,b只是起到平移模型的作用。缩小b不能使模型简化,只能使模型分界面趋于靠近原点。
参考:
· 说明为什么用L1-Norm代替L0-Norm
L0范数的优化求解是NP难的问题,而L1是范数是L0范数的最优凸近似且L1范数有特定的求解方法。
· 学习为什么只对w/Θ做限制,不对b做限制
因为做限制的原因是防止模型对当前的训练数据过拟合进而失去泛化能力,而过拟合的表现就是模型为了符合当前数据的分布情况趋向于变得复杂以获得更低的loss。而模型的复杂程度是由w/θ决定的,b只是起到平移模型的作用。缩小b不能使模型简化,只能使模型分界面趋于靠近原点。