机器学习
老衲只用海飞丝
这个作者很懒,什么都没留下…
展开
-
为什么L1惩罚L2惩罚更容易得到稀疏解
在优化问题中,为什么L1惩罚L2惩罚更容易得到稀疏解L1_11惩罚与L2_22惩罚是什么下面从3个角度解释为什么L1惩罚L2惩罚更容易得到稀疏解最优化问题的角度梯度的角度L1_11惩罚与L2_22惩罚是什么L1_11惩罚与L2_22惩罚都是对模型进行惩罚,防止因模型参数过于复杂而导致过拟合。特别的,在线性模型中,加L1_11惩罚的模型称为岭回归,加L2_22惩罚的模型称为las...原创 2019-12-10 20:32:25 · 1062 阅读 · 0 评论 -
机器学习中的核方法
首先介绍一个定理 一个复杂的模式分类问题,在高维空间中线性可分的概率比在低微空间中更大。举一个例子 二维空间中有4个点{(1, 1), (1, -1), (-1, 1), (-1, -1)},其中{(1, 1), (-1, -1)}是一类,{(-1, 1), (1, -1)}是一类,在二维...原创 2019-05-05 21:07:35 · 1238 阅读 · 0 评论