![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
决策树
王摇摆
办法总比困难多
展开
-
决策树回归结果
原创 2023-05-22 08:40:19 · 29 阅读 · 0 评论 -
决策树中的正则化
为了避免过拟合,可以通过正则化来限制模型的复杂性。L2 正则化通过在损失函数中添加权重向量的 L2 范数的一半作为惩罚项,使得模型的权重趋向于较小的值。L2 正则化可以防止模型的权重过大,降低模型对训练数据的噪声敏感性,从而提高模型的泛化能力。L1 正则化通过在损失函数中添加权重向量的 L1 范数作为惩罚项,使得模型的权重稀疏化。弹性网络是 L1 正则化和 L2 正则化的结合,它综合了两种正则化的优势。正则化可以在损失函数中引入额外的惩罚项,通过权衡模型的复杂性和训练数据的拟合程度,来达到更好的模型性能。原创 2023-05-19 19:26:29 · 569 阅读 · 0 评论 -
决策树生成图如何从图中判定是否过拟合
在图中,如果决策边界过于贴近或穿过训练数据点,同时在图像边缘或未见过的区域没有充分考虑到分类的正确性,可能表明模型存在过拟合。如果模型过拟合,决策边界可能会在训练数据的局部细节上出现过于敏感的变化,导致决策边界过于曲折或围绕着少数个别样本点形成小区域。训练集和验证集的性能对比:如果您有分离的训练集和验证集,可以通过比较模型在训练集和验证集上的性能来判断是否过拟合。决策边界的复杂度:过拟合的模型倾向于过度适应训练数据,因此决策边界可能会非常复杂,可以出现过多的曲线和边界。原创 2023-05-21 09:06:52 · 404 阅读 · 0 评论 -
决策树分类
没有正则化原创 2023-05-21 09:05:40 · 31 阅读 · 0 评论