[1]统计学习方法---概论

1. 统计学习三要素

  • 模型

    所要学习的条件分布概率或者决策函数.

  • 决策

    按照什么样的方法学习或者选择最优的模型(即,选择参数空间内最优的一组参数)

  • 算法

    学习模型(参数)的具体计算方法.

2. 避免过拟和的方法

  • 正则化

​ Y = 损失函数 + 正则化项.

​ 过拟和产生原因是因为模型学习训练数据过度,甚至学习到了噪声点.

​ 正则化目的在于减少模型复杂度,做法是将模型的参数的某种范式+损失函数共同作为最后的经验损失.

​ 损失函数的本质目的是计算的经验损失值越小模型越好,基于这个目的训练,会限制其内的正则项不会太大(模型不会过于复杂,参数偏小,避免过拟和).

  • L1正则和L2正则的区别

    https://blog.csdn.net/jinping_shi/article/details/52433975

​ 总结来说: L1正则产生稀疏模型,L2不会,但是会使模型参数偏小,从而有更强的抗扰动能力.

  • 交叉验证
  1. 数据量大:

    划分:

    训练集:训练模型,

    验证集:模型选择(就是调参),

    测试集,验证模型泛化能力.

  2. 数据量小(思想:重复地使用数据)

    简单交叉验证

    S折交叉验证(会进行S次选择,最后从里面选择最好的)

3. 生成模型 判别模型

目的: 求P( Y | X )

生成模型: 学习P(X,Y),再以此推出P(Y | X ).

优点:

  1. P(Y | X)只是 学习到的P(X,Y)的产物之一,很明显,P(X,Y)还可以推出其他信息,例如,边缘概率.

  2. 隐变量存在只能用生成模型做.

  3. 收敛速度快

缺点:

  1. 需要更多的样本数据和更多的计算
  2. 实践中多数情况判别模型效果更好

判别模型: 直接学习P( Y | X )

优点:

  1. 节省计算资源,样本数目要求少于生成模型
  2. 效果好于生成模型
  3. 直接学习P(Y | X),允许我们对输入进行抽象(特征工程)
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值