机器学习知识点整理

这篇博客详细梳理了机器学习的相关知识点,包括超参数、相关性分析与回归分析、共线性、偏差与方差、梯度问题以及解决办法。介绍了聚类算法如层次聚类和K-means,并探讨了Bagging、Boosting和随机森林等集成学习方法。此外,还讲解了Pytorch中的Variable在神经网络中的应用。
摘要由CSDN通过智能技术生成

简介

主要是机器学习相关知识点

术语

  • 超参数
    在机器学习的上下文中,超参数是在开始学习过程之前设置值的参数,而不是通过训练得到的参数数据。通常情况下,需要对超参数进行优化,给学习机选择一组最优超参数,以提高学习的性能和效果。

  • 相关性分析与回归分析
    1、相关性分析相当于先检验一下众多的自变量因变量之间是否存在相关性,当然通过相关分析求得相关系数没有回归分析的准确。

    如果相关分析时各自变量跟因变量之间没有相关性 ,就没有必要再做回归分析;如果有一定的相关性了,然后再通过回归分析进一步验证他们之间的准确关系。

    同时 相关分析还有一个目的,可以查看一下 自变量之间的共线性程度如何,如果自变量间的相关性非常大,可能表示存在共线性。

    2、相关分析只是了解变量间的共变趋势,我们只能通过相关分析确定变量间的关联,这种关联是没有方向性的,可能是A影响B,也可能是B影响A,还有可能是A与B互相影响,相关分析没法确定变量间的关联究竟是哪一种。

    而这就是我们需要使用回归分析解决的问题,我们通过回归分析对自变量与因变量进行假设,然后可以验证变量间的具体作用关系,这时的变量关系就是有具体方向性的了。

    所以相关分析通常也会被作为一种描述性的分析,而回归分析得到的结果更为重要和精确。

  • 共线性

  • 偏差、方差

    偏差度量了学习算法期望预测与真实结果的偏离程度,即刻画了学习算法本身的拟合能力;

    方差度量了同样大小的训练集的变动所导致的学习性能的变化,即刻画了数据扰动所造成的影响;

  • 梯度爆炸和梯度消失
    博客链接

    出现原因:梯度消失和梯度爆炸是因为在神经网络中,由于网络层数增多,导致求取的梯度趋于 ∞ \infty (梯度爆炸)和趋于 0(梯度消失)的情况。参考链接

    解决梯度消失和梯度爆炸的方法:

    1. 梯度剪切:防止梯度爆炸,即当梯度超过一定阈值则将梯度限制在这个阈值范围内
    2. 正则化项:
      L o s s = ( y − W T x ) 2 + α ∣ ∣ w ∣ ∣ 2 Loss=(y-W^Tx)^2+\alpha||w||^2 L
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值