![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
itsRae
这个作者很懒,什么都没留下…
展开
-
常用损失函数
参考:https://blog.csdn.net/shenxiaoming77/article/details/51614601介绍的比较详细,nice对数损失函数(逻辑回归),平方损失函数(线性回归),指数损失函数(adaboost),Hinge(岭回归)损失函数(svm)…...转载 2019-03-06 13:29:20 · 178 阅读 · 0 评论 -
gbdt/回归树/xgboost(xgboost没看)
回归树一个例子:https://blog.csdn.net/weixin_40604987/article/details/79296427回归树和分类树类似,区别是分类树是选择一个特征的值进行划分,而回归树是选择一个特征的切分点进行划分。另外,分类树叶节点的输出是节点中最多数目的类别,而回归树输出的是叶节点所有样本值的平均值。GBDTGBDT为Boosting家族的一员,它和Ada...转载 2019-03-06 16:50:04 · 308 阅读 · 0 评论 -
XGBOOST
参考:https://www.jianshu.com/p/7467e616f227讲的最详细的了转载 2019-03-16 21:56:24 · 97 阅读 · 0 评论 -
dropout
dropout有一个参数p,p的取值介于0和1,含义是每个节点有p概率被抛弃。被抛弃对这个节点有什么影响呢?dropout对于节点的影响表现在,一旦某个节点被选定为抛弃的节点,那么对于神经网络的forward过程这个节点的输出就被置为0;对于backward过程,这个节点的权重和偏置不参与更新。也就是说,在某次迭代中,网络中有部分节点不参与这一次的训练,整个网络结构等效于下图右侧(左侧是drop...转载 2019-03-12 14:29:35 · 599 阅读 · 0 评论