![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
算法
菜鸟分析师
这个作者很懒,什么都没留下…
展开
-
Softmax 与 logSoftmax的区别
softmax 是指数标准化函数,公式如下:第i个z求指数之后,除以所有z的求指数后的和。如果忽略指数函数,可以理解为占比。在概率论里面,softmax函数的结果代表了类别分布,也就是说k个不同可能结果的概率分布。所以softmax经常用于深度学习和机器学习的分类任务中。求导: log_softma...原创 2020-04-08 16:33:03 · 3403 阅读 · 0 评论 -
Tensor展开和torch.cat拼接原理
这里写自定义目录标题tensor参考文献最近用到torch.cat,需要搞明白tensor的展开原理和cat拼接技术,于是就有了这篇文章,仅为初学者阅读,大牛请略过,谢谢!tensortensor 即张量,我理解为数据关系的一种表示,0阶张量是一个数字,也叫标量。1阶张量是一组数字,也叫向量。2阶张量多个向量组成,也叫矩阵。3阶张量,多个矩阵组成,构成一个立方体。4阶张量多个立方体组成。阶数...原创 2020-03-30 11:53:02 · 2608 阅读 · 2 评论 -
GBDT算法梳理
1.GBDT原理:GBDT(gradient boosting decision tree)梯度提升决策树,是属于boosting集成算法的一类。bagging算法是每个个体学习器的样本是存在差异的,但是boosting每个个体学习器的样本是不变,但是每次迭代的样本权重是不同的。Adabost算法也是boosting算法之一,它是根据上一次的误差修改此次训练的样本权重,不断的迭代实现误差接近于零...原创 2019-01-06 16:28:46 · 818 阅读 · 0 评论