![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习基本概念
我是DJ你会爱我吗
这个作者很懒,什么都没留下…
展开
-
Batch gradient descent, Stochastic gradient descent, mini-batch gradient descent的区别
Batch gradient descent(批标准化),顾名思义,每次进行参数更新时,将所有样本得到的误差求均值,再进行梯度更新(反向传播)Stochastic gradient descent(随机梯度下降),每个训练数据都计算误差和梯度更新mini-batch gradient descent,每m个训练数据计算一次误差的平均值,然后进行梯度更新上述定义摘自吴恩达的机器学习课程,但在...原创 2019-11-24 22:42:33 · 196 阅读 · 0 评论 -
交叉熵的理解
知乎用户的回答原创 2019-11-03 16:10:34 · 144 阅读 · 0 评论