Deep Learning
qwioer
这个作者很懒,什么都没留下…
展开
-
卷积神经网络(六):谷歌的深度学习网络架构Inception与Inception-ResNet
reference: [v1] Going Deeper with Convolutions [v2] Batch Normal...转载 2020-03-05 16:11:04 · 606 阅读 · 0 评论 -
卷积神经网络(五):SGD、adagrad与RMSprop,梯度下降法总结
SGDSGD即随机梯度下降法,在每次更新中,计算一个Minibatch的数据,然后以Minibatch中数据的总损失对神经网络各权值...转载 2020-03-05 16:10:11 · 851 阅读 · 0 评论 -
卷积神经网络(四):学习率、权重衰减、动量
学习率、权重衰减、动量被称为超参数,因为他们不是由网络训练而得到的参数权重衰减L2正则化就是在代价函数后面再加上一个正则化项:...转载 2020-03-05 16:09:12 · 1062 阅读 · 0 评论 -
卷积神经网络(二):Softmax损失以及反向传播导数推导
...转载 2020-03-05 16:05:33 · 385 阅读 · 0 评论 -
卷积神经网络(一):常见的激活函数以及其意义
激活函数的意义:在生物意义上的神经元中,只有前面...转载 2020-03-05 16:03:52 · 1921 阅读 · 0 评论