深度学习
十里平湖.W
这个作者很懒,什么都没留下…
展开
-
2021-10-08
VGGNet实现细节 1 训练 损失函数:多项式逻辑回归(multinomial logistic regression) 优化方法:带动量的小批量梯度下降,即动量梯度下降法,momentum=0.9 batch_size=256 正则化: ①权重衰减(L2,惩罚系数510^-4) ②Dropout,前两个全连接层,rate=0.5 学习率: 初始为10^-2,当验证集上准确率不再提高时,缩小10倍,共缩小3次,总共进行了370K次迭代(74epochs),每个epoch含有5000个bach,所以训练集数原创 2021-10-08 21:33:50 · 115 阅读 · 0 评论 -
2021-10-07
写在前面的话 本人是在研究生后开始接触计算机视觉领域,从传统图像处理到深度学习方法,基本是在网络上学习相关课程、看论文、查代码,先感谢浙大胡浩基老师及多位博主,胡老师的机器学习课让我受益良多,多位博主的文章帮我理解了论文的内容,本人是算转行的,不是计算机院的,导师也不是做计算机视觉方面的,完全靠自己一点点看课程、看论文、查博客学习的,再次感谢分享优质课程与博文的各位,虽然并不认识。 我导师虽然在研究方向上对我没有太多帮助,不过我还是非常感谢他的,感谢他让我有机会能够在BH这所名校读书,感谢他特意为我申请了涉原创 2021-10-07 11:25:30 · 122 阅读 · 0 评论 -
Batch Normalization论文翻译
Batch Normalization:Accelerating Deep Network Training by Reducing Internal Covariate Shift翻译 2021-03-04 11:54:33 · 145 阅读 · 0 评论