大头wj
码龄11年
关注
提问 私信
  • 博客:521
    521
    总访问量
  • 1
    原创
  • 512,240
    排名
  • 1
    粉丝
  • 0
    铁粉
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:北京市
  • 加入CSDN时间: 2014-03-02
博客简介:

u013857378的博客

查看详细资料
个人成就
  • 获得1次点赞
  • 内容获得0次评论
  • 获得4次收藏
创作历程
  • 1篇
    2017年
成就勋章
TA的专栏
  • 深度学习
    1篇
兴趣领域 设置
  • 人工智能
    图像处理
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

总结整理《Batch Normalization:Accelerating Deep Network Training by Reducing Internal Covariate Shift》

1. Introduction 随机梯度下降(Stochastic Gradient Descent, SGD)是训练深度网络的有效方法,其变体包括momentum,Adagrad。其训练目标是通过最小化损失函数找到最优的网络参数: SGD训练多次迭代进行,每次只使用一个mini-batch,即从训练集中随机挑选m的训练样本组成一个mini-batch。优点有2: (1)mini-b
原创
发布博客 2017.01.27 ·
521 阅读 ·
1 点赞 ·
0 评论 ·
2 收藏

基于kmeans图像块分类

发布资源 2015.12.16 ·
zip

基于灰度梯度共生矩阵的图像分类

发布资源 2015.12.16 ·
zip