自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

行云

一枚安静的咸鸭蛋

  • 博客(2)
  • 资源 (1)
  • 收藏
  • 关注

原创 Batch Size大小对训练过程的影响

现在绝大多数的框架在进行mini-batch的反向传播的时候,默认都是将batch中每个instance的loss平均化之后在进行反向传播,所以相对大一点的batch size能够防止loss震荡的情况发生。从这两张图中可以看出batch size越小,相邻iter之间的loss震荡就越厉害,相应的,反传回去的梯度的变化也就越大,也就越不利于收敛。同时很有意思的一个现象,batch si...

2019-10-24 16:35:15 1921

转载 Warmup Learning

Warmup学习率并不是一个新颖的东西, 在很多task上面都被证明是有效的,标准Baseline使用是的常见阶梯下降型学习率,初始学习率为3.5e-4,总共训,120个epoch,在第40和70个epoch进行学习率下降。用一个很大的学习率初始化网路可能使得网络震荡到一个次优空间,因为网络初期的梯度是很大的。Warmup的策略就是初期用一个逐渐递增的学习率去初始化网络,渐渐初始化到...

2019-10-08 17:15:19 1499

用于神经网络,深度学习和机器学习模型的可视化工具

支持ONNX(.onnx,.pb,.pbtxt),Keras(.h5,.keras),Caffe(.caffemodel,.prototxt),Caffe2(predict_net.pb,predict_net.pbtxt),MXNet(.model,-symbol.json),ncnn(.param)和TensorFlow等模型可视化

2020-04-07

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除