- 博客(2)
- 资源 (2)
- 收藏
- 关注
转载 深度学习最全优化方法总结比较(SGD,Adagrad,Adadelta,Adam,Adamax,Nadam)
前言(标题不能再中二了)本文仅对一些常见的优化方法进行直观介绍和简单的比较,各种优化方法的详细内容及公式只好去认真啃论文了,在此我就不赘述了。SGD此处的SGD指mini-batch gradient descent,关于batch gradient descent, stochastic gradient descent, 以及 mini-batch gradient d
2017-12-18 15:40:06 484
转载 TensorFlow模型保存和提取方法
一、TensorFlow模型保存和提取方法1. TensorFlow通过tf.train.Saver类实现神经网络模型的保存和提取。tf.train.Saver对象saver的save方法将TensorFlow模型保存到指定路径中,saver.save(sess,"Model/model.ckpt"),实际在这个文件目录下会生成4个人文件:checkpoint文件保存了一个
2017-12-11 21:26:48 1886
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人