- 博客(2)
- 收藏
- 关注
原创 深度学习最全优化方法总结比较(SGD,Adagrad,Adadelta,Adam,Adamax,Nadam)
前言(标题不能再中二了)本文仅对一些常见的优化方法进行直观介绍和简单的比较,各种优化方法的详细内容及公式只好去认真啃论文了,在此我就不赘述了。SGD此处的SGD指mini-batch gradient descent,关于batch gradient descent, stochastic gradient descent, 以及 mini-batch gradient descent的具体区别就不
2016-08-24 18:20:26 62330 7
原创 TensorFlow高效读取数据的方法
概述关于Tensorflow读取数据,官网给出了三种方法:供给数据(Feeding): 在TensorFlow程序运行的每一步, 让Python代码来供给数据。从文件读取数据: 在TensorFlow图的起始, 让一个输入管线从文件中读取数据。预加载数据: 在TensorFlow图中定义常量或变量来保存所有数据(仅适用于数据量比较小的情况)。对于数据量较小而言,可能一般选择直接将数据加载进内
2016-08-17 19:20:26 83325 52
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人