- 博客(3)
- 资源 (3)
- 收藏
- 关注
原创 tf.train.batch和tf.train.shuffle_batch的理解
capacity是队列的长度min_after_dequeue是出队后,队列至少剩下min_after_dequeue个数据假设现在有个test.tfrecord文件,里面按从小到大顺序存放整数0~1001. tf.train.batch是按顺序读取数据,队列中的数据始终是一个有序的队列,比如队列的capacity=20,开始队列内容为0,1,..,19=>读取10条记录后,...
2017-06-28 21:51:30 36385 6
原创 tensorflow中对lstm及双向lstm的理解
双向RNN(LSTM)的实现参考:https://github.com/aymericdamien/TensorFlow-Examples/blob/master/examples/3_NeuralNetworks/bidirectional_rnn.py需要注意的是,里面的static_bidirectional_rnn()函数是来自tf.contrib.rnn的,它的输入必须是list
2017-06-28 20:33:02 13393 1
原创 pca的最大方差理论解释
写这个主要为了自己理解,内容都是参考博文:http://www.cnblogs.com/jerrylead/archive/2011/04/18/2020209.html一、数据预处理:去均值化,使得样本数据的均值为0方差归一化,保证每个特征的维度尺度近似(可以看出这里求方差没有减去均值,因为经过去均值化后,均值已经为0了)其中是样例,共m个,每个样例有n维
2017-06-08 17:16:53 9881 6
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人