- 博客(3)
- 资源 (1)
- 收藏
- 关注
转载 tf.train.shuffle_batch
tf.train.shuffle_batch是将队列中数据打乱后,再读取出来,因此队列中剩下的数据也是乱序的,队头也是一直在补充(我猜也是按顺序补充), 比如batch_size=5,capacity=10,min_after_dequeue=5, 初始是有序的0,1,..,9(10条记录), 然后打乱8,2,6,4,3,7,9,2,0,1(10条记录), 队尾取出5条,剩下7,9,2,0
2017-08-24 10:12:25
1085
翻译 Tensorflow Graphs and Sessions
Tensorflow Graphs and Sessionsdataflow的优势 dataflow是并行计算的通用编程模型。在dataflow中,节点表示计算单位,边缘表示计算消耗或产生的数据。例如,在TensorFlow图中,tf.matmul操作将对应于具有两个输入边(要乘以的矩阵)和一个输出边(乘法的结果)的单个节点。并行:通过使用显式边来表示操作之间的依赖关系,系统很容易识别并行
2017-08-22 11:34:49
904
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人