分布式深度学习
文章平均质量分 85
努力努力再努力tq
耐心看,总会看懂的!
追求实现文献算法的快感,追求学会一个新算法的充实感。(from hjimce的专栏)
展开
-
分布式深度学习 | TensorFlow单主机多GPU/多主机多GPU原理与实现
TF的部署分为单机部署和分布式部署。在训练集数据量很大的情况下,单机跑深度学习程序过于耗时,所以需要分布式并行计算。在分布式部署中,我们需要在不同主机节点,实现client,master,worker. 1. Single-Device Execution 1.1 单机多GPU训练 构建好图后,使用拓扑算法来决定执行哪一个节点,即对每个节点使用一个计数,值表示所依赖的未完成的节点数目,当一个...转载 2018-12-08 09:11:16 · 2134 阅读 · 0 评论 -
推理过程 | tf推理过程中获得所有节点的名称
在推理过程中,获得所有pb模型中的节点名称, 使用graph_def.node.name即可。 from tensorflow.python.framework import tensor_util from google.protobuf import text_format import tensorflow as tf from tensorflow.python.platform impo...转载 2019-01-03 11:19:25 · 1048 阅读 · 0 评论