Tensorflow--基础api--1

    1. tf.train.batch()
tf.train.batch(tensors, batch_size, num_threads=1, capacity=32,
          enqueue_many=False, shapes=None, dynamic_pad=False,
          allow_smaller_final_batch=False, shared_name=None, name=None):
首先这个函数是结合queue使用的
队头出,队尾补
tensors:从队列中获取的数据tensor
batch_size:批次大小
num_threads:线程数
  • 2 tf.train.shuffle_batch
tf.train.shuffle_batch(tensors, batch_size, capacity, min_after_dequeue,
                  num_threads=1, seed=None, enqueue_many=False, shapes=None,
                  allow_smaller_final_batch=False, shared_name=None, name=None):
capcity:对列中元素最大数
min_after_dequeue:出队后队列中元素的最小数量,用于确保元素的混合级别.
  • 3 tf.train.slice_input_producer
tf.train.slice_input_producer(tensor_list, num_epochs=None, shuffle=True, seed=None,
                         capacity=32, shared_name=None, name=None):
tensor_list:把一个tensor_list放到队列,这个tensor_list可能是所有数据集的path这种
return:返回一个queue
  • 4 tf.py_fun()
tf.py_fun(func, inp, Tout, stateful=True, name=None)
func:函数
inp:函数的输入,结合queue使用,这里传入一个queue
Tout:函数输出的numpy array 转换为tensor的数据类型tf.float32这种

-5 slice()

python中的slice()函数
slice(start,end,step)
slice返回一个切片的类型吧,结合list使用,
start:开始索引
end:结束索引
step:步长
eg :
a = slice(0,5,2)
b = [0,1,2,3,4,5,6,7,8,9]
print(b[a])
[0,2,4]
  • 6 tf.device()
with tf.device('/gpu:1'):
指定在这个下面的所有都由gpu1来执行
  • 7 tf.name_scope()
with tf.name_scope('Tower_%d' % (i)) as scope:
在某个tf.name_scope()指定的区域中定义的所有对象及各种操作,他们的“name”属性上会增加该命名区的区域名,用以区别对象属于哪个区域
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值