ython产生batch数据的操作方法

这篇文章主要介绍了Python产生batch数据的操作,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧

产生batch数据
输入data中每个样本可以有多个特征,和一个标签,最好都是numpy.array格式。

datas = [data1, data2, …, dataN ], labels = [label1, label2, …, labelN],

其中data[i] = [feature1, feature2,…featureM], 表示每个样本数据有M个特征。

输入我们方法的数据,all_data = [datas, labels] 。

代码实现
通过索引值来产生batch大小的数据,同时提供是否打乱顺序的选择,根据随机产生数据量范围类的索引值来打乱顺序。

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

import numpy as np

def batch_generator(all_data , batch_size, shuffle=True):

 """

 :param all_data : all_data整个数据集,包含输入和输出标签

 :param batch_size: batch_size表示每个batch的大小

 :param shuffle: 是否打乱顺序

 :return:

 """

 # 输入all_datas的每一项必须是numpy数组,保证后面能按p所示取值

 all_data = [np.array(d) for d in all_data]

 # 获取样本大小

 data_size = all_data[0].shape[0]

 print("data_size: ", data_size)

 if shuffle:

  # 随机生成打乱的索引

  p = np.random.permutation(data_size)

  # 重新组织数据

  all_data = [d[p] for d in all_data]

 batch_count = 0

 while True:

  # 数据一轮循环(epoch)完成,打乱一次顺序

  if batch_count * batch_size + batch_size > data_size:

   batch_count = 0

   if shuffle:

    p = np.random.permutation(data_size)

    all_data = [d[p] for d in all_data]

  start = batch_count * batch_size

  end = start + batch_size

  batch_count += 1

  yield [d[start: end] for d in all_data]

测试数据
样本数据x和标签y可以分开输入,也可以同时输入。

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

# 输入x表示有23个样本,每个样本有两个特征

# 输出y表示有23个标签,每个标签取值为0或1

x = np.random.random(size=[23, 2])

y = np.random.randint(2, size=[23,1])

count = x.shape[0]

batch_size = 5

epochs = 20

batch_num = count // batch_size

batch_gen = batch_generator([x, y], batch_size)

for i in range(epochs):

 print("##### epoch %s ##### " % i)

 for j in range(batch_num):

  batch_x, batch_y = next(batch_gen)

  print("-----epoch=%s, batch=%s-----" % (i, j))

  print(batch_x, batch_y)

补充:使用tensorflow.data.Dataset构造batch数据集

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

import tensorflow as tf

import numpy as np

def _parse_function(x):

 num_list = np.arange(10)

 return num_list

def _from_tensor_slice(x):

 return tf.data.Dataset.from_tensor_slices(x)

softmax_data = tf.data.Dataset.range(1000) # 构造一个队列

softmax_data = softmax_data.map(lambda x:tf.py_func(_parse_function, [x], [tf.int32]))# 将数据进行传入

softmax_data = softmax_data.flat_map(_from_tensor_slice) #将数据进行平铺, 将其变为一维的数据,from_tensor_slice将数据可以输出

softmax_data = softmax_data.batch(1) #构造一个batch的数量

softmax_iter = softmax_data.make_initializable_iterator() # 构造数据迭代器

softmax_element = softmax_iter.get_next() # 获得一个batch的数据

sess = tf.Session()

sess.run(softmax_iter.initializer) # 数据迭代器的初始化操作

print(sess.run(softmax_element)) # 实际获得一个数据

print(sess.run(softmax_data))

以上就是Python产生batch数据的操作的知识,希望能给大家一个参考。
————————————————
版权声明:本文为CSDN博主「hdxx2022」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/hdxx2022/article/details/128118081

来源:https://www.weidianyuedu.com

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值