batch_size和data_iter的理解

示例代码

参考李沐老师的《动手学深度学习》第4节:多层感知机

batch_size = 256
train_iter,test_iter = d2ltorch.load_data_fashion_mnist(batch_size)

next(iter(train_iter))[0].shape  # torch.Size([256, 1, 28, 28])
next(iter(train_iter))[1].shape  # torch.Size([256])
# 2个Type都是tensor
next(iter(train_iter))[1][0] # tensor(3) 图片种类,有256张图片,就有256个结果

分析

  • 迭代器[0]:X
  • 迭代器[1]:y
  • 迭代器[0][0]:第一张图片
  • 迭代器[0][1]:第一张图片
  • 迭代器[0][N]:第N张图片
    在这里插入图片描述

补充

batch_size

是我们每次抽取的数据样本的大小,通过指定batch_size大小指定data_iter这个iterator每次iter多少。

  • 当batch_size = 数据集大小m时,整个过程的时间肯定会比较长
  • 当batch_size 比较小的时候,也就是一次只学一点,大概率学不到什么东西,也可能导致训练loss比较大
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值