小知识点【pytorch 生成图像,全部引用dataloader里的数据,注意Batch_size】

项目场景:pytorch 生成图像

描述:想全部引用dataloader里的数据

下面展示一些 代码片

 image, label = next(iter(test_loader))
 
 for i in range(len(image)):

问题描述

疑惑:image的大小是Batch_size,而不是全部数据


原理分析:

提示:BATCH_SIZE:即一次训练所抓取的数据样本数量;BATCH_SIZE大小的影响

若BATCH_SIZE=m(训练集样本数量);相当于直接抓取整个数据集,训练时间长,但梯度准确。但不适用于大样本训练,比如IMAGENET。只适用于小样本训练,但小样本训练一般会导致过拟合[1]现象,因此不建议如此设置。

若BATCH_SIZE=1;梯度变化波动大,网络不容易收敛。

若BATCH_SIZE设置合适,梯度会变准确。

此时再增加BATCH_SIZE大小,梯度也不会变得更准确。

同时为了达到更高的训练网络精度,应该增大epoch,使训练时间变长。

 for image,label in test_loader:
 (必须全部迭代)

参考链接

感谢:https://zhuanlan.zhihu.com/p/133864576

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值