![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
科研
文章平均质量分 69
小王的进阶之路
这个作者很懒,什么都没留下…
展开
-
Dataset和Dateloader学习
batch_sampler (Sampler, optional) – 和 sampler 类似,但是一次返回的是一个batch内所有样本的index。timeout (numeric, optional) – 如果是正数,表明等待从worker进程中收集一个batch等待的时间,若超出设定的时间还没有收集到,那就不收集这个内容了。(default: 0)(default: 0)batch_size (python:int, optional) – 一个batch含有多少样本 (default: 1)。原创 2023-03-28 14:45:02 · 812 阅读 · 1 评论 -
pytorch 学习
drop_last最后按batch_size取数据的话,看最后是否会有剩余。true,剩下的不够batch_size的数据不会取出,false,剩下的数据也会取出(defaultFalse)。shuffle是否打乱,false,不打乱(defaultFalse)。num_workers加载数据的时候有多少个进程(default0)。dataloader为后面的网络提供不同的数据形式(打包)dataset提供一种方式去获取数据及其label。...原创 2022-07-30 22:08:53 · 445 阅读 · 0 评论