建议检查是不是dataset的__len__属性没改...,pytorch的batch会取__len__的返回值和batch_size较小的那个作为实际的batch_size,而不是直接raise一个error...
pytorch中batch_size不起作用且会固定为某个值
最新推荐文章于 2024-05-09 17:47:59 发布
建议检查是不是dataset的__len__属性没改...,pytorch的batch会取__len__的返回值和batch_size较小的那个作为实际的batch_size,而不是直接raise一个error...