- 博客(1)
- 资源 (7)
- 收藏
- 关注
原创 在显存不足时,增加batch size的方法
问题:如何在显存不足的情况下,增加batch-size?换言之,如何增加batch-size而无需扩大显存?思路:将batch数据,分为多个mini-batch,对mini-batch计算loss,再求和,进行反向传播。这样内存只占用mini-batch大小的数据,用时间换空间。pytorch实现:import torchfrom sklearn import metricsfrom torch import nnimport torch.nn.functio..
2020-12-05 01:49:22 5133 6
文本分类数据集(共13个20ng,mr,R8,R52,ohsumed,wiki,agnews等)
2020-10-27
U型件冲压回弹的Abaqus仿真数据集
2019-03-09
blur admin (现代版风格)前端的后台模板
2018-12-07
最全的中文停用词表20K
2018-09-09
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人