BUG
我黑切呢**
这个作者很懒,什么都没留下…
展开
-
pytorch报错
为什么需要每次计算梯度都要清空根据pytorch中的backward()函数的计算,当网络参量进行反馈时,梯度是被积累的而不是被替换掉;但是在每一个batch时毫无疑问并不需要将两个batch的梯度混合起来累积,因此这里就需要每个batch设置一遍zero_grad 了。为什么要with torch.no_grad():更新时:w1 -= learning_rate * w1.gradw2 -= learning_rate * w2.grad它也是一张计算图(所有的tensor运算都是一张计算图)原创 2020-11-01 16:50:42 · 168 阅读 · 0 评论 -
pycharm报错问题汇总
UnicodeDecodeError:'gbk’codec can’t decode byte 0x81 in position 18:illegal multibyte sequen:‘E:\dataset\fulldocs.tsv.gz’,‘rt’,encoding=‘gbk/utf-8/。。。。’, errors=‘ignore’原创 2020-09-14 18:46:01 · 163 阅读 · 0 评论