自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 在transformers使用from_pretrain方法下载的预训练模型在哪儿

一般在~/.cache/torch里见transformers源码:

2020-07-22 16:08:01 4970 4

原创 RuntimeError: transform: failed to synchronize: cudaErrorIllegalAddress: an illegal memory access

@[TOC]#Pytorch: RuntimeError: transform: failed to synchronize: cudaErrorIllegalAddress解决pytorch出现 RuntimeError: transform: failed to synchronize: cudaErrorIllegalAddress: an illegal memory access was encountered导致原因可能有两种:忘记了model.to(device)pytorch版本不

2020-06-07 09:18:46 11087 3

翻译 dead ReLU的发生原因和复活问题

dead ReLU的发生原因和复活问题先做一个假设:假设有一个神经网络,其输入X服从某一个分布。我们看看某一个特定的ReLU激活单元R。这个单元有一个已经固定的参数集,X的分布就关联着R的输入的分布。为了方便观察,我们假 R的输入服从一个低方差均值为+1的高斯分布。在这个假设下:1.大部分R的输入为正的。2.大多数输入会导致ReLU函数激活。3.大多数输入会使反向传播回来的梯度通...

2019-09-12 10:11:06 3431 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除