pytorch
SCU-JJkinging
加油,leego must be dai
展开
-
pytorch不同的层设置不同学习率
问题背景:不同的层设置不同的学习率model = BiLSTM_CRF() # 整个模型(包括BiLSTM和CRF)我们现在要做的就是给BiLSTM和CRF分别设置不同的学习率解决方法:crf_params = list(map(id, model.CRF.parameters())) #把CRF层的参数映射为idother_params = filter(lambda x: id(x) not in crf_params, model.parameters()) #在整个模型的参数中将CRF原创 2021-07-12 13:20:34 · 773 阅读 · 0 评论 -
在linux服务器中 python环境import找不到自定义的模块
解决方法:vi /etc/profile在最后一行添加:export PYTHONPATH=$PYTHONPATH:/root/project_name其中project_name是你的项目名称source /etc/profile 立即生效原创 2021-05-12 20:01:58 · 454 阅读 · 0 评论 -
训练Bert、Robert、ALBert等的巨大坑
!!!!!!!!!如下,我们在使用transformers包的get_linear_schedule_with_warmup()这个学习率预热API时,num_warmup_steps这个参数一定要设置为0,一定要设置为0,一定要设置为0!!!否则模型不会收敛(我在做中文文本语义匹配时发现的)scheduler = get_linear_schedule_with_warmup(optimizer, num_wa原创 2021-05-12 19:48:26 · 2471 阅读 · 6 评论 -
torch.utils.data中Dataset TensorDataset以及Dataloader
torch.utils.data中Dataset TensorDataset以及Dataloader原创 2021-05-03 16:48:08 · 229 阅读 · 0 评论 -
我的pip配置国内源 and pytorch稳定版(pip安装)
C:\Users\jinxiang\AppData\Roaming\pip\pip.ini原创 2021-04-27 16:55:37 · 955 阅读 · 2 评论 -
BiMPM报错:Resource punkt not found. Please use the NLTK Downloader to obtain the resource
解决方案原创 2021-04-27 13:18:57 · 215 阅读 · 0 评论 -
pytorch保存模型的两种方式
一、直接保存整个模型并读取## 保存模型torch.save(your_model, 'model_name.pth')## 读取模型your_model = torch.load('model_name.pth')二、只保存模型中的参数并读取## 保存模型torch.save({'you_model': your_model.state_dict()}, 'model_name.pt')## 读取模型model...原创 2021-04-22 19:16:58 · 33256 阅读 · 1 评论 -
os.path.normpath()与os.path.join()
为了避免出现路径字符串中混用正斜杠、反斜杠,使用os.path.normpath进行格式化 os.path.normpath(filePath)import osscript_dir = 'D:\\python_project\\ESIM\\scripts\\preprocessing'config = '../../config/preprocessing/snli_preprocessing.json'config_path_final = os.path.join(script_dir,原创 2021-04-22 16:54:18 · 902 阅读 · 0 评论 -
pytorch的一个小坑
PyTorch expects the input to a layer to have the same device and data type (dtype) as the parameters of the layer. For most layers, including conv layers, the default data type is torch.float32.# 如果不添加dtype=torch.fp32会报错,它默认是torch.int64a = torch.arange(1原创 2021-04-20 22:20:51 · 148 阅读 · 0 评论 -
torch.nn.LSTM()
1.pytorch中LSTM的细节分析理解2.Pytorch中的RNN之pack_padded_sequence()和pad_packed_sequence()3.nn.utils.rnn.pack_padded_sequence 与 nn.utils.rnn.pad_packed_sequence原创 2021-04-20 14:24:38 · 221 阅读 · 0 评论 -
高版本pytorch安装torchsnoop失败的解决
我的pytorch是1.7,目前最高版本是1.8。目录一、问题二、解决方法一、问题我们都知道torchsnoop是一款调试深度学习的神器,但是pytorch的版本太高,导致安装不了torchsnoop,那么我们该怎么解决呢?二、解决方法到github搜索torchsnoop,并将torchsnoop整个模块clone到本地(这里注意一定要通过git把整个模块克隆,不要直接下载压缩包(后面安装会报错!!!))然后在你的TorchSnooper文件夹下 同时按住shift再点击鼠标右键,弹出框框原创 2021-03-28 23:08:58 · 445 阅读 · 0 评论 -
在虚拟环境中安装了Pytorch后,如何加载到PyCharm和Jupyter
在虚拟环境中安装了Pytorch后,如何加载到PyCharm和Jupyter转载 2020-11-03 13:24:32 · 2832 阅读 · 0 评论 -
pytorch torch.nn 实现上采样——nn.Upsample
Vision layers1)UpsampleCLASS torch.nn.Upsample(size=None, scale_factor=None, mode='nearest', align_corners=None)上采样一个给定的多通道的 1D (temporal,如向量数据), 2D (spatial,如jpg、png等图像数据) or 3D (volumetric,如点云数据)数据假设输入数据的格式为minibatch x channels x [optional dep.转载 2020-09-24 15:37:10 · 918 阅读 · 0 评论 -
torch.bmm()函数解读
https://blog.csdn.net/qq_40178291/article/details/100302375转载 2020-08-14 21:16:15 · 564 阅读 · 0 评论 -
nn.GLU()的实现
在pytorch中有nn.GLU的门控线性激活函数,其具体实现如下:class GLU(nn.Module): def __init__(self): super(GLU, self).__init__() def forward(self, x): nc = x.size(1) assert nc % 2 == 0, 'channels dont divide 2!' nc = int(nc/2) retu原创 2020-08-13 21:19:09 · 5274 阅读 · 1 评论 -
pytorch中torch.load()的map_location参数
Example:# Load all tensors onto the CPU>>> torch.load('tensors.pt', map_location=torch.device('cpu'))# Load all tensors onto the CPU, using a function>>> torch.load('tensors.pt', map_location=lambda storage, loc: storage)# Load all t原创 2020-08-12 20:15:53 · 9270 阅读 · 8 评论 -
Python图像库PIL的类Image及其方法介绍
Python图像库PIL(Python Image Library)是python的第三方图像处理库,但是由于其强大的功能与众多的使用人数,几乎已经被认为是python官方图像处理库了。其官方主页为:PIL。 PIL历史悠久,原来是只支持python2.x的版本的,后来出现了移植到python3的库pillow,pillow号称是fri...转载 2020-08-10 13:03:36 · 2023 阅读 · 0 评论 -
pytorch中expand()和repeat()的区别
二者都是用来扩展某维的数据的尺寸一、expand() 返回当前张量在某维扩展更大后的张量。扩展(expand)张量不会分配新的内存,只是在存在的张量上创建一个新的视图(view),只能扩展为1的维度:a = torch.tensor([1,2,3,4])print('扩展前a的shape:', a.shape)a = a.expand(8, 4)print('扩展后a的shape:', a.shape)print原创 2020-07-30 20:26:22 · 984 阅读 · 0 评论 -
Variable里只有传入浮点数才能求梯度
原创 2020-07-21 17:17:18 · 157 阅读 · 0 评论 -
torch.mul()、torch.mm()、torch.dot()和torch.mv()之间的区别
torch.mul()是矩阵的点乘,即对应的位相乘,要求shape一样torch.mm()是矩阵正常的矩阵相乘,(a, b)* ( b, c ) = ( a, c )原创 2020-07-21 15:50:33 · 16941 阅读 · 0 评论