pytorch
文章平均质量分 79
拒绝省略号
不知道写什么,但是写了可以证明自己不懒。
展开
-
讲清楚tensor.gather(dim,index)和torch.gather(input, dim, index),举例,应用
和两者没有本质差别。这里挑来讲。原创 2023-03-15 01:12:38 · 441 阅读 · 1 评论 -
RuntimeError: Trying to backward through the graph a second time (or directly access saved variable
用pytorch的时候发生了这个错误,写下来避免以后再次入坑。感谢这次坑让我对预训练模型的使用有了更清楚的认识。RuntimeError: Trying to backward through the graph a second time (or directly access saved variables after they have already been freed). Saved intermediate values of the graph are freed when you call原创 2022-06-24 11:31:03 · 23957 阅读 · 7 评论 -
pytorch lstm 什么时候使用output(输出层),什么时候使用h(隐藏层)
看这篇文章之前你应该已经对lstm有所了解。这里只讲pytorch的lstm的输出,其实所有rnn网络都一样。目录单向lstm1层lstm单元2层lstm单元双向lstm1层lstm单元2层lstm单元什么时候用输出层output信息什么时候用隐藏层信息后话单向lstm1层lstm单元这里假设输入的batch_size为8,句子长度为10,词向量维度为128,lstm的隐藏层维度为50,只有1层lstm单元。batch_size = 8 #batch为8seq_len =原创 2022-05-26 13:55:59 · 4816 阅读 · 11 评论 -
利用torch安装CuPy,使得numpy(np)在CUDA(gpu)上加速。
前言标题名字是很奇怪,没关系,重点看内容。正常安装CupPy需要较为复杂的cuda环境配置,可以参考文章——UDA环境配置。如果你觉得去官网安装CUDA Toolkit太麻烦,那我们可以利用pyotch的cudatookit来保证Cupy的正常运行。正文CuPy官网 官网给出了详细的安装操作,但是需要手动安装CUDA Toolkit,如果你没有实践过,这也许会比较难。官网给出了相应版本对应的安装命令:我电脑是11.1,所以这里执行下面命令即可pip install cupy-cuda原创 2022-05-11 14:18:57 · 8968 阅读 · 4 评论 -
安装pytorch和cuda,以及安装各种较老版本cuda,两步完成+更新驱动支持的cuda版本
前话网上一堆教程,安装这个安装那个,那么麻烦,今天我发现完成这个安装实在是太简单了。1.查看CUDA版本这个有好几种方法,我只提供一种:原创 2021-09-07 23:40:13 · 12965 阅读 · 0 评论 -
pytorch读取预训练模型并修改模型下载位置
下载模型import torchvisionmodel = torchvision.models.vgg13_bn(pretrained=True)print(model)模型下载的位置默认在C盘,这个可以根据环境变量来设置。首先找到并打开 “查看高级系统设置” ,win10可以直接在下面的搜索导航中搜索到。打开之后进入环境变量点击‘新建’然后输入变量名 TORCH_HOME 和你所需要的储存位置,之后确定保存好。我使用的jupyter notebook, 所以需要重启.原创 2021-09-29 11:22:48 · 2776 阅读 · 0 评论 -
详细介绍pytorch中的nn.Embedding()
num_embeddings (python:int) – 词典的大小尺寸,比如总共出现5000个词,那就输入5000。此时index为(0-4999)embedding_dim (python:int) – 嵌入向量的维度,即用多少维来表示一个符号。padding_idx (python:int, optional) – 填充id,比如,输入长度为100,但是每次的句子长度并不一样,后面就需要用统一的数字填充,而这里就是指定这个数字,这样,网络在遇到填充id时,就不会计算其与其它符号的相关性。(初始.原创 2021-09-13 00:06:03 · 14138 阅读 · 0 评论