![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
不过普通话一乙不改名
凡事预则立,不预则废
展开
-
讲得好的关于pytorch和深度学习的文章
BatchNorm和LayerNorm的比较PyTorch中的pack_padded_sequence和pad_packed_sequencePyTorch的 transpose、permute、view、reshapePytorch中contiguous()函数理解pytorch——nn.BatchNorm1d()原创 2021-12-21 17:15:17 · 430 阅读 · 0 评论 -
安装深度学习环境一套总结
今天,因为pytorch的原因,跑不了GPU,特别难受。重装了pytorch也没有用,索性就把anaconda卸载了。总共做了几件事情。重装anaconda,设置环境变量试过conda install pytorch=1.8.0 torchvision==0.9.0 。。。。。都是因为HttpConnection Error中断。于是进去清华源离线下载了包用conda install --offline 包名 进行离线安装。把这一起搞定之后,打开anaconda的时候,又出现了bug,【jupyt原创 2021-10-30 16:29:24 · 469 阅读 · 0 评论 -
ImportError: DLL load failed while importing win32api
今天在装jupyterlab环境的时候,老是跳出ImportError: DLL load failed while importing win32api: 找不到指定的模块。我找到了网上的方法试了试,成功了,折腾到晚上两点半。首先,找到文件pywin32_postinstall.py,路径在[Path to Anaconda3]\Scripts\然后执行:python [Path to Anaconda3]\Scripts\pywin32_postinstall.py -install 即可。.原创 2021-03-28 02:14:59 · 4076 阅读 · 7 评论 -
torch离线下载
源网址torch我的配置torch1.8.1+cu111torchvision0.9.1+cu111torchaudio===0.8.1原创 2021-03-27 23:07:30 · 971 阅读 · 0 评论 -
pytorch里边的pack_padded_sequence()与pad_packed_sequence()
一:作用假设这是一个情感分类器当我们遇到长度不一样的句子作为一个batch时,就会通过pad成为一个长度一样的batch。比如这样:但是这样会有一个问题,这会导致LSTM处理了非常多的无用的padding字符,而这样的字符没有任何内容含义,只能作为一个占位符。那么如何才是正确的呢?这就引出pytorch中RNN需要处理变长输入的需求了。在上面这个例子,我们想要得到的表示仅仅是LSTM过完单词"Yes"之后的表示,而不是通过了多个无用的“Pad”得到的表示:如下图:二:函数解析1.pack_原创 2021-03-27 22:51:35 · 342 阅读 · 0 评论 -
知识蒸馏详解
在第一次听到知识蒸馏这个名词时,觉得好高大上,后来听台湾大学李宏毅老师讲解时也是云里雾里。后来我找到一篇文章,应该可以说是我找到的最好,最容易理解的知识蒸馏的文章了,放个链接,推荐大家食用知识蒸馏:新手必看如果这里边的交叉熵没有弄得很明白,可以参考我的另外一篇博客交叉熵从数学到机器学习如果大家有找到更详细,更容易理解的知识蒸馏的文章,可以在下面留言链接哦...原创 2021-03-25 17:49:32 · 642 阅读 · 0 评论 -
torchtext常用函数整理
先介绍一下torchtext的常用的组件Data:常用的是里边的Field,然是是迭代器BucketIterator,Iterator等Dataset:里边有很多的数据集,比如分类,问答等,其中的splits函数和split函数经常用。1.FieldField 包含一写文本处理的通用参数的设置,同时还包含一个词典对象,可以把文本数据表示成数字类型,进而可以把文本表示成需要的tensor类型以下是Field对象包含的参数:sequential: 是否把数据表示成序列,如果是False, 不能使用分原创 2021-03-21 01:01:30 · 1128 阅读 · 2 评论 -
torch.nn.Linear and unsqueeze
#产生的是一个一维的列表x =torch.linspace(-1,1,20)print(x.shape)#输出[20]#产生的是一个二维的张量x = torch.unsqueeze(torch.linspace(-1, 1, 100), dim= 0 )print(x.shape)#输出[1,100] 如果dim是1的话,那么x.shape就是[100,1]#torch.nn.Linear线性计算x = torch.randn(128, 20)m = torch.nn.Linear原创 2021-01-04 23:17:55 · 165 阅读 · 0 评论