![](https://img-blog.csdnimg.cn/20191005161232799.jpg?x-oss-process=image/resize,m_fixed,h_224,w_224)
pytorch学习笔记
pytorch学习笔记
果子果实
这个作者很懒,什么都没留下…
展开
-
nn.CrossEntropyLoss() torch.div() .csv数据的shuffle 注意事项
nn.CrossEntropyLoss()简洁的注意事项:input维度要求是2D tensor, 形状 (N,C) C 是类别的数量target维度1D tensor,形状(N) N是mini-batch的大小,0 <= targets[i] <= C-1class torch.nn.CrossEntropyLoss(weight=None, size_average=True...原创 2019-10-22 13:37:50 · 295 阅读 · 0 评论 -
torch.nn.Linear
Linear layersclass torch.nn.Linear(in_features, out_features, bias=True)对输入数据做线性变换:y=Ax+b参数:in_features - 每个输入样本的大小out_features - 每个输出样本的大小bias - 若设置为False,这层不会学习偏置。默认值:True形状:输入: (N,in_featur...原创 2019-10-20 16:32:32 · 213 阅读 · 0 评论 -
torch.bmm() torch.matmul() expand() cat() split()
torch.bmmtorch.bmm(batch1, batch2, out=None) → Tensor对存储在两个批batch1和batch2内的矩阵进行批矩阵乘操作。batch1和 batch2都为包含相同数量矩阵的3维张量。 如果batch1是形为b×n×m的张量,batch1是形为b×m×p的张量,则out和mat的形状都是n×p(n×m m×p ->n×p),即 res=(b...原创 2019-10-20 16:28:03 · 367 阅读 · 0 评论 -
torch.unsqueeze() view() permute() transpose()
torch.unsqueezetorch.unsqueeze(input, dim, out=None)返回一个新的张量,对输入的指定位置增加一个维度例子:https://blog.csdn.net/xiexu911/article/details/80820028torch.squeeze(input, dim, out=None)就是在指定维度压缩一个维度注意: 返回张量与输入张量...原创 2019-10-20 15:52:42 · 325 阅读 · 0 评论 -
nn.module nn.parameter
class torch.nn.ModuleContainers(容器):class torch.nn.Module所有网络的基类。详见中文文档方法:register_parameter(name, param)向module添加 parameter,参数的名字是name,默认值是paramparameter可以通过注册时候的name获取forward( input)*定义了每次执...原创 2019-10-20 10:33:06 · 682 阅读 · 0 评论 -
torch.nn Sparse layers
Sparse layers 字面意思就是稀疏层,我是查torch.nn.Embedding看到的torch.nn.Embedding(num_embeddings, embedding_dim, padding_idx=None, max_norm=None, norm_type=2, scale_grad_by_freq=False, sparse=False)num_embeddings ...原创 2019-10-19 17:53:38 · 473 阅读 · 0 评论 -
torch.nn 中非线性激活函数公式_参数含义
各种非线性激活函数详解在pytorch中文文档——>torch.nn——>Non-Linear Activations 解释的非常详细,公式都有参数:(input,dim) dim表示进行activation function处理的维度,详见:https://blog.csdn.net/sunyueqinghit/article/details/101113251https://...原创 2019-10-19 16:43:16 · 659 阅读 · 0 评论 -
attention 代码学习笔记
http://nlp.seas.harvard.edu/2018/04/03/attention.html#applications-of-attention-in-our-modelimport numpy as npimport torchimport torch.nn as nnimport torch.nn.functional as Fimport math, copy, ti...原创 2019-10-07 10:03:31 · 200 阅读 · 0 评论 -
atae_lstm代码 学习 笔记
atae_lstm:aspect-attention-aspect-embedaspect = self.embed(aspect_indices) #transform aspect索引 to aspect向量#从上图中可以看出,所有的aspect embedding的向量va对于不同的词向量wi都是一样的,即 只有一个vaaspect_pool = torch.div(torch.su...原创 2019-10-06 09:36:16 · 1283 阅读 · 0 评论 -
torch.nn.utils.rnn.pack_padded_sequence
torch.nn.utils.rnn.pack_padded_sequence和torch.nn.utils.rnn.pad_packed_sequence的使用其实还没完全搞懂(捂脸)https://github.com/marmalade666/pytorch_learning/blob/master/pack_paded_sequence.ipynb...原创 2019-10-05 16:23:34 · 932 阅读 · 0 评论 -
pytorch安装
首先,官网https://pytorch.org/原创 2019-10-05 16:17:05 · 68 阅读 · 0 评论