pytorch
文章平均质量分 78
NockinOnHeavensDoor
blog已不用~谢谢关注~
展开
-
pytorch: repeat方法的使用
X = np.random.randn(100, 10)W = np.random.randn(10, 64)b = np.ones(64)z = X @ W + b # Works用torch执行会报错,因为broadcasting机制还没有实现;X = torch.randn(100, 10)W = torch.randn(10, 64)b = torch.ones(64)...原创 2018-05-10 20:35:34 · 11806 阅读 · 4 评论 -
torch记录:torch.nn模块
Recurrent layersclass torch.nn.RNN(*args, **kwargs)参数: input_size – 输入x的特征数量。 hidden_size – 隐层的特征数量。 num_layers – RNN的层数。 bidirectional – 如果True,将会变成一个双向RNN,默认为False。RNN的输入: (input, h_0...原创 2018-08-31 16:00:21 · 2033 阅读 · 0 评论 -
torch记录:张量、采样、操作
Tensors (张量)Indexing, Slicing, Joining, Mutating Ops (索引, 切片, 连接, 换位) 操作Math operations (数学操作)Other Operations (其它操作)参考:http://pytorch.apachecn.org/cn/0.3.0/torch.html#Tensors (张量)...原创 2018-08-31 19:17:33 · 2206 阅读 · 0 评论 -
pytorch记录:seq2seq例子看看这torch怎么玩的
先看看简单例子:import torchimport torch.autograd as autogradimport torch.nn as nnimport torch.nn.functional as Fimport torch.optim as optimtorch.manual_seed(1)用torch.tensor让list成为tensor:# Cre...2018-09-02 23:11:17 · 2455 阅读 · 3 评论 -
pytorch的一个快速介绍
参考来源于:Pytorch Tutorial – Chongruo Wu写的真的不错,在这里分享下:首先是torch的三个主要模块:Tensor、 Variable 、Module。Tensor 可以视为ndarray , 但是可以在GPU上做计算,比如下图中的cuda设置; Variable 是计算图上的一个节点,存储数据和梯度;Module含有神经网络的层,可用于存储可训练的网络参...原创 2019-03-14 16:43:14 · 274 阅读 · 0 评论 -
torch: Invalid index in scatter at c:\a\w\1\s\windows\pytorch\aten\src\th\gene 解决
文档了解:https://pytorch.org/docs/stable/tensors.html?highlight=scatter_#torch.Tensor.scatter_scatter_(dim, index, src) → TensorWrites all values from the tensor src into self at the indices specifi...原创 2019-03-23 10:34:36 · 4019 阅读 · 1 评论