Pytorch基础

1. Pytorch基础

  1. X.reshape(-1, 4)隐式指定第一维度的大小,通过程序自动推断。

  2. torch.zeros((2, 3, 4)),参数是一个tuple,特别注意torch张量计算的广播性质

  3. torch.cat((X, Y), dim=0) dim=0表示第一个维度相加,其他维度保持不变。

  4. X == Y , X < Y, X > Y逐个元素进行比较,返回一个同大小的True-False张量,X.sum()会将所有元素相加。

  5. 如果我们想为多个元素赋值相同的值,我们只需要索引所有元素,然后为它们赋值
    X[0:2, :] = 12

  6. 我们可以使⽤切⽚表⽰法将操作的结果分配给先前分配的数组,例如Y[:] = expression

  7. pd.get_dummies(df, dummy_na=True) 实现哑变量编码,Convert categorical variable into dummy/indicator variable. 该函数可将dummy_na代表是否将NaN也记录,增加一行

  8. 哈达码积,两个向量逐个元素相乘。A * B ;Torch.dot(a, b)表示两个向量的点积,torch.mm(a, b)表示两个矩阵的矩阵乘法。
    A. sum(axis=0,keepdims=True)表示第0轴在求和过程中就没有了。

  9. torch.detach()用于将当前的tensor从计算图中取出通俗点解释就是,经过detach返回的张量将不会进行反向传播计算梯度。

  10. pytorch神经网络
    通过实例化nn.Sequential来构建我们的模型,层的执⾏顺序是作为参数传递的。

  11. 模型的参数访问
    net[0].state_dict() 访问第一层的参数
    net[0].bias.data 访问第一层访问偏置
    net[2].weight.grad 访问第三层权重的梯度
    net.named_parameters() 访问模型中所有的参数
    net[2].bias.data访问偏置
    可以使用net.state_dict()来访问模型的参数,再利用torch.save()便可保存。加载参数时先实例化一个对象clone,再clone.load_state_dict(torch.load('mlp.params'))

参考资料

动手学深度学习

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值