![](https://img-blog.csdnimg.cn/3136bb722b934b54b829be1075d75aa8.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
pytorch
文章平均质量分 76
pytorch,是深度学习的一个工具手段,此介绍了pytorch的使用方法,和用pytorch进行的code片段
panbaoran913
学习Python,深度学习,强化学习的知识
有时间看私聊和回答问题
私聊我问题请写好题目
展开
-
[torch]日志记录之SummaryWriter(持更)
使用DataLoader设置batch_size,批量训练。似乎不能下面这样搞?定义Dataset数据。原创 2023-01-02 15:08:31 · 1321 阅读 · 0 评论 -
【nn.Parameter()】生成和为什么要初始化
torch.nn.Parameter是继承自torch.Tensor的子类,其主要作用是作为nn.Module中的可训练参数使用。它与torch.Tensor的区别就是nn.Parameter会自动被认为是module的可训练参数,即加入到parameter()这个迭代器中去;而module中非nn.Parameter()的普通tensor是不在parameter中的。nn.Parameter可以看作是一个类型转换函数,将一个不可训练的类型Tensor转换成可以训练的类型parameter....原创 2022-07-30 20:08:36 · 3039 阅读 · 0 评论 -
【torch】张量乘法:matmul,einsum
torch中的张量乘法,matmul和einsum的互通跟区别原创 2022-07-30 11:53:23 · 3179 阅读 · 0 评论 -
【torch.Tensor.new_full】详解
参数详解根据前面的栗子,有人就回想,与torch.ones有什么区别呢?可以看到下面的案例可以通过相同的方法得到同样的数值。那么torch.Tensor.new_full有什么用呢?细心的小伙伴,会发现在使用的时候前面会有一个Tensor变量。而我们产生的New_Tensor在默认情况下是与原来的Tensor的device和dtype是一致的。这简化了我们的操作。提醒使用前必须有对应一个Tensor,否则会报错。如下:...原创 2022-06-17 20:29:22 · 7550 阅读 · 0 评论 -
[nn.Parameter]理解总结与初始化方法大全
文章目录一、查看性质二、参数是否初始化的区别三、参数初始化的方法1. 均匀分布2. 正太分布3. 常数分布4. 全1分布5. 全0分布6.单位分布:question:7. xavier_uniform 分布8. xavier_normal 分布9. kaiming_uniform 分布10. kaiming_normal 分布11、正交矩阵12、稀疏矩阵13. 函数初始化14、遍历初始化Parameter实际上也是Tensor,也就是说是一个多维矩阵,是Variable类中的一个特殊类。当我们创建一个m原创 2022-05-31 17:55:14 · 10046 阅读 · 0 评论 -
torch.nn.functional.normalize详解
一、 函数分析函数的默认情况:torch.nn.functional.normalize(input, p=2, dim=1, eps=1e-12, out=None)含义:返回在指定维度上的输入数据input的L-p范数的标准化后的数据。(在指定维度上,该数据的每个元素除以其L-p范数)L-p范数:数学上的范数是指一个向量x=(x1,x2,...,xn)x=(x_1,x_2,...,x_n)x=(x1,x2,...,xn)的模。公式如下。如果数学概念不理解的话:每个向量(1维还是多维原创 2022-04-09 19:13:57 · 11056 阅读 · 6 评论 -
[torch]t.sparse.mm&t.spmm的使用与区别
代码:a = torch.randn(2, 3)a1 =a.to_sparse().requires_grad_(True)a2 = torch.randn(5,2,3).to_sparse()a3 = a.to_sparse().requires_grad_(False)b = torch.randn(3, 2)b1 =b.to_sparse().requires_grad_(True)b2 = torch.randn(5,3,32).to_sparse()b3 = b.to_spars原创 2022-03-27 12:12:11 · 2599 阅读 · 1 评论 -
[TD3]算法简介、代码分析以及教你改代码
非常优秀的论作,建议去看。这里写一些我所收货的知识以及知识的归纳。参考链接:1.《浅谈TD3:从算法原理到代码实现》2. 《【深度强化学习】TD3算法:DDPG的进化》3. 《强化学习之TD3算法实现》4. 《论文笔记之TD3算法》—牛!5. 论文《Fujimoto, Scott, Herke van Hoof, and Dave Meger. “Addressing Function Approximation Error in Actor-Critic Methods.》的原文,下载原文一原创 2022-03-22 23:42:01 · 2574 阅读 · 1 评论 -
【torch】搭建GCN的详细介绍
一、GCN的原理简单,也有很多博客在说明!链接1:https://arxiv.org/abs/1609.02907链接2:https://mp.weixin.qq.com/s/DJAimuhrXIXjAqm2dciTXg二、GCN的层代码import mathimport torchfrom torch.nn.parameter import Parameterfrom torch.nn.modules.module import Moduleclass GraphConvolution(原创 2022-03-22 16:41:45 · 2642 阅读 · 0 评论 -
[pytorch]优化《python深度学习:基于pytorch》
参考资料:一、优化器PyTorch常用的优化方法都封装在torch. optim里面,其设计很灵活,可以扩展为自定义的优化方法。所有的优化方法都是继承了基类optim.Optimizer,并实现了自己的优化步骤。最常用的优化算法就是梯度下降法及其各种变种,后续章节我们将介绍各种算法的原理,这类优化算法通过使用参数的梯度值更新参数。说明使用优化器的一-般步骤为:(1) 建立优化器实例导入optim模块,实例化SGD优化器,这里使用动量参数momentum (该值一般在(0,1) 之间),是SGD的改原创 2021-11-24 22:26:37 · 1224 阅读 · 0 评论 -
[torch]神经网络工具箱nn《python深度学习:基于pytorch》
参考资料:《python深度学习:基于pytorch》在nn工具箱中有两个重要的模块:nn.Modelnn.functional1. nn.Modulenn.Module 是nn的一个核心数据结构,它可以是神经网络的某个层(layer),也可以是包含多层的神经网络.在实际使用中,最常见的做法是继承nn.Module,生成自己的网络层.nn中已实现了绝大多数层,包括连接层、损失层、激活层、卷积层、循环层等,这些层都是nn.Module的子类,能够自动检测到自己的Parameter,并将其作为学习原创 2021-11-24 21:03:13 · 230 阅读 · 0 评论 -
【DDPG】走过的坑,致力于解决action不变化的问题
记录一下DDPG/GDDPG训练中出现的问题初始化部分: self.actor_eval = ActorNet(s_dim, a_dim) self.actor_target = ActorNet(s_dim, a_dim) self.critic_eval = CriticNet(s_dim, a_dim) self.critic_target = CriticNet(s_dim, a_dim) # create 2 optimizers for actor and critic self.原创 2021-11-22 20:31:56 · 4434 阅读 · 8 评论 -
【Antorgrad】使用Tensor 及Antograd实现机器学习
使用Tensor 及Antograd实现机器学习节选自《python深度学习:基于pytorch》因对自动求导不太了解,所以特查看此书,并做好笔记.重点是非标量反向传播,对应的是多元函数的方向传播问题!!!要点:创建叶子节点(leaf node)的Tensor,使用requires_grad参数指定是否记录对其的操作,以便之后利用backward()方法进行梯度求解.requires_grad参数的缺省值为False,如果对其求导设置为True,然后与之有依赖关系的节点会自动变为True.可原创 2021-11-21 23:32:39 · 882 阅读 · 0 评论 -
【理论】【normalization】从机器学习和深度学习两方面来写哦
本文结合其他人优秀的论文,从机器学习中的Normalization和深度学习中normalization两个角度写了各种常见的normalization操作。非常全面,并会随时补充~原创 2020-12-14 21:52:39 · 231 阅读 · 3 评论 -
【理论】【代码】参数随机初始化方法
一、均匀分布uniform1.1 介绍服从~U(a,b)U ( a , b )U(a,b)1.2 代码1.2.1 torchtorch.nn.init.uniform_(tensor, a=0, b=1) #给Tensor或者Variable填充值使其满足均匀分布U(a,b) #参数: #tensor: 一个待填充的 torch.Tensor or autograd.Variable #a: 均匀分布下界 #b: 均匀分布上届 #Exa原创 2020-12-09 17:37:29 · 1085 阅读 · 0 评论