![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch+深度学习
以沐神课为主,学习笔记
wuxuand
这个作者很懒,什么都没留下…
展开
-
pytorch学习15之GPU
指定用于存储和计算的设备,如CPU和GPU。默认情况下,张量是在内存中创建的,然后使用CPU计算它。查询张量所在的设备。默认情况下,张量是在CPU上创建的。神经网络模型可以指定设备。使用GPU存放模型参数。原创 2023-08-05 10:02:30 · 117 阅读 · 0 评论 -
pytorch学习14之读写文件
张量对象的文件读写,使用save和load函数。通过参数字典保存和加载网络的全部参数。原创 2023-07-31 11:37:51 · 223 阅读 · 0 评论 -
pytorch学习之代码问题FAQ
python常遇问题及解决方法。原创 2023-07-31 09:28:17 · 170 阅读 · 0 评论 -
pytorch学习13之自定义层
将层作为组件合并到构建更复杂的模型中net = nn.Sequential(nn.Linear(8, 128), CenteredLayer())#由一个线性层(输入八组拥有128个特征的输入)和一个centeredlayer组成Y = net(torch.rand(4, 8))#生成4组形状和输入一样的矩阵。它是【0,1)之间的均匀分布。#randn是返回一个包含从标准正态分布中抽取的随机数张量。#print(Y)print(Y.mean())#计算会有些误差#带参数的层。原创 2023-07-21 23:05:04 · 160 阅读 · 0 评论 -
pytorch学习12之延后初始化
回顾之前的学习中,建立网络时:仅定义了网络架构,但没有指定输入维度。添加层时没有指定前一层的输出维度。在初始化参数时,甚至没有足够的信息来确定模型应该包含多少参数。所以需要在框架的延后初始化(defers initialization)。到数据第一次通过模型传递时,框架动态判断每层大小。原创 2023-07-19 23:08:47 · 169 阅读 · 0 评论 -
pytorch学习11之参数管理
深度学习框架没有提供需要的初始化方法。几种方法访问、初始化和绑定模型参数。使用自定义初始化方法。原创 2023-07-17 23:42:46 · 172 阅读 · 0 评论 -
pytorch学习10之模型构建
*args相当于收集参数,把若干个参数打包成一个进行传入# 将所有传进来的层(参数)。按顺序放到_modules函数中,将每层作为一个字典# 这里,module是Module子类的一个实例。我们把它保存在'Module'类的成员# 变量_modules中。_module的类型是OrderedDict# OrderedDict保证了按照成员添加的顺序遍历它们# 按顺序一层层调z用return X# 不计算梯度的随机权重参数。因此其在训练期间保持不变# 生成随机权重,不参加训练,不计算梯度。原创 2023-07-15 00:05:03 · 66 阅读 · 0 评论 -
pytorch学习9之深度学习(层与块)
【代码】pytorch学习9之深度学习(层与块)原创 2023-07-07 00:29:50 · 37 阅读 · 0 评论 -
pytorch学习8之kaggle房价预测
kaggle比赛之房价预测原创 2023-07-05 23:32:28 · 324 阅读 · 0 评论 -
pytorch学习7 链式法则及求导
x和w做内积。原创 2023-07-04 20:09:16 · 126 阅读 · 0 评论 -
pytorch学习6-矩阵计算
梯度指向值变化的最大的方向。原创 2023-07-04 10:34:09 · 62 阅读 · 0 评论 -
pytorch 学习5-线性代数基础
深度学习的线性代数预备知识原创 2023-07-03 23:23:46 · 105 阅读 · 0 评论 -
pytorch学习4-数据预处理
1、数据预处理,创建数据集。2、从csv文件中读取数据。原创 2023-07-03 17:19:49 · 42 阅读 · 0 评论 -
pytorch深度学习1
【代码】pytorch深度学习1。原创 2023-07-02 21:29:19 · 35 阅读 · 0 评论 -
pytorch学习3-张量的简单操作
可以用[-1]选择最后一个元素,可以用[1:3]选择第二个和第三个元素。8、广播机制(broadcasting mechanism)执行元素操作x。8、广播机制(broadcasting mechanism)执行元素操作x。两个形状不同的张量相加时,使用广播机制。可以使用两种方式,原地修改内存,减少操作内存开销。两个形状不同的张量相加时,使用广播机制。2、查看数据形状,改变数据形状(不改变内容)2、查看数据形状,改变数据形状(不改变内容)a,b复制成一个(3,2)的形状。13、转换为Numpy张量。原创 2023-07-03 11:10:23 · 148 阅读 · 0 评论 -
pytorch学习2数据操作
5-d 一个视频批量(批量大小*时间*宽*高*通道)4-d 一RGB图片批量(批量大小*宽*高*通道)3-d(rgb图片(宽*高*通道))原创 2023-07-02 21:51:41 · 30 阅读 · 0 评论