小土堆代码实战
记录跟着小土堆学习pytorch的代码及注释。
qq_42022648
这个作者很懒,什么都没留下…
展开
-
代码实战(小土堆)——完整的模型验证套路
利用已经训练好的模型,然后给它提供输入。原创 2024-02-03 14:19:23 · 416 阅读 · 0 评论 -
代码实战(小土堆)——利用GPU训练(二)
这里先定义设备:device = torch.device("cuda:0")使用:tudui = tudui.to(device)代码原创 2024-02-03 13:31:25 · 353 阅读 · 0 评论 -
代码实战(小土堆)——利用GPU训练(一)
网络模型,数据(输入,标注),损失函数 都可以在GPU上进行。原创 2024-02-01 20:40:14 · 395 阅读 · 0 评论 -
代码实战(小土堆)——完整的模型训练套路
准备数据集,dataloader加载数据集,搭建网络模型,创建网络模型实例,定义损失函数,定义优化器,设置网络训练的参数,开始训练,测试验证模型,保存模型,将训练结果用tensorboard展示。原创 2024-02-01 20:23:29 · 426 阅读 · 0 评论 -
代码实战(小土堆)——网络模型的保存与读取
但是在真实的项目当中不会把模型复制来复制去,会定义在一个单独的文件夹里面,通过import引入过来。用方式一保存自己的网络模型,加载的时候需要复制过去。原创 2024-02-01 13:40:23 · 846 阅读 · 0 评论 -
代码实战(小土堆)——现有网络模型的使用及修改
【代码】代码实战(小土堆)——现有网络模型的使用及修改。原创 2024-01-31 15:40:44 · 394 阅读 · 0 评论 -
代码实战(小土堆)——优化器
当使用损失函数的时候,调用损失函数的backward进行反向传播,可以求出每一个需要调节的参数对应的梯度,接着利用优化器对参数进行调整,使得误差降低。原创 2024-01-31 14:07:35 · 351 阅读 · 0 评论 -
代码实战(小土堆)——损失函数和反向传播
【代码】代码实战(小土堆)——损失函数和反向传播。原创 2024-01-31 13:21:03 · 335 阅读 · 0 评论 -
代码实战(小土堆)——神经网络—搭建小实战和Sequential的使用
删掉后面的Linear层,看Flatten之后是多少。最后得到的是64个10分类。这样写代码简单一点。原创 2024-01-31 12:20:45 · 429 阅读 · 0 评论 -
代码实战(小土堆)——神经网络—线性层
【代码】代码实战(小土堆)——神经网络—线性层。原创 2024-01-30 20:20:55 · 355 阅读 · 0 评论 -
代码实战(小土堆)——神经网络—非线性激活
非线性变换的主要目的:给网络当中引入一些非线性特征,因为非线性越多,才能训练出符合各种曲线或者说符合各种特征的模型,提高模型泛化能力。原创 2024-01-30 14:16:38 · 354 阅读 · 0 评论 -
代码实战(小土堆)——神经网络—最大池化的作用
为什么进行最大池化?保留输入的特征,同时减少数据量(5x5的输入经过池化可以变成3x3或者1x1的)数据量减少,参数就会减少,会训练的更快。比如说蓝光画质和高清画质。。。原创 2024-01-30 13:13:20 · 463 阅读 · 0 评论 -
代码实战(小土堆)——神经网络—卷积层
【代码】代码实战(小土堆)——神经网络—卷积层。原创 2024-01-29 17:43:59 · 396 阅读 · 0 评论 -
代码实战(小土堆)——土堆说卷积操作
【代码】代码实战(小土堆)——土堆说卷积操作。原创 2024-01-29 16:21:09 · 388 阅读 · 0 评论 -
代码实战(小土堆)——神经网络的基本骨架—nn.Module的使用
【代码】代码实战(小土堆)——神经网络的基本骨架—nn.Module的使用。原创 2024-01-29 14:48:08 · 386 阅读 · 0 评论 -
代码实战(小土堆)——DataLoader的使用
drop_last=False(除不尽的不会舍去)drop_last=True(除不尽的舍去)shuffle=False(不打乱)shuffle=True(打乱)原创 2024-01-29 14:29:14 · 417 阅读 · 0 评论 -
代码实战(小土堆)——torchvision中的数据集使用
原始图片是PIL.Image,需要转成tensor类型。CIFAR10是torchvision自带的数据集。原创 2024-01-29 11:33:22 · 372 阅读 · 0 评论 -
代码实战(小土堆)——常见的Transforms(二)
Compose()中的参数需要是一个列表,Python中,列表的表示形式为 [数据1, 数据2,...],在Compose中,数据需要是 transforms类型,所以得到,Compose([transforms参数1,transforms参数2,...])。可以设置宽高:transforms.RandomCrop((400,500))原创 2024-01-28 17:31:33 · 304 阅读 · 0 评论 -
代码实战(小土堆)——常见的Transforms(一)
【代码】代码实战(小土堆)——常见的Transforms(一)原创 2024-01-28 15:56:16 · 314 阅读 · 0 评论 -
代码实战(小土堆)——Transforms的使用(一)(二)
【代码】代码实战(小土堆)——Transforms的使用(一)(二)原创 2024-01-28 14:46:17 · 398 阅读 · 0 评论 -
代码实战(小土堆)——TensorBoard的使用(二)
从PIL到numpy,需要在add_image()中指定shape中每一个数字/维表示的含义。原创 2024-01-28 13:57:12 · 366 阅读 · 0 评论 -
代码实战(小土堆)——TensorBoard的使用(一)
记录跟着小土堆学习pytorch的代码及注释。原创 2024-01-27 22:00:38 · 371 阅读 · 0 评论