![](https://img-blog.csdnimg.cn/direct/641caed502e64d27b199cee3ef91dfd6.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
pytorch
深度学习工具-pytorch的使用
小徐要考研
大三在读,欢迎交流。扎扎实实,反反复复。计划更新,C语言程序设计、数据结构、高等数学,线性代数相关知识。
展开
-
深度学习工具的安装 CUDA Anaconda
cuDNN的验证。原创 2023-11-11 19:44:02 · 100 阅读 · 0 评论 -
小土堆-pytorch-神经网络-完整的验证套路16_笔记
当你在cpu上使用gpu训练的模型时。选用第30轮gpu训练的模型进行训练。原创 2023-09-09 20:22:55 · 187 阅读 · 1 评论 -
小土堆_pytorch_利用GPU训练15_笔记
利用GPU进行模型训练,会有效提高深度学习速率方法一:在网络模型中,损失函数中,输入中加入cuda网络模型:损失函数:输入规范化写法截图: 在有GPU的时候用GPU训练,没有GPU的时候用CPU训练以此类推,在每一个cuda前做if判断。原创 2023-09-08 21:00:11 · 151 阅读 · 1 评论 -
小土堆_pytorch_完整的模型训练_十种物品分类_一步一步代码实现14_笔记
pytorch实战 十分类问题原创 2023-09-07 19:20:53 · 263 阅读 · 1 评论 -
小土堆-pytorch-神经网络-网络模型的保存和读取13_笔记
创建2个python空文件,模拟保存和读取保存完成后,会出现这样的文件。原创 2023-09-05 22:08:30 · 161 阅读 · 1 评论 -
小土堆-pytorch-神经网络-现有网络模型的使用和修改12_基于VGG模型_笔记
现在我们用vgg模型解决cfar10中10个物体的分类问题,但是vgg中训练好的是解决1000个物体的分类,这时候我们需要自行添加一层,完成inputs=1000,outputs=10。从这里我们可以看出add_linear被添加到了最后面,如果想要添加到某个层中。假如我们不想添加层,而是要修改层.下面我们以vgg16_false为例子。原创 2023-09-04 15:55:39 · 281 阅读 · 1 评论 -
小土堆-pytorch-神经网络-优化器11_笔记
优化器前2个参数是一样的 第一个是模型的参数,用来更新的,另一个是学习率.发现loss并没有和之前变化太多,我们需要多次循环,缩小loss。后面的参数随着不同类型的算法改变而改变.原创 2023-09-03 20:53:43 · 34 阅读 · 0 评论 -
小土堆-pytorch-神经网络-损失函数与反向传播10_笔记
lossfuntion原创 2023-09-03 19:44:18 · 43 阅读 · 0 评论 -
小土堆-pytorch-神经网络-搭建小实战和Sequential 09_笔记
Sequential 是 Keras 中的一种神经网络框架,可以被认为是一个容器,其中封装了神经网络的结构。Sequential 模型只有一组输入和一组输出。各层之间按照先后顺序进行堆叠。前面一层的输出就是后面一次的输入。通过不同层的堆叠,构建出神经网络。实战实现目标:从inputs到outputs#bitch_size=64 想象成有64张图片。原创 2023-09-03 09:23:07 · 179 阅读 · 0 评论 -
小土堆-pytorch-神经网络-线性层及其他层介绍08_笔记
查看输入图片的大小和reshape之后图片的大小。用flatten处理。原创 2023-08-31 21:04:27 · 34 阅读 · 1 评论 -
小土堆-pytorch-神经网络-非线性激活函数07_笔记
relu只有一个参数 inplace就是替换的意思 输出值是否替换输入值,一般情况下用flase。原创 2023-08-27 17:35:16 · 31 阅读 · 1 评论 -
小土堆-pytorch-最大池化层的使用06_笔记
池化层的从零实现原创 2023-08-27 15:21:48 · 48 阅读 · 1 评论 -
小土堆-pytorch-卷积层05_笔记
小土堆pytorch笔记原创 2023-08-27 14:07:34 · 40 阅读 · 1 评论 -
小土堆-pytorch-土堆说卷积操作04_笔记
平面channel通道是1,batch size'的大小是1 数据维度是5*5 这里面conv2d(N,C,H,W)里面的四个是N就是batch size 也就是输入图片的数量,C就是通道数这只是一个二维张量所以通道为1,H就是高,W就是宽,所以是1,1,,5,5。实现目标: input->卷积核计算->output stride是移动的距离(步长)原创 2023-08-25 17:23:56 · 93 阅读 · 1 评论 -
小土堆-pytorch-神经网络的基本骨架-nn.Module的使用03_笔记
【代码】小土堆-pytorch-神经网络的基本骨架-nn.Module的使用03_笔记。原创 2023-08-25 11:27:32 · 51 阅读 · 1 评论 -
小土堆-pytorch-DataLoader的使用02_笔记
小土堆_pytorch_个人笔记原创 2023-08-25 10:25:49 · 69 阅读 · 0 评论 -
小土堆-pytorch-torchvision中的数据集使用01_笔记
运行结果图片。原创 2023-08-23 21:04:32 · 100 阅读 · 0 评论