![](https://img-blog.csdnimg.cn/cf54724b1a2f42eabed5ee5fc043bc01.jpg?x-oss-process=image/resize,m_fixed,h_224,w_224)
pytorch深度学习
文章平均质量分 56
本专栏用于记录深度学习中的各种经历
TOPthemaster
这个作者很懒,什么都没留下…
展开
-
Resnet 迁移学习记录
在实际应用中,cnn网络的训练是很繁琐且浪费时间的,这时候我们一般会去选择加载网上已经训练得很完善的网络作为自己的cnn网络层,下面例子为使用Resnet预训练模型来做自己的图片分类:# 网络定义 class Resnet(nn.Module): def __init__(self): super(Resnet, self).__init__() pretrained_net = torchvision.models.resnet18(pretrained=Tr原创 2021-10-25 22:00:17 · 244 阅读 · 0 评论 -
目标检测-锚框概念和代码实现
前言经历过图像分类后,进一步的就是更复杂的目标检测了,从这一章开始,将会不断记录图像目标检测中的学习经历,其中大多数思路以及代码来源,来自于李沐的动手学深度学习课程,不过在这里,我会尽可能不用d2l的库,而是把里面方法提取出来,或者重写,以便理解和单独使用。锚框概念在目标检测中,我们需要去框选出目标所在位置的坐标,这个时候,在初始的深度学习方案中,提出了锚框的概念,即预先对每个像素绘制5个左右的虚拟框,例如:假设输入一张500x500的图片,那么它应该得到的锚框数为:500x500x5个代码实现原创 2021-10-19 16:49:03 · 1661 阅读 · 0 评论 -
深度学习中训练loss一直不变
训练loss一直不变在之前的文章中,分别做了LeNet,NiNNet,AlexNet,VGGNet的训练测试,在NiN和VGG中,经常遇到训练时loss一直居高不下的原因,网上较为完善的解释一般如下:我应该属于其中的第四种,反复修改了学习率,损失函数和momentum参数后,跑了很久它终于开始收敛了,数据集大概有60k,在经过两个epoch后,开始收敛,可能是由于心浮气躁,每次测试都只让记录了几个batch参数,每个batch1500张训练图左右,没看到效果,便认为它已经没有进步了放弃了,甚至怀疑自己原创 2021-10-17 15:25:00 · 4995 阅读 · 2 评论 -
VGG-pytorch实现
VGG1.网络结构如图可见,VGG网络的构造很简单,通过不断地卷积,池化,扩大通道数,降低宽高,最终平展为一维数据再进行softmax分类。相较于AlexNet而言,VGG最大的特征就是降低了卷积核尺寸,增加了卷积核的深度层数,拥有更多的非线性变换,增加了CNN对特征的学习能力。2.pytorch网络设计这里采用的数据集为FashionMNIST数据集,慢慢地往后的文章也会引入更多的数据集使用,Fashion MNIST包含了10种类别70000个不同时尚穿戴品的图像,整体数据结构上跟MNIST原创 2021-09-17 17:01:45 · 731 阅读 · 0 评论 -
AlexNet-pytorch实现
LeNet1.网络架构如图所示可见其结构为:AlexNet网络共八层,五层卷积层和三层全连接层。这是一个非常经典的设计,为后续神经网络的发展提供了极大的贡献。2.pytorch网络设计网络设计部分做了一些小的修改,目的是为了适配minist的3x28x28的输入图片大小。网络构造代码部分:class AlexNet(nn.Module): def __init__(self): super(AlexNet, self).__init__() self.原创 2021-09-16 16:55:46 · 318 阅读 · 0 评论 -
LeNet神经网络-pytorch实现
LeNet1.网络架构抛开SVM支持向量机和MLP多层感知机,接触的第一个CNN网络架构如图所示可见其结构为:输入的二维图像处理后,先经过两次卷积层到池化层,再经过全连接层,最后使用softmax分类作为输出层。2.pytorch网络设计网络构造代码部分:class LeNet5(nn.Module): def __init__(self): super().__init__() self.conv1 = nn.Conv2d(1, 6, 5, padd原创 2021-09-16 16:31:29 · 590 阅读 · 0 评论