![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
rocketeerLi
自由地努力着
展开
-
使用 PyTorch 处理CUB200_2011数据集
最近在研究一些深度学习的东西,想找一些数据集,第一眼看到 CUB 的时候,就相中它了,数据集大小合适,类别还很多,关键还提供了目标检测的边框,不仅可以做分类,还可以做检测(虽然只是单目标检测~),感觉很酷,想研究一下。CUB 数据集一共 200 个类别,共 11788 张图片,每张图片除包括类别标签外,还有一个标注的物体边框(Bounding Box)、关键点和一些其他属性,算是一个很细粒度的图像分类的数据集了。原创 2020-03-17 22:28:27 · 8691 阅读 · 8 评论 -
使用 PyTorch 实现 MLP 并在 MNIST 数据集上验证
这是深度学习课程的第一个实验,主要目的就是熟悉 Pytorch 框架。MLP 是多层感知器,我这次实现的是四层感知器,代码和思路参考了网上的很多文章。个人认为,感知器的代码大同小异,尤其是用 Pytorch 实现,除了层数和参数外,代码都很相似。Pytorch 写神经网络的主要步骤主要有以下几步:1. 构建网络结构2. 加载数据集3. 训练神经网络(包括优化器的选择和 Loss 的计算)4. 测试神经网络原创 2019-06-15 23:36:27 · 12697 阅读 · 7 评论 -
基于 PyTorch 实现 AlexNet 并在 Cifar-10 数据集上进行验证
这是深度学习课程的第二个实验,实验的主要内容是卷积神经网络,要求实现 AlexNet。但是 AlexNet 的输入不符合 Cifar-10 数据集,因此这里将参数更改了一下,但网络结构没有变,还是五层卷积,三层全连接。虽然对于 32 X 32 这么小的图片,用 AlexNet 有点大材小用的感觉,但实验要求,而且对于初学者来说,AlexNet 还是很经典的,能学到不少东西,直接干就好了。原创 2019-06-20 13:21:23 · 11697 阅读 · 13 评论 -
基于 PyTorch 实现 VGG-11 并在Cifar-10数据集上进行验证
VGG 论文地址:VGG 是一个很经典的卷积神经网络结构,是由 AlexNet 改进的,相比于 AlexNet,主要的改变有两个地方: 使用 3 x 3 卷积核代替 AlexNet 中的大卷积核 使用 2 x 2 池化核代替 AlexNet 的 3 x 3 池化核原创 2019-06-23 19:48:16 · 4757 阅读 · 0 评论 -
基于 PyTorch 实现 ResNet-18 并在Cifar-10数据集上进行验证
通常的认识是,神经网络的深度越深,效果越好;但事实并不完全一致,太深的神经网络很容易导致梯度消失或梯度爆炸。ResNet 网络的提出,就是为了解决网络深度增加的问题。ResNet 提出了一个新的网络块——残差块:原创 2019-06-23 21:23:49 · 7278 阅读 · 15 评论