![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
经典论文阅读
文章平均质量分 90
日出_1127
视觉研究生苦读论文,探索多模态、提示微调新世界
展开
-
ResNet(论文阅读):Deep Residual learning for Image Recognition
深层神经网络往往更难训练,我们提出了一种残差学习框架,使得网络深度可以大幅度增加,同时降低了训练难度。我们明确地将每一层改造成相对于输入进行学习的残差函数,而不是学习无参考函数。大量的实证证据表明,这种残差网络更容易优化,并且可以通过显著增加网络深度来提高准确率。我们在ImageNet数据集上评估了最大深度达到152层的残差网络——比VGG网络深8倍,但复杂度更低。这些残差网络的集成在ImageNet测试集上的错误率为3.57%。此外,我们还对CIFAR-10数据集的100层和1000层进行了分析。原创 2024-07-13 05:15:00 · 788 阅读 · 0 评论 -
AlexNet(论文阅读):ImageNet Classification with Deep ConvolutionalNeural Networks
本文训练了一个大型深度卷积神经网络,用于将ImageNet LSVRC-2010竞赛中的120万张高分辨率图像分类为1000个不同的类别。在测试数据上,我们达到了37.5%的top-1错误率和17.0%的top-5错误率,这明显优于之前的最佳水平。该神经网络拥有6000万个参数和65万个神经元,由五个卷积层组成,其中一些卷积层后面跟着最大池化层,以及三个全连接层,最终是1000路softmax。为了加快训练速度,我们使用了不饱和神经元和卷积操作的非常高效的GPU实现。原创 2024-07-11 10:30:00 · 936 阅读 · 2 评论