深度学习论文笔记
文章平均质量分 94
对所阅读的文献做总结
保持客气哈
这个作者很懒,什么都没留下…
展开
-
Generative Adversarial Network(GAN)
论文:《Generative Adversarial Nets》自2014年Ian Goodfellow提出了GAN(Generative AdversarialNetwork)以来,对GAN的研究可谓如火如荼。各种GAN的变体不断涌现,GAN全称对抗生成网络,顾名思义是生成模型的一种,而他的训练则是处于一种对抗博弈状态中的。GAN的基本原理其实非常简单,这里以生成图片为例进行说明。假设我们有两个网络,G(Generator)和D(Discriminator)。原创 2023-03-26 21:22:32 · 101 阅读 · 0 评论 -
RepVGG-深度解读
论文名称:RepVGG: Making VGG-style ConvNets Great Again本文提出了一种简单但功能强大的卷积神经网络结构,它具有一个由3 × 3卷积和ReLU组成的类似VGG的推理时间体,而训练时间模型具有多分支拓扑结构。这种训练时间和推理时间结构的解耦是通过结构重新参数化技术实现的,因此该模型被命名为RepVGG。原创 2023-03-21 16:34:03 · 302 阅读 · 0 评论 -
AlexNet(ImageNet Classification with Deep Convolutional Neural Networks)网络详解
AlexNet是2012年ImageNet竞赛冠军获得者Hinton和他的学生Alex Krizhevsky设计的。也是在那年之后,更多的更深的神经网路被提出,比如优秀的vgg,GoogleLeNet。其官方提供的数据模型,准确率达到57.1%,top 1-5 达到80.2%注:其实在AlexNet网络问世之前,在进行图像识别,分割等工作时,我们采用手工提取特征或者是特征+机器学习的方式,但是这样很难。原创 2023-03-01 21:52:34 · 617 阅读 · 0 评论 -
ShuffleNetV2-轻量级神经网络
目前衡量模型复杂度的一个通用指标是FLOPs,具体指的是multiply-add数量,但是这却是一个间接指标,只是一个估计的指标,因为它不完全等同于速度或延迟(这是我们直接观察的指标),速度还取决于其他的因素,例如存储器存取成本(memory access cost)和平台特性所以本文就提出了我们应该使用更直接的效率度量方法(如速度和延迟)。原创 2023-03-17 20:20:44 · 630 阅读 · 0 评论 -
ShuffleNetV1-轻量级神经网络
ShuffleNet是旷视科技提出的一种计算高效的CNN模型,其和MobileNet和SqueezeNet等一样主要是应用在移动端。所以,ShuffleNet的设计目标也是如何利用有限的计算资源来达到最好的模型精度,这需要很好地在速度和精度之间做平衡。和,这在保持精度的同时大大降低了模型的计算量,同时这种结构能够允许网络使用更多的通道,通道之间可以交流信息,帮助 encode 阶段提取更多的信息,这点对极小的网络非常关键。模型结构设计和模型压缩。原创 2023-03-16 22:31:00 · 456 阅读 · 0 评论 -
ConvNeXt-教你如何改模型
ConvNeXt的出现证明,并不一定需要Transformer那么复杂的结构,只对原有CNN的技术和参数优化也能达到SOTA,未来CV领域,CNN和Transformer谁主沉浮?太阳花的小绿豆。原创 2023-03-14 20:40:16 · 5615 阅读 · 0 评论 -
Deep Residual Learning for Image Recognition (ResNet)
ResNet详解原创 2023-02-27 22:01:51 · 219 阅读 · 2 评论 -
Vision Transformer 学习笔记
VIT详解原创 2023-03-08 10:41:00 · 393 阅读 · 0 评论 -
Transfomer详解
Self-attention是早于transformer的,但是它是由于transformer才火起来。它可以应用在transformer和Bert等应用上,那么为什么要用到self-attention呢?它能解决什么问题呢?原创 2023-03-02 22:12:36 · 1681 阅读 · 1 评论