![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
经典深度模型
文章平均质量分 69
峡谷的小鱼
这个作者很懒,什么都没留下…
展开
-
PyTorch实现:经典网络 ResNet
ResNet(Residual Neural Network)由微软研究院的Kaiming He等四名华人提出,通过使用 Residual 结构训练出更深的神经网络,效果非常突出。ResNet的结构可以极快的加速神经网络的训练,模型的准确率也有比较大的提升。原创 2022-05-04 22:00:06 · 1083 阅读 · 0 评论 -
PyTorch实现:经典网络 含并行连结的网络 GoogLeNet
在GoogleNet出现值前,流行的网络结构使用的卷积核从1×1到11×11,卷积核的选择并没有太多的原因。GoogLeNet的提出,说明有时候使用多个不同大小的卷积核组合是有利的。原创 2022-05-03 01:45:45 · 745 阅读 · 0 评论 -
PyTorch实现:经典网络 NiN
NIN(NetWork In NetWork) 是出自新加坡国立大写2014年的论文"Network In Network",NIN 改进了传统的CNN,采用了少量参数就取得了超过AlexNet的性能,AlexNet网络参数大小是230M,NIN只需要29M,此模型后来先后被Inception与ResNet 等所借鉴。 ———————————————— 版权声明:本文为CSDN博主「遇到我的Bug你要裂了」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。 原文链接:http原创 2022-05-02 19:34:43 · 711 阅读 · 0 评论 -
PyTorch实现:经典网络 块网络VGG
AlexNet 证明深层神经网络卓有成效,但是AlexNet网络的设计没能给出一个通用的设计模板,来指导后续的研究人员设计网络框架。从AlexNet来看,卷积神经网络的基本组成部分包括:卷积层、激活函数层、汇聚层。因此,VGG提出了卷积块的概念,构建了一种基于卷积块设计的网络设计方法。原创 2022-05-02 15:36:19 · 1345 阅读 · 0 评论 -
PyTorch实现:经典网络 AlexNet
传统的机器学习方法,在收集到数据集之后,需要使用光学、几何学等领域的知识来指导手工对数据的预处理,然后通过标准的特征提取算法获取特征,最后将提取的特征送入选择的分类器中。随着技术的发展,另一种想法开始出现:特征的提取本身,也应该由模型通过学习来提取;特征可以有多个神经网络层来共同学习。由此,诞生的 AlexNet 最终使得卷积神经网络开始在图像领域超越其它机器学习方法。原创 2022-05-02 02:23:34 · 1930 阅读 · 4 评论 -
PyTorch实现:经典网络LeNet
PyTorch实现LeNet网络 一. LeNet 网络介绍 我们将介绍LeNet,它是最早发布的卷积神经网络之一,因其在计算机视觉任务中的高效性能而受到广泛关注。 这个模型是由AT&T贝尔实验室的研究员Yann LeCun在1989年提出的(并以其命名),目的是识别图像 :cite:LeCun.Bottou.Bengio.ea.1998中的手写数字。 当时,Yann LeCun发表了第一篇`在这里插入代码片`通过反向传播成功训练卷积神经网络的研究,这项工作代表了十多年来神经网络研究开发的成果。 L原创 2022-01-19 04:01:17 · 3005 阅读 · 0 评论