- 博客(4)
- 收藏
- 关注
原创 GoogleNet
提高深度神经网络的最直接的方法就是增加其大小,这其中包括增加网络深度以及增加网络宽度,这样虽然简单,但也意味这增加了许多的参数,放大的网络在训练时更容易过拟合,在数据集少的时候会成为一个主要瓶颈,而且大数据集通常都很贵,大网络训练起来成本很高。GoogleNetv1在2014年ILSVRC分类挑战赛中以6.67%的错误率取得了冠军,随着对“小模型”的需求越来越多,功耗和内存使用变得越来越重要,该模型开创性的提出了Inception模块,来解决上面的问题。相似(一起激发的神经元会连接在一起)
2024-04-02 12:15:50
559
原创 ZFNet(可视化和理解卷积网络)
在大型卷积网络在ImageNet比赛上表现出非常好的性能,但是人们并没有明确的理解他们为什么表现得如此优秀,并且如何改进他们,ZFNet介绍了一种新的可视化技术,帮助我们了解其中的原理,这也是他最大的贡献。
2024-04-01 17:12:47
1669
原创 经典神经网络AleNet
在AleNet出现之前,物品识别方法基本上利用了机器学习的方法,学习更强大的模型,当时使用小数据集的模型,数字识别任务的最佳错误率(
2024-03-29 11:40:44
369
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人