![](https://img-blog.csdnimg.cn/1fd36082a359460fb1fe60d3d05460b4.jpeg?x-oss-process=image/resize,m_fixed,h_224,w_224)
AI论文精读&&代码逐行解析
文章平均质量分 95
从小白的角度去精读AI论文原文。
湘粤Ian
热爱AI的湘粤Ian
展开
-
GoogleNet 论文精读&&代码逐行解析
笔者从人工智能小白的角度,力求能够从原文中解析出最高效率的知识。之前看了很多博客去学习AI,但发现虽然有时候会感觉很省时间,但到了复现的时候就会傻眼,因为太多实现的细节没有提及。而且博客具有很强的主观性,因此我建议还是搭配原文来看。请下载原文《Going Deeper with Convolutions》搭配阅读本文,会更高效哦!原创 2022-10-04 00:02:16 · 1429 阅读 · 0 评论 -
VGG 论文精读&&代码逐行解析
笔者从人工智能小白的角度,力求能够从原文中解析出最高效率的知识。之前看了很多博客去学习AI,但发现虽然有时候会感觉很省时间,但到了复现的时候就会傻眼,因为太多实现的细节没有提及。而且博客具有很强的主观性,因此我建议还是搭配原文来看。请下载原文《Very Deep Convolutional Networks for Large-Scale Image Recognition》搭配阅读本文,会更高效哦!原创 2022-09-25 11:04:20 · 729 阅读 · 3 评论 -
ResNet 论文精读&&代码逐行解析
笔者从人工智能小白的角度,力求能够从原文中解析出最高效率的知识。之前看了很多博客去学习AI,但发现虽然有时候会感觉很省时间,但到了复现的时候就会傻眼,因为太多实现的细节没有提及。而且博客具有很强的主观性,因此我建议还是搭配原文来看。请下载原文原文搭配阅读本文,会更高效哦!使用残差学习框架使训练深层网络变得更加容易。用了152层网络,比VGG深8倍,但计算复杂度更低(好奇为什么?)将常用模型的CNN主干网络换成了残差网络,且在许多数据集上有不错的效果,例如目标检测数据集COCO。原创 2022-09-25 10:40:19 · 1569 阅读 · 0 评论 -
AlexNet 论文精读&&代码逐行解析
笔者从人工智能小白的角度,力求能够从原文中解析出最高效率的知识。之前看了很多博客去学习AI,但发现虽然有时候会感觉很省时间,但到了复现的时候就会傻眼,因为太多实现的细节没有提及。而且博客具有很强的主观性,因此我建议还是搭配原文来看。请下载原文原文搭配阅读本文,会更高效哦!把ImageNet数据集用监督学习的方法去训练,并利用GPU 加速,与当时前沿的技术结果进行了对比,取得了不错的分类效果。原创 2022-09-25 10:30:44 · 509 阅读 · 0 评论