Deep Learning
文章平均质量分 72
佰无一用是书生
这个作者很懒,什么都没留下…
展开
-
OSError: [WinError 1455] 页面文件太小,无法完成操作
小编在跑模型的时候第一次碰到这个错误,然而代码和之前一样,并且之前的代码完全可以跑,因此想到估计是自己太久没关机导致应用后台占用内存过多导致,因此:重启电脑可以解决90%的问题。...原创 2022-01-15 11:25:13 · 153 阅读 · 0 评论 -
简述深度学习路线
小编简单的罗列出本人从接触深度学习,到阅读各位大佬的路线以及自身的切身体会,简单陈述一下深度学习的一个基本路线,仅供参考,如有错误欢迎指出(本人于19年年末接触机器学习,正式学深度学习从21年年初开始,20年一整年在备考)注意: 本文假定读者已经拥有一定的python编程以及一定的机器学习知识。一、入门阶段–视频为主,书籍为辅,代码其次:基础阶段个人建议可以通过看基础视频以及入门的书籍,掌握深度学习基本知识,对深度学习有个宏观的认识,搭建起大致的深度学习框架。首先推荐的入门视频当然是吴恩达老师的深度原创 2021-11-05 12:07:41 · 2931 阅读 · 6 评论 -
简述R-CNN、Fast R-CNN、Faster R-CNN
最近在准备本科毕设,方向是目标检测,导师给的文章是关于Faster R-CNN的(论文题目是:Faster R-CNN:Towards Real-Time Object Detection with Region Proposal Networks),出于好奇,自己还是私底下找了一下R-CNN(论文题目是:Rich feature hierarchies for accurate object detection and semantic segmentation)、Fast R-CNN(论文题目是:Fas原创 2021-03-18 10:54:43 · 902 阅读 · 0 评论 -
简析深度学习常见激活函数(Sigmoid、Tanh、ReLU、Leaky ReLU)
激活函数的主要作用是提供网络的非线性建模能力。如果没有激活函数,那么该网络仅能够表达线性映射,此时即便有再多的隐藏层,其整个网络跟单层神经网络也是等价的。因此也可以认为,只有加入了激活函数之后,深度神经网络才具备了分层的非线性映射学习能力。下图为激活函数的计算过程y=h(b+w1x1+w2x2)y=h(b+w_{1}x_{1}+w_{2}x_{2})y=h(b+w1x1+w2x2),我们将该式拆开可以写为:a=b+w1x1+w2x2a=b+w_{1}x_{1}+w_{2}x_{2}a=b+w1原创 2021-03-17 15:52:04 · 3156 阅读 · 0 评论