读论文
Jerry~~京
这个作者很懒,什么都没留下…
展开
-
ResNet笔记 Deep Residual Learning for Image Recognition
深层的神经网络很难去训练,所以我们提出了一个残差学习框架去应对这个问题。所提出的网络更容易优化、能够通过显着增加的深度获得准确性。并且网络在ILSVRC 2015比赛上获得第一名的成绩,并且该网络具有很好的泛化性,可以应用到各种计算机视觉任务(检测、定位、分割)中。原创 2023-11-13 16:51:18 · 89 阅读 · 0 评论 -
代价函数,损失函数,目标函数区别
https://blog.csdn.net/lyl771857509/article/details/79428475原创 2023-10-23 15:30:36 · 43 阅读 · 0 评论 -
前馈神经网络(前向传播和误差反向传播)
这个博客写的很不错:https://www.cnblogs.com/Luv-GEM/p/10694471.html。原创 2023-10-23 15:07:34 · 57 阅读 · 0 评论 -
常见激活函数笔记
非线性无论使用多少线性变换,都还是线性的,只能解决线性的问题连续可导反向传播过程中求导定义域是R(全体实数)单调递增的曲线。原创 2023-10-19 22:56:50 · 31 阅读 · 0 评论 -
反向传播算法、计算图笔记
参考https://www.bilibili.com/video/BV1yG411x7Cc/?前向传播时,需要存储这一次前向传播过程中所有的中间值和参数值,如下图中。这些值,之后在反向传播计算中需要使用。参考B站up主风中摇曳的小萝卜视频。原创 2023-10-19 20:49:31 · 33 阅读 · 0 评论 -
梯度下降、随机梯度、动量随机梯度、自适应学习率(AdaGrad、RMSProp)、Adam笔记
参考B站up主风中摇曳的小萝卜视频。原创 2023-10-19 19:39:22 · 40 阅读 · 0 评论 -
交叉熵和KL散度笔记
以下内容均参考王木头学科学B站up主的视频和专栏导:比较两个概率分布的最大障碍出现了。两个不同类型的概率分布,它们无法直接公度。所有的概率分布,都可以统一地被转换成熵,比较两个概率分布是不是相同,不同的话,它们之间又相差多少,都可以用熵来进行衡量了。原创 2023-10-18 23:19:19 · 37 阅读 · 1 评论