- 博客(4)
- 资源 (1)
- 收藏
- 关注
原创 【论文阅读笔记1】LeNet、AlexNet、VGG小结
一、LeNet 论文题目:“Gradient-Based Learning Applied to Document Recognition” 简介:该论文的第一作者是深度学习三巨头之一的Yan LeCun,发表于1998年。这是一篇手写体识别的经典论文,更是CNN的开山之作,它确立了卷积神经网络的基本结构。 阅读重点:Section2 的A、B两部分。两部分的翻译见...
2018-09-26 19:40:49 492
原创 【深度学习笔记】关于卷积层、池化层、全连接层简单的比较
卷积层 池化层 全连接层 功能 提取特征 压缩特征图,提取主要特征 将学到的“分布式特征表示”映射到样本标记空间 操作 https://www.cnblogs.com/nsnow/p/4562308.html 可看这个的动态图,可惜是二维的。对于三维数据比如RGB图像(3通道),卷积核的深度必须同输入的通道数,输出的通道数等于卷...
2018-09-22 20:51:05 4496
原创 【深度学习笔记】优化算法( Optimization Algorithm)
本文依旧是吴恩达《深度学习工程师》课程的笔记整理与拓展。一、优化算法的目的与挑战 优化算法主要是用来加快神经网络的训练速度,使得目标函数快速收敛。 优化问题面临的挑战有病态解、鞍点、梯度爆炸与梯度消失……具体可见参考文献【1】241页到249页。 其中深度学习不太可能陷入局部最优,因为loss函数通常涉及多个维度(w1,w2...)二、常见的优化算法1、基...
2018-09-15 20:27:43 4946
原创 【深度学习笔记】正则化(Regularization)
本文主要是对吴恩达《深度学习工程师》在线课程关于正则化部分的笔记整理,并进行了一定的扩展。 一、何为正则化 在《深度学习》【1】一书中,正则化的定义是“对学习算法的修改——旨在减少泛化误差而不是训练误差”。我们知道正则化的目的是减少过拟合,对应定义中的泛化误差。那是不是减少过拟合的方法都可以叫做正则化呢?这个问题我暂时还无法解答。通过查阅相关资料我发现,通常在机器学习...
2018-09-15 17:21:33 848
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人