深度学习
Easy.miclover
做一个会思考的程序猿
展开
-
PaddlePaddle飞桨课程 - 图像分割学习笔记(一)
目录课程链接:课程内容:课程大纲:第一天主要内容:图像分割综述第二天主要内容:FCN讲解第三天主要内容:U-Net模型与PSPNet模型详解第四天主要内容:DeepLab系列详解第五天主要内容:图卷积网络用于分割第六天主要内容:实例分割与全景分割第七天主要内容:课程链接:https://aistudio.baidu.com/aistudio/course/introduce/1767课程内容:1. 从经典算法到学界前沿,从技术细节到完整流程,语义.原创 2020-10-25 15:04:26 · 472 阅读 · 0 评论 -
深度学习-前言
数据量大,数据之间有局部相关性整体解释:1)自下而上的非监督学习2)自顶向下的监督学习接下来,在深度学习板块,我将结合自己找工作时候涉及到的一些深度学习方面的知识进行总结,希望可以对博友们有所帮助。主要分为一下及部分进行。一、 卷积相关问题.1、卷积2、什么时候用local-conv、什么时候用全卷积3、可分离卷积模型压缩?4、CNN常见问题.....原创 2019-05-02 23:33:06 · 757 阅读 · 0 评论 -
深度学习-卷积神经网络(CNN)
目录一、CNN1、卷积2、什么时候用local-conv、什么时候用全卷积3、可分离卷积模型压缩?4、CNN常见问题5、Batch-Normalization:(加速训练)6、Pooling作用?max-pooling和mean-pooling7、dropout8、L1与L2正则化7、激活函数8、ReLU代替 sigmoid 的利弊9、卷积反向传播过...原创 2019-05-04 13:32:40 · 1484 阅读 · 1 评论 -
深度学习-深度学习调参经验
目录二、深度学习调参经验一、参数初始二、数据预处理方式三、训练技巧四、尽量对数据做shuffle五、Ensemble二、深度学习调参经验一、参数初始权重W的:uniform均匀分布初始化:Xavier初始法,适用于普通激活函数(tanh,sigmoid):scale = np.sqrt(3/n)二、数据预处理方式zero-center :X -= n...原创 2019-05-05 13:40:41 · 487 阅读 · 0 评论 -
深度学习-迭代优化器的原理
目录1、SGD 以及学习率的选择方法、带动量的 SGD 1)随机梯度下降 2)带动量的SGD2、自适应学习率算法:AdaGrad、RMSProp、Adam 1)AdaGrad 2)RMSProp 3)Adam...原创 2019-05-08 12:58:24 · 872 阅读 · 0 评论 -
深度学习-卷积实例
目录卷积实例了解LeNet-5AlexNet:VGG-16ResNets:谷歌Inception(GoogLeNet): 卷积实例了解深度卷积网络研究最多的就是如何将第一周所学的基本组件进行有效的组合,设计更加高效的神经网络结构。经典网络结构:LeNet-5使用sigmoid和tanh激活函数。原始Le-Net使用average-pooling。大...原创 2019-05-06 09:36:06 · 337 阅读 · 0 评论