![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
vinojie
这个作者很懒,什么都没留下…
展开
-
深度学习中关于优化算法的问题
深度学习中一些常见的问题,优化,多重共线性,特征选择,如何改进模型等原创 2020-06-03 17:52:38 · 1635 阅读 · 0 评论 -
CNN的常见问题
卷积神经网络中一些问题原创 2020-06-02 17:25:23 · 1237 阅读 · 0 评论 -
深度学习基础的常见问题
1、神经网络更“深”有什么意义?倾向于“一定范围内”。1、在神经元数量相同的情况下,更深的网络结构具有较大的容量,划分组合增加了指数级的表达空间,能够组合更多不同类型的子结构。也就意味着更容易学习和表达各种特征。2、隐藏层的增加则意味着由激活函数带来的非线性变换的嵌套层数更多,可以构造更复杂的映射关系。2、什么是超参数?超参数:超参数就是在学习过程之前设置的一组值,而不是通过训练得到的参数。超参数通常存在于:定义关于模型的更高层次的概念,如复杂性或学习能力。不能直接从标准模型学习过程中的数原创 2020-05-31 15:43:08 · 429 阅读 · 0 评论 -
注意力机制Attention Machnism是什么以及为什么
Attention是一种用于提升基于RNN(LSTM或GRU)的Encoder + Decoder模型的效果的的机制(Mechanism),一般称为Attention Mechanism。Attention Mechanism目前非常流行,广泛应用于机器翻译、语音识别、图像标注(Image Caption)等很多领域,之所以它这么受欢迎,是因为Attention给模型赋予了区分辨别的能力原创 2020-05-27 17:26:39 · 888 阅读 · 0 评论 -
如何在jupyter上启动tensorboard
如何在jupyter notebook上启动tensorboard原创 2020-05-24 18:44:23 · 6793 阅读 · 1 评论 -
为什么梯度消失在传统RNN中相比于CNN更严重?
当神经网络层数非常深时,神经网络优化算法会面临的另外一个难题就是长期依赖问题——由于变深的结构使模型丧失学习先前信息的能力,让优化变得极其困难。而循环神经网络的设计初衷之一就是为了能够捕获长距离输入之间的依赖关系,深度经网络中的梯度消失会让使用BPTT算法学习到的循环神经网络并不能成功捕获到长距离的依赖关系。为什么这个问题在RNN中更加凸显呢?这是因为循环审计宁网络在很长的时间序列的各个时刻重复应用相同操作来构建非常深的计算图,并且模型参数共享,这使得梯度消失的问题更加严重;下面我们先看看传统RNN原创 2020-05-20 17:28:19 · 708 阅读 · 0 评论 -
CNN基本原理及Python实现
CNN基本原理,和Python的简单实现过程原创 2020-05-18 19:59:58 · 19541 阅读 · 2 评论