深度学习必会的知识点

深度学习在比较火的时候,很多人想从事这方面的工作,但是深度学习有哪些必须会的知识点呢?我在学习的过程中,慢慢的学习,慢慢积累,现将会的一部分记录了下来,会慢慢的更新的

1、CPU与GPU的区别

CPU:Central Processing Unit中央处理器,是一台计算机的运算核心和控制核心,

GRU:Graphic Processing Unit图形处理器,一个专门的图形核心处理器,GRU是显示卡的“大脑”,决定了该显卡的档次和大部分性能

CPU虽然有多核,但一般也就几个,每个核都有足够大的缓存和足够多的数字和逻辑运算单元,需要很强的通用性处理各种不同的数据类型,同时又要逻辑判断又会引入大量的分歧跳转和中断处理,并辅助很多加速分支判断甚至更复杂的逻辑判断的硬件。这些都使得CPU的内部结构异常复杂,而GPU面对的则是类型高度统一的、相互依赖的大规模数据和不需要被打断的纯净的计算环境

GPU的核数远超过CPU,被称为众核,每个核拥有的缓存大小相对小,数字逻辑运算单元也少而简单,面对的则是类型高度统一的、相互无依赖的大规模数据和不需要被打断的纯净的计算环境。GPU的工作大部分是这样的:计算量大,但没什么技术含量,而且要重复很多很多次

下面的解释很好理解:

图片来自网址:

https://www.cnblogs.com/chakyu/p/7405186.html()

2、什么样的资料集不适合深度学习的训练学习?

数据集太小,数据样本不足时,深度学习相对其它机器学习算法,没有明显优势。

数据集没有局部相关特性,目前深度学习表现比较好的领域主要是图像/语音/自然语言处理等领域,这些领域的一个共性是局部相关性。图像中像素组成物体,语音信号中音位组合成单词,文本数据中单词组合成句子,这些特征元素的组合一旦被打乱,表示的含义同时也被改变。对于没有这样的局部相关性的数据集,不适于使用深度学习算法进行处理。

举个例子:预测一个人的健康状况,相关的参数会有年龄、职业、收入、家庭状况等各种元素,将这些元素打乱,并不会影响相关的结果  例子中的各个特征之间没有相关性,所以不适合作为深度学习的语料集进行深度学习的训练。

3、激活函数的作用

定义:激活函数是映射:h:R-->R,且几乎处处可导

神经网络中激活函数的主要作用是提供网络的非线性建模能力,如不特别说明,激活函数一般而言是非线性函数,假设一个示例神经网络中仅包含线性卷积和全连接运算,那么该网络仅能够表达线性映射,即便增加网络的深度也依旧还是线性映射,难以有效建模实际环境中非线性分布的数据,加入(非线性)激活函数之后,深度神经网络才具备了分层的非线性映射学习能力。因此,激活函数是深度神经网络中不可或缺的部分。

4、神经网络

神经网络的学习就是学习如何利用矩阵的线性变换加激活函数的非线性变换,将原始输入空间投向线性可分/稀疏的空间去分类/回归。增加节点数:增加维度,即增加线性转换能力。增加层数:增加激活函数的次数,即增加非线性转换次数

 为什么深层神经网络比浅层神经网络更高效:迭代组成的先验知识使得样本可用于帮助训练其他共用同样底层结构的样本。
神经网络在什么问题上不具备优势:不满足并行与迭代先验的任务

5、CNN: 

1)卷积:对图像元素的矩阵变换,是提取图像特征的方法,多种卷积核可以提取多种特征。一个卷积核覆盖的原始图像的范围叫做感受野(权值共享)。一次卷积运算(哪怕是多个卷积核)提取的特征往往是局部的,难以提取出比较全局的特征,因此需要在一层卷积基础上继续做卷积计算 ,这也就是多层卷积。

2)池化:降维的方法,按照卷积计算得出的特征向量维度大的惊人,不但会带来非常大的计算量,而且容易出现过拟合,解决过拟合的办法就是让模型尽量“泛化”,也就是再“模糊”一点,那么一种方法就是把图像中局部区域的特征做一个平滑压缩处理,这源于局部图像一些特征的相似性(即局部相关性原理)。
3) 全连接:softmax分类
训练过程:
卷积核中的因子(×1或×0)其实就是需要学习的参数,也就是卷积核矩阵元素的值就是参数值。一个特征如果有9个值,1000个特征就有900个值,再加上多个层,需要学习的参数还是比较多的。
CNN的三个优点:

sparse interaction(稀疏的交互),parameter sharing(参数共享),equivalent respresentation(等价表示)。适合于自动问答系统中的答案选择模型的训练。

CNN与DNN的区别:

DNN的输入是向量形式,并未考虑到平面的结构信息,在图像和NLP领域这一结构信息尤为重要,例如识别图像中的数字,同一数字与所在位置无关(换句话说任一位置的权重都应相同),CNN的输入可以是tensor,例如二维矩阵,通过filter获得局部特征,较好的保留了平面结构信息。

filter尺寸计算:Feature Map的尺寸等于(input_size + 2 * padding_size − filter_size)/stride+1

6、RNN:

1)为什么具有记忆功能?
这个是在RNN就解决的问题,就是因为有递归效应,上一时刻隐层的状态参与到了这个时刻的计算过程中,直白一点呢的表述也就是选择和决策参考了上一次的状态。
2)为什么LSTM记的时间长?
因为特意设计的结构中具有CEC的特点,误差向上一个状态传递时几乎没有衰减,所以权值调整的时候,对于很长时间之前的状态带来的影响和结尾状态带来的影响可以同时发挥作用,最后训练出来的模型就具有较长时间范围内的记忆功能。
误差回传的主力还是通过了Memory Cell而保持了下来。所以我们现在用的LSTM模型,依然有比较好的效果。
最后整个梳理一下误差回传的过程,误差通过输出层,分类器,隐层等进入某个时刻的Block之后,先将误差传递给了Output Gate和Memory Cell两个地方。
到达输出门的误差,用来更新了输出门的参数w,到达Memory Cell之后,误差经过两个路径,
1是通过这个cell向前一个时刻传递或者更前的时刻传递,
2是用来传递到input gate和block的输入,用来更新了相应的权值(注意!不会经过这里向前一个时刻传递误差)。
最关键的问题就是,这个回传的算法,只通过中间的Memory Cell向更前的时刻传递误差。

7、 CNN最成功的应用是在CV,那为什么NLP和Speech的很多问题也可以用CNN解出来?为什么AlphaGo里也用了CNN?这几个不相关的问题的相似性在哪里?CNN通过什么手段抓住了这个共性?

以上几个不相关问题的相关性在于,都存在局部与整体的关系,由低层次的特征经过组合,组成高层次的特征,并且得到不同特征之间的空间相关性。低层次的直线/曲线等特征,组合成为不同的形状,最后得到汽车的表示。 
CNN抓住此共性的手段主要有四个:局部连接/权值共享/池化操作/多层次结构。局部连接使网络可以提取数据的局部特征;权值共享大大降低了网络的训练难度,一个Filter只提取一个特征,在整个图片(或者语音/文本) 中进行卷积;池化操作与多层次结构一起,实现了数据的降维,将低层次的局部特征组合成为较高层次的特征,从而对整个图片进行表示。

8、什麽造成梯度消失问题? 
神经网络的训练中,通过改变神经元的权重,使网络的输出值尽可能逼近标签以降低误差值,训练普遍使用BP算法,核心思想是,计算出输出与标签间的损失函数值,然后计算其相对于每个神经元的梯度,进行权值的迭代。 
梯度消失会造成权值更新缓慢,模型训练难度增加。造成梯度消失的一个原因是,许多激活函数将输出值挤压在很小的区间内,在激活函数两端较大范围的定义域内梯度为0。造成学习停止

9、小知识点

损失函数loss:预测值月已知结果的差距,常用均方误差MSE作为loss

学习率learning rate:决定参数每次更新的幅度

滑动平均:提高模型泛化能力

正则化:缓解过拟合

池化pooling:减少特征数量

CNN:借助卷积核提取特征后,送入全连接网络

10、为什么需要RNN(循环神经网络)
一般的神经网络智能单独的处理一个个的输入,前一个输入和后一个输入是完成没有关心的,但是,某些任务需要能够更好的处理序列的信息,即前面的输入和后面的输入是有关系的。比如,我们在理解一句话的意思时,孤立的理解这句话的每一个词是不够的,我们需要处理这些词连接起来的整个序列

搜集的面试题

1.  台球
有8个台球,其中一个比其他的7个都要重一些。如果仅仅是使用天平而不称出具体的重量,请问最少几次能找出那个最重的台球?
2.  沙漠里的男尸
 在沙漠里发现一具男人的尸体,他手里有一根火柴。没有脚印。请问他为什么会死,是怎么死的?
3. 4升水
你有足够多的水和两个杯子:5L和3L。请精确地量出4L水。
4.  熊
你刚建造了一间房子,房子的每一面墙都是朝南的。突然你看见了一只熊,请问这只熊是什么颜色的?
5.  药片
医生给了病人4片药:每一种药2片,医生叮嘱千万不能弄混了。早上一种药吃1片,晚上一种药吃1片。如果吃错了或者不吃,病人就会死掉。然而,病人把要弄混了,怎么办?

答案1:
2次。把所有的球分成3组,其中2组是3个球,最后一组是两个球。首先,把3个球的两组放在天平上。如果其中一方比较重,把偏重的那一组球任意拿出来两个放在天平上。如果两组球一样重,那就把剩下的2个球放在天平上称重。
答案2:
这个问题主要是测试你还原事件真相的能力。这个男人是在跳下飞机的时候摔死的。飞机上的降落伞不够,所以用抽火柴的方式决定。不幸的是,这个男人抽中的是短火柴,所以就只能在没有降落伞的情况下跳下去了。
答案3:
1. 先把5L水的杯子装满,然后用5L的杯子里的水把3L的杯子装满。
2. 把3L杯子里的水倒掉。
3. 把5L杯子里剩的2L水倒入3L的杯子。
4. 把5L的杯子装满,再用5L杯子里的水补满3L的杯子(里边有2L的水)。这样5L的杯子里就有4L水。
答案4:
白色的。只有在北极才能做到房子的每一面墙都是朝南的。
答案5:
把四片药都分成两半,早上吃4个半片,晚上吃4个半片。

  • 5
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
深度学习期末知识点的PDF包含了深度学习的重要概念和技术,以下是对PDF内容的回答: 深度学习是一种基于人工神经网络的机器学习方法。它通过对大量数据进行训练来自动学习模式和表示,从而实现对复杂任务的高效处理。深度学习的核心概念包括神经网络、激活函数、损失函数、反向传播算法等。 神经网络是深度学习的基本模块,由多个神经元按层次组成。每个神经元接收上一层神经元的输出,并通过激活函数对输入进行非线性转换。常见的激活函数有Sigmoid、ReLU、Tanh等。神经网络的层数越多,可以表示的复杂模式就越多。 在深度学习中,损失函数用于度量模型预测与真实值的差异。常见的损失函数有均方误差(MSE)、交叉熵(Cross Entropy)等。模型通过反向传播算法来更新权重,以最小化损失函数。反向传播算法基于链式法则,将梯度从输出层传递到输入层,用于调整每个神经元的权重。 深度学习中的优化算法用于求解损失函数的最优解。常见的优化算法有随机梯度下降(SGD)、动量法、Adam等。这些算法通过迭代更新权重,使得损失函数逐渐减小。 除了基本概念和技术,深度学习的应用也涵盖了图像识别、语音识别、自然语言处理等领域。深度学习的模型结构也在不断发展,如卷积神经网络(CNN)适用于图像处理,循环神经网络(RNN)适用于序列数据。 综上所述,深度学习期末知识点的PDF内容涵盖了深度学习的核心概念、技术和应用。通过学习深度学习的知识,我可以理解神经网络的工作原理,掌握优化算法的选择和应用,以及应用深度学习解决实际问题的能力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小杨算法屋

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值