深度学习神经网络基础

最近学习复旦大学老师陈卫东讲解的深度学习基础,做了个思维导图。

 链接:https://pan.baidu.com/s/1B1dH3v4ehVUbAr63jCc4Yw 
提取码:y17m 
--来自百度网盘超级会员V3的分享

1

单选(2分)

下面哪种结果不是利用机器学习算法从数据中得到的?

  • A.规则

  • B.常识

  • C.回归模型

  • D.神经网络

正确答案:B你选对了

2单选(2分)

有关神经网络训练时使用的学习率参数说法错误的是?

  • A.学习率可以与其他网络参数一起训练,对降低代价函数是有利的。

  • B.网络训练时刚开始学习率可以大一些,以便提高学习速度,随后应减少学习率,以免引起学习震荡。

  • C.学习率可以随着训练误差动态调整效果更好。

  • D.学习率过大更容易导致训练陷入局部极小值。

正确答案:D你错选为A

3单选(2分)

下面哪个选项不是神经网络训练过程中过拟合的防止方法?

        A.增加学习率

  • B.dropout

  • C.L2正则化

  • D.提前终止

正确答案:A你选对了

4

单选(2分)

下面有关神经网络的说法,错误的是?

  • A.神经网络的训练主要是针对神经元之间的权重和神经元的偏置进行一定的调整,使得代价函数极小化

  • B.神经网络不同层次的神经元可以使用不同的激活函数

  • C.神经网络神经元的输出都是传给其他神经元,不能再反馈回来

  • D.均方差损失函数是神经网络常用的一种代价函数(损失函数)

正确答案:C你选对了

5关于训练样本的描述中,正确的说法是哪个?

  • A.样本越少,模型的方差越大

  • B.增加数据可以减少模型方差

  • C.如果模型性能不佳,可增加样本多样性进行优化

  • D.样本越多,模型训练越快,性能越好

正确答案:A你错选为C

6关BP神经网络的说法,错误的是哪个?

  • A.训练时新样本的加入对已经学习的结果没什么影响

  • B.易陷入局部极小值

  • C.训练次数多,学习效率低,收敛速度慢

  • D.隐层节点的选取缺乏理论指导

正确答案:A你选对了

7有关神经网络参数初始化的说法错误的是哪个?

  • A.权重和偏置都可以取全零初始化

  • B.使用正态分布初始化,但权重取太大或太小都会影响网络的训练

  • C.Xavier初始化可以减少梯度消失

  • D.合适的权重初始化可以加快神经网络的训练和效果

正确答案:A你选对了

8有关BP网络的说法,哪个是错误的?

  • A.与批量梯度下降法相比,使用小批量梯度下降法可以提高训练速度,但达到全局最优解可能需要更多的迭代次数

  • B.交叉熵也可以作为回归预测问题的损失函数

  • C.在使用梯度下降时,加上冲量项会减少训练的速度,但可能会减少陷入局部极小值的可能

  • D.神经元的激活函数选择影响神经网络的训练过程和最终性能

正确答案:B你错选为A

10梯度消失问题的认识哪个是正确的?

  • A.神经元处于Sigmoid等激活函数的饱和区工作

  • B.隐藏层太多时,可能导致靠近输入层的权重的偏导数太小而得不到更新

  • C.隐层的权重取值太小不容易导致梯度消失

  • D.隐藏层神经元的个数太多导致

正确答案:B你选对了

11有关数据预处理对神经网络的影响,以下哪个说法是错误的?

  • A.连续性属性可以采用最小最大值归一化,减少数值过大和不同属性量纲不同对网络的影响

  • B.预处理与否对神经网络的训练速度和分类准确率影响比较大

  • C.BP神经网络的输入属性不需要筛选,因为网络本身有特征获取能力

  • D.对于非数值型的属性,可以使用独热(onehot)编码或模糊化转换成数值

正确答案:C你选对了

12下面关于单个神经元输入输出正确的是哪个?

‎得分/总分

  • A.一个神经元可以拥有多个输入但只有一个输出

  • B. 一个神经元可以有多个输入和多个输出

  • C.一个神经元只能拥有一个输入和一个输出

  • D.一个神经元只能拥有一个输入但可以有多个输出

正确答案:B你选对了

13一个含有2个隐层的BP神经网络,神经元个数都为20,输入和输出节点分别有8和5个节点,这个网络的权重和偏置数分别是多少?

  • A.16000,48

  • B.660,45

  • C.3000,32

  • D.3200,45

正确答案:B你错选为A

14‎以下不属于超参的是哪个因素?

  • A.输出编码形式

  • B.激活函数

  • C.mini-batch的样本数

  • D.学习步长(率)和冲量引子

正确答案:A你错选为B

15有关神经网络训练过程的说法,正确的是?

  • A.神经网络权重的初始化大小会对网络的训练结果影响

  • B.分析问题确定后,神经网络合适的结构就可以确定

  • C.对神经网络训练的优化需要综合考虑激活函数、网络结构、权重更新方法等多种因素

  • D.使用增加训练次数的方法不一定可以减少代价函数的取值

正确答案:A、C、D你选对了

16激活函数通常具有以下哪些性质?

  • A.非线性

  • B.计算简单

  • C.单调性

  • D.可微性

正确答案:A、B、C、D你选对了

17关于模型参数(权重值)的描述,正确的说法是哪些?

  • A.在训练神经网络过程中,参数不断调整,其调整的依据是基于损失函数不断减少

    1.00/3.00

  • B.每一次Epoch都会对之前的参数进行调整,迭代次数越多,损失函数一般越小

  • C.模型参数量越多越好,但没有固定的对应规则

  • D.训练好的神经网络模型存储于一定结构的神经元之间的权重和神经元的偏置中

正确答案:A、B、D你选对了

18‏减少神经网络过拟合的说法,以下哪些是正确的?

  • A.通过增加数据扰动的数据增强增加了神经网络的过拟合

  • B.通过正则化可以减少网络参数的取值或个数,一定程度可能减少过拟合

  • C.在神经网络训练过程中类似dropout减少神经元或相关链接权的数量

  • D.利用L1或L2正则化可以使权重衰减,从而一定程度上减少过拟合

正确答案:B、C、D你选对了

19‍有关数据增强的说法正确是哪些?

  • A.数据增强带来了噪声,因此一般会降低神经网络模型的效果

  • B.数据增强会增加样本的个数,因此可能会减少过拟合

  • C.对于手写体的识别,对样本的反转、旋转、裁剪、变形和缩放等操作会提高神经网络的识别效果

  • D.对于分类问题,数据增强是减少数据不平衡的一种方法。

正确答案:B、C、D你选对了

  • 4
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值