计算机视觉+人工智能面试笔试总结——深度学习基础题21~40

这篇博客总结了深度学习面试中常见的21至40题,涵盖dropout的选择与应用、神经网络权重共享、ReLU的优势、1x1卷积作用、RNN理解、模型不收敛的原因、梯度消失与爆炸问题,以及解决方法等关键知识点,旨在帮助面试者巩固深度学习基础。
摘要由CSDN通过智能技术生成

目录

21.如何选择dropout 的概率

22.dropout在神经网络中的应用

23.dropout具体工作流程

24.什么是 dropout?

25.对fine-tuning(微调模型的理解),为什么要修改最后几层神经网络权值?

26.神经网络中权值共享的理解

27.Relu比Sigmoid效果好在哪里?

28.1*1 卷积的主要作用

29.RNN循环神经网络理解

30.训练过程中模型不收敛,是否说明这个模型无效,导致模型不收敛的原因

31.什么是梯度消失和爆炸

32.BN(批归一化)的作用

33.TensorFlow计算图概念

34.L1 和 L2 区别

35.如何判断模型是否欠拟合

36.欠拟合怎么解决

37.如何判断深度学习模型是否过拟合

38.什么造成梯度消失问题

39.什么样的数据集不适合深度学习

40.深度特征的层次性


21.如何选择dropout 的概率

input 的 dropout 概率推荐是 0.8, hidden layer 推荐是0.5, 但是也可以在一定的区间上取值。(All dropout nets use p = 0.5 for hidden units and p = 0.8 for input units.)
 

22.dropout在神经网络中的应用

(1). 在训练模型阶段

不可避免的,在训练网络中的每个单元都要添加一道概率流程

(2). 在测试模型阶段

预测模型的时候,输入是当前输入,每个神经单元的权重参数要乘以概率p。

23.dropout具体工作流程

以 标准神经网络为例,正常的流程是:我们首先把输入数据x通过网络前向传播,

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

fpga和matlab

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值