人工智能、深度学习、机器学习常见面试题83~100

本文详细解答了深度学习面试中常见的83至100题,涵盖神经网络的基本概念如Epoch、Iteration、Batchsize,反向传播原理,卷积核操作,池化方法,参数范数惩罚,Batch Normalization的作用,梯度下降法的优缺点,VGG和ResNet网络结构,空洞/扩张卷积,转置卷积,MobileNet系列的区别,归一化的重要性,深度学习框架对比,推荐算法类型,回环检测的概念,以及哪些机器学习算法不需要做归一化处理,还包括RNN、LSTM、GRU的区别。这些内容对于理解深度学习核心概念和面试准备非常有帮助。
摘要由CSDN通过智能技术生成

目录

83.神经网络中的Epoch、Iteration、Batchsize

84.反向传播

85.关于深度学习中卷积核操作

86.池化(Pooling)

87.参数范数惩罚

88.Batch Normalization(BN)

89.梯度下降法

90.VGG网络:

91.ResNet

92.空洞/扩张卷积(Dilated/Atrous Convolution)

93.转置卷积(Transposed Convolutions/deconvlution)

94.MobileNetV1、MobileNetV2和MobileNetV3有什么区别

95.如何理解归一化(Normalization)对于神经网络(深度学习)的帮助?

96.深度学习框架有哪些?各有什么特点?

97.常见的推荐算法有哪些?

98.什么是回环检测?

99.哪些机器学习算法不需要做归一化处理?

100.RNN、LSTM、GRU区别


83.神经网络中的Epoch、Iteration、Batchsize

神经网络中epoch与iteration是不相等的

- batchsize:中文翻译为批大小(批尺寸)。在深度学习中,一般采用SGD训练,即每次训练在训练集中取batchsize个样本训练;

- iteration:中文翻译为迭代,1个iteration等于使用batchsize个样本训练一次;一个迭代 = 一个正向通过+一个反向通过

- epoch:迭代次数,1个epoch等于使用训练集中的全部样本训练一次;一个epoch = 所有训练样本的一个正向传递和一个反向传递

举个例子,训练集有1000个样本,batchsize=10,那么:训练完整个样本集需要:100

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

fpga和matlab

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值