百面机器学习——深度学习常见问题

一、前向神经网络
1、写出常用激活函数
2、神经网络是否可将参数全部初始化为0?
3、多层感知机表示异或逻辑需要多少个隐层?
4、什么是梯度消失和梯度爆炸?如何避免?
5、写出多层感知机的平方误差和交叉熵的损失函数
6、解释卷积操作中的稀疏交互和参数共享及其作用
7、一个隐层需要多少隐节点才能够实现包含n元输入的任意布尔函数?
8、多个隐层实现包含n元输入的任意布尔函数需要多少个节点和网络层?
9、ReLu系列的激活函数的优点是什么?有什么局限性?如何改进?
10、平方误差损失函数和交叉熵损失函数分别适合什么场景?
11、为什么dropout可以抑制过拟合?
12、批量归一化的基本动机和原理是什么?CNN如何进行归一化?
13、常用的池化操作有哪些?池化的作用是什么?
14、卷积神经网络如何用于文本分类?
15、ResNet的提出背景和核心理论是什么?
16、根据损失函数推导各层参数更新的梯度计算公式。

二、循环神经网络
循环神经网络与前馈神经网络相比有什么特点?
循环神经网络为什么会出现梯度消失和梯度爆炸?
LSTM如何实现长短期记忆功能?

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值