深度学习部分面试题

softmax公式

Softmax loss公式,L1 loss,L2 loss ,smooth L2 loss 公式

Batch norm 更新哪些参数: 减均值,除方差,乘aphpa,加beta

Relu中梯度消失和梯度爆炸,消失就是为0,爆炸就是很大的数
 
深度学习中数据是怎么并行运行的

Resnet为什么vgg深,写出其基本结构

Nms运行过程: 极大值保留,(与极大值重合的)非极大值抑制

检测算法里nms步骤 - 知乎

Kernel计算公式

简述如何downsample,如何upsample

写卷积

caffe卷积原理

写图像预处理

激活函数:
非线性,
感知机:
非线性sigmoid
池化:
降维,平移不变性maxpooling

技巧,说不清就展示

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

andeyeluguo

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值