softmax公式
Softmax loss公式,L1 loss,L2 loss ,smooth L2 loss 公式
Batch norm 更新哪些参数: 减均值,除方差,乘aphpa,加beta
Relu中梯度消失和梯度爆炸,消失就是为0,爆炸就是很大的数
深度学习中数据是怎么并行运行的
Resnet为什么vgg深,写出其基本结构
Nms运行过程: 极大值保留,(与极大值重合的)非极大值抑制
Kernel计算公式
简述如何downsample,如何upsample
写卷积
caffe卷积原理
写图像预处理
激活函数:
非线性,
感知机:
非线性sigmoid
池化:
降维,平移不变性maxpooling
技巧,说不清就展示