淘气3000问
LZ每天学习深度学习各种知识,其实会遇到各种各样的问题,每次都百度还是挺麻烦的,想做个汇总博客,总结各种深度学习遇到的问题。有些很简单,做个积累,有些还是比较复杂的,那就好好研究一下吧!
1. BatchNorm是什么?
2. BatchNorm里面的momentum有什么用?
3. 目前常用的backbone有哪些?分别是什么样的呢?
4. 常用的激活函数有哪些?分别是什么呢?
5. DLA(Deep Layer Aggregation)是什么?为什么要用这种结构?
6. DCN(Deformable Convolutional Networks)是什么?v1和v2有什么区别?3D版本是有什么创新呢?
7. 什么叫TV loss(Total variance loss)?它有什么作用呢?
8. 什么叫Circle loss?它是为了解决什么问题?
8. Warm up是什么?为什么要进行Warm up操作?
9. CYCLEGAN是什么?
10. 什么叫InstanceNorm?有什么作用呢?
11. 什么叫Amsoftmax?它和普通的softmax有什么区别
12. 什么叫Triplet loss?它是怎么样实现的?有什么用呢?
13. 什么叫GRL(Gradient Reversal Layer)?它有什么用呢?
14. 什么是HRNet?它有什么用?
15. 什么是Hourglass Network?它有什么用?
16. R-CNN, fast R-CNN, faster R-CNN是怎样一步一步改进的?
有时间的话会整理出对应的答案,又是个大工程的感觉。。。。