文章目录
51 Resnet和Transformer的模型结构
Resnet
参见《你必须要知道CNN模型:ResNet》:
https://zhuanlan.zhihu.com/p/31852747
参见《详解残差网络》:
https://zhuanlan.zhihu.com/p/42706477
Transformer
七月NLP的面试题,详解了Transformer:
https://www.julyedu.com/questions/interview-detail?kp_id=30&cate=NLP&quesId=2912
参见《【NLP】Transformer模型原理详解》:
https://zhuanlan.zhihu.com/p/44121378
参见《图解Transformer(完整版)》:
https://blog.csdn.net/longxinchen_ml/article/details/86533005
52 CNN和RNN优缺点
参见《卷积神经网络CNN各个框架的优缺点以及一些其他的
》:
https://www.bilibili.com/read/cv8103622
参见《卷积神经网络CNN总结》:
https://www.cnblogs.com/skyfsm/p/6790245.html
53 介绍LSTM
参见《LSTM入门总结》:
https://zhuanlan.zhihu.com/p/38063427
参见《人人都能看懂的LSTM》:
https://zhuanlan.zhihu.com/p/32085405
参见《理解 LSTM 网络》:
https://www.jianshu.com/p/9dc9f41f0b29
54 讲下Self-Attention
参见《self-attention》:
https://blog.csdn.net/weixin_43758551/article/details/98220358
参见《transformer 模型(self-attention自注意力)》:
https://blog.csdn.net/weixin_40871455/article/details/86084560
55 常见激活函数和特点
56 Layer norm和Batch norm的区别
参见《Batch Norm和Layer Norm的区别》:
https://blog.csdn.net/huihui__huihui/article/details/118498291
57 卷积的本质
参见《关于卷积本质的理解》:
https://zhuanlan.zhihu.com/p/34258488
参见《卷积的本质》:
https://www.jianshu.com/p/4fe4278846af
58 概率的知识点
59 Sigmoid 、MSELoss 及 CELoss 的来源
参见《损失函数 | Mean-Squared Loss》:
https://zhuanlan.zhihu.com/p/35707643
参见《损失函数|交叉熵损失函数》
https://zhuanlan.zhihu.com/p/35709485
60 讲一下目标检测 OneStage、 TwoStage 以及 YOLOv1
参见《目标检测中One-stage的检测算法》:
https://blog.csdn.net/shentanyue/article/details/84860600
参见《深度学习: one-stage/two-stage/multi-stage 目标检测算法》:
https://blog.csdn.net/JNingWei/article/details/80039079
参见《这可能是最详细的目标检测YOLO_v1的解释》:
https://blog.csdn.net/u010712012/article/details/85116365
参见《从YOLOv1到YOLOv3,目标检测的进化之路》:
https://blog.csdn.net/guleileo/article/details/80581858
61 写一下 Softmax CrossEntropy 的反向传播推导过程