最近在学习深度学习,由于没有时间系统的学习,会遇到很多专业盲区,所以在这篇博客上面记录下来
评价性能的各种指标:
http://blog.csdn.net/marising/article/details/6543943
batch_size详解:http://blog.csdn.net/ycheng_sjtu/article/details/49804041
epoch,iteration,batchsize区别:http://blog.csdn.net/anshiquanshu/article/details/72630012
cnn的理解:
http://blog.csdn.net/v_july_v/article/details/51812459#comments
http://simtalk.cn/2016/09/12/CNNs/
http://blog.csdn.net/qq_25762497/article/details/51052861
http://blog.csdn.net/yunpiao123456/article/details/52437794#t3
全连接层
关于卷积核和feature map的理解
SVM和softmax的区别:
http://blog.csdn.net/u011534057/article/details/51451958
http://simtalk.cn/2016/09/02/SVM%20and%20Softmax/
SSD:
https://zhuanlan.zhihu.com/p/24954433
http://blog.csdn.net/u010167269/article/details/52563573
NMS(非极大值抑制):
http://blog.csdn.net/shuzfan/article/details/52711706
FCN:
learning rate decay:学习率衰减,学习率随着训练逐渐衰减
- 线性衰减
- 指数衰减
深度学习调参的小技巧:
https://zhuanlan.zhihu.com/p/24720954
YOLO里面一些参数含义:
http://blog.csdn.net/hysteric314/article/details/54093734
https://timebutt.github.io/static/understanding-yolov2-training-output/
深度学习中出现nan的情况:过拟合
https://www.zhihu.com/question/49346370
基于深度学习的视频方法法与人体行为识别
http://blog.csdn.net/gzj_1101/article/details/79006993
https://zhuanlan.zhihu.com/p/27657196
几种常见激活函数
tanh,relu,sigmod,softmax,以及他们的用法
机器学习常见激活函数比较和总结
关于激活函数的选择
梯度爆炸和梯度消失
one-hot编码
http://blog.csdn.net/google19890102/article/details/44039761#t2
learning rate ,weight decay和momentum的理解
https://zhuanlan.zhihu.com/p/23906526
光流法
光流(optical flow)介绍和opencv实现
http://blog.csdn.net/zouxy09/article/details/8683859
机器学习深度学习正则化
深度学习的正则化
正则化方法:L1和L2 regularization、数据集扩增、dropout
tensorflow
Padding在卷积核移动逐渐扫描整体图时候,因为步长的设置问题,可能导致剩下未扫描的空间不足以提供给卷积核的,大小扫描 比如有图大小为5*5,卷积核为2*2,步长为2,卷积核扫描了两次后,剩下一个元素,不够卷积核扫描了,这个时候就在后面补零,补完后满足卷积核的扫描,这种方式就是same。如果说把刚才不足以扫描的元素位置抛弃掉,就是valid方式。
tensorflowname_scope, variable_scope理解
batch normalization
http://blog.csdn.net/hjimce/article/details/50866313
https://morvanzhou.github.io/tutorials/machine-learning/ML-intro/3-08-batch-normalization/
训练集测试集验证集区别