深度学习资料记录

最近在学习深度学习,由于没有时间系统的学习,会遇到很多专业盲区,所以在这篇博客上面记录下来

评价性能的各种指标:

http://blog.csdn.net/marising/article/details/6543943
batch_size详解:http://blog.csdn.net/ycheng_sjtu/article/details/49804041
epoch,iteration,batchsize区别:http://blog.csdn.net/anshiquanshu/article/details/72630012

cnn的理解:

http://blog.csdn.net/v_july_v/article/details/51812459#comments
http://simtalk.cn/2016/09/12/CNNs/
http://blog.csdn.net/qq_25762497/article/details/51052861
http://blog.csdn.net/yunpiao123456/article/details/52437794#t3

全连接层

解释一下全连接层

关于卷积核和feature map的理解

RGB图像在CNN中的卷积
Letnet-5网络结构详解

SVM和softmax的区别:

http://blog.csdn.net/u011534057/article/details/51451958
http://simtalk.cn/2016/09/02/SVM%20and%20Softmax/
SSD:
https://zhuanlan.zhihu.com/p/24954433
http://blog.csdn.net/u010167269/article/details/52563573

NMS(非极大值抑制):

http://blog.csdn.net/shuzfan/article/details/52711706

FCN:

全连接层

learning rate decay:学习率衰减,学习率随着训练逐渐衰减

  • 线性衰减
  • 指数衰减

深度学习调参的小技巧:

https://zhuanlan.zhihu.com/p/24720954

YOLO里面一些参数含义:

http://blog.csdn.net/hysteric314/article/details/54093734
https://timebutt.github.io/static/understanding-yolov2-training-output/

深度学习中出现nan的情况:过拟合

https://www.zhihu.com/question/49346370

基于深度学习的视频方法法与人体行为识别

http://blog.csdn.net/gzj_1101/article/details/79006993
https://zhuanlan.zhihu.com/p/27657196

几种常见激活函数

tanh,relu,sigmod,softmax,以及他们的用法
机器学习常见激活函数比较和总结
关于激活函数的选择

梯度爆炸和梯度消失

one-hot编码

http://blog.csdn.net/google19890102/article/details/44039761#t2

learning rate ,weight decay和momentum的理解

https://zhuanlan.zhihu.com/p/23906526

光流法

光流(optical flow)介绍和opencv实现
http://blog.csdn.net/zouxy09/article/details/8683859

机器学习深度学习正则化

深度学习的正则化
正则化方法:L1和L2 regularization、数据集扩增、dropout

tensorflow

Padding在卷积核移动逐渐扫描整体图时候,因为步长的设置问题,可能导致剩下未扫描的空间不足以提供给卷积核的,大小扫描 比如有图大小为5*5,卷积核为2*2,步长为2,卷积核扫描了两次后,剩下一个元素,不够卷积核扫描了,这个时候就在后面补零,补完后满足卷积核的扫描,这种方式就是same。如果说把刚才不足以扫描的元素位置抛弃掉,就是valid方式。

tensorflowname_scope, variable_scope理解

batch normalization

http://blog.csdn.net/hjimce/article/details/50866313
https://morvanzhou.github.io/tutorials/machine-learning/ML-intro/3-08-batch-normalization/

训练集测试集验证集区别

dropout层

dropout防止过拟合

inception model

迁移学习

迁移学习–深度迁移学习

【深度学习系列】迁移学习Transfer Learning

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值