深度学习
CDL_03
这个作者很懒,什么都没留下…
展开
-
转置卷积看这一篇就够
看这一篇就懂了https://www.cnblogs.com/qizhou/p/13895967.html原创 2022-02-11 15:58:36 · 1421 阅读 · 0 评论 -
BN层反向传播公式推导
最后loss对参数的总梯度,是所有的梯度之和前向:xi^=xi−μσ2\hat{x_i} = \frac{x_i-\mu}{\sqrt{\sigma^2}}xi^=σ2xi−μy=γxi+βy=\gamma x_i+\betay=γxi+β基本求导:∂σ2∂μ=1m∑i=1m[−2(xi−μ)]\frac{\partial \sigma^{2}}{\partial \mu}= \frac{1}{m}\sum_{i=1}^{m}[-2(x_i-\mu)]∂μ∂σ2=原创 2021-08-23 17:15:40 · 570 阅读 · 0 评论 -
深度学习模型压缩与优化加速(转载)
https://blog.csdn.net/nature553863/article/details/81083955转载 2021-03-03 17:56:45 · 199 阅读 · 1 评论 -
解析caffe prototxt(2):合并卷积层与BN层
修改prototxt一、deploy1='../deploy-pool.prototxt'model1='../snapshots/pool_iter_5000.caffemodel'f=open(deploy1,'r')model = caffe.proto.caffe_pb2.NetParameter()##model类型:<class 'caffe_pb2.NetParam...原创 2019-12-25 17:05:11 · 840 阅读 · 0 评论 -
行为识别数据txt生成
生成UCF101的txt,训练集和验证集在目录上未分开:生成train.txt、val.txt、index.txtimport osfrom glob import globimport randomimport mathpath='/XXX/action/UCF101/*' #帧所在路径f1=open('ucf-train.txt','w')f2=open('ucf-val....原创 2019-12-02 11:05:16 · 230 阅读 · 0 评论 -
关于深度残差网络(Deep residual network, ResNet)
https://www.cnblogs.com/Ann21/p/9825602.html转载 2019-11-29 16:40:59 · 832 阅读 · 0 评论 -
ResNet, AlexNet, VGG, Inception: 理解各种各样的CNN架构
https://www.cnblogs.com/bonelee/p/8972139.html转载 2019-11-28 19:08:21 · 310 阅读 · 0 评论 -
深度学习好文记录
非极大值抑制,IOU:https://blog.csdn.net/xiexu911/article/details/80609298原创 2019-05-30 15:23:43 · 166 阅读 · 0 评论 -
深度学习好文收藏
全连接层:https://blog.csdn.net/weixin_41055137/article/details/81174443原创 2019-05-04 20:31:24 · 99 阅读 · 0 评论