深度学习——基础理论
SongEsther
这个作者很懒,什么都没留下…
展开
-
深度学习之前馈神经网络(前向传播和误差反向传播)
转自:https://www.cnblogs.com/Luv-GEM/p/10694471.html这篇文章主要整理三部分内容,一是常见的三种神经网络结构:前馈神经网络、反馈神经网络和图网络;二是整理前馈神经网络中正向传播、误差反向传播和梯度下降的原理;三是梯度消失和梯度爆炸问题的原因及解决思路。一、神经网络结构目前比较常用的神经网络结构有如下三种:1、前馈神经网络前馈神经网络...转载 2019-11-15 01:03:33 · 9502 阅读 · 0 评论 -
模式识别分类器评价指标之DET曲线
转自:https://blog.csdn.net/u011501388/article/details/78334996DET(Detection Error Tradeoff )曲线是对二元分类系统误码率的曲线图,绘制出错误拒绝率FRR(False Reject Rate)与错误接受率(False Accept Rate)之间随着判断阈值的变化而变化的曲线图。现在DET曲线扩展到用于模式识别...转载 2018-12-12 15:21:18 · 1126 阅读 · 0 评论 -
对全连接层的深入理解
转自:https://blog.csdn.net/YiLiang_/article/details/60468530理解全连接层:连接层实际就是卷积核大小为上层特征大小的卷积运算,卷积后的结果为一个节点,就对应全连接层的一个点。(理解)假设最后一个卷积层的输出为7×7×512,连接此卷积层的全连接层为1×1×4096。如果将这个全连接层转化为卷积层:1.共有4096组滤波器2.每组滤波器含有512个卷积核3.每个卷积核的大小为7×74.则输出为1×1×4096由于每个滤波核的大小和上一转载 2020-06-16 22:20:24 · 656 阅读 · 0 评论 -
网络解析(一):LeNet-5详解
转自:http://cuijiahua.com/blog/2018/01/dl_3.html摘要LeNet-5出自论文Gradient-Based Learning Applied to Document Recognition,是一种用于手写体字符识别的非常高效的卷积神经网络。一、前言LeNet-5出自论文Gradient-Based Learning Applied ...转载 2018-09-22 14:43:49 · 707 阅读 · 0 评论 -
深度学习相关论文
转自:https://blog.csdn.net/touch_dream/article/details/72847418本博客用于记录自己平时收集的一些不错的深度学习论文,近9成的文章都是引用量3位数以上的论文,剩下少部分来自个人喜好,本博客将伴随着我的研究生涯长期更新,如有错误或者推荐文章烦请私信。http://blog.csdn.net/qq_21190081/article/detai...转载 2018-10-31 19:15:52 · 345 阅读 · 0 评论 -
Bengio Deep Learning 初探 —— 第6章:前馈神经网络
转自:https://blog.csdn.net/qsczse943062710/article/details/61912464?locationNum=9&fps=1基于梯度的学习 1)深度前馈网络(deep feedforward network),又名前馈神经网络或多层感知机(multilayer perceptron,MLP),前馈的意思是指在这个神经网络里信息...转载 2018-09-19 11:16:01 · 389 阅读 · 0 评论 -
deep learning BOOK
http://www.deeplearningbook.org/原创 2018-10-25 17:17:01 · 239 阅读 · 0 评论 -
为什么depthwise convolution 比 convolution更加耗时? 2018年08月07日 11:33:48 文尹习习 阅读数:608更多
转自:https://blog.csdn.net/liu1152239/article/details/81478463首先,caffe原先的gpu实现group convolution很糟糕,用for循环每次算一个卷积,速度极慢。 第二,cudnn7.0及之后直接支持group convolution,但本人实测,速度比github上几个直接写cuda kernel计算的dw convolu...转载 2018-09-22 20:52:08 · 966 阅读 · 0 评论 -
深度可分离卷积结构(depthwise separable convolution)计算复杂度分析
转自:https://www.cnblogs.com/adong7639/p/7918527.html这个例子说明了什么叫做空间可分离卷积,这种方法并不应用在深度学习中,只是用来帮你理解这种结构。在神经网络中,我们通常会使用深度可分离卷积结构(depthwise separable convolution)。这种方法在保持通道分离的前提下,接上一个深度卷积结构,即可实现空间卷积。接下来...转载 2018-09-22 20:51:11 · 1344 阅读 · 0 评论 -
吴恩达深度学习笔记(deeplearning.ai)之卷积神经网络(CNN)(上)
转自:http://www.cnblogs.com/szxspark/p/8439066.html1. Padding在卷积操作中,过滤器(又称核)的大小通常为奇数,如3x3,5x5。这样的好处有两点: 在特征图(二维卷积)中就会存在一个中心像素点。有一个中心像素点会十分方便,便于指出过滤器的位置。 在没有padding的情况下,经过卷积操作,输出的数据维度会减少。以二维卷积为...转载 2018-09-22 14:56:50 · 399 阅读 · 0 评论 -
对深度可分离卷积、分组卷积、扩张卷积、转置卷积(反卷积)的理解
转自:https://blog.csdn.net/chaolei3/article/details/79374563 参考:https://zhuanlan.zhihu.com/p/28749411https://zhuanlan.zhihu.com/p/28186857https://blog.yani.io/filter-group-tutorial/https://w...转载 2018-09-25 12:25:17 · 1819 阅读 · 0 评论 -
反卷积(Transposed Convolution, Fractionally Strided Convolution or Deconvolution)
转自:https://blog.csdn.net/kekong0713/article/details/68941498反卷积(Deconvolution)的概念第一次出现是Zeiler在2010年发表的论文Deconvolutional networks中,但是并没有指定反卷积这个名字,反卷积这个术语正式的使用是在其之后的工作中(Adaptive deconvolutional netw...转载 2018-09-25 11:23:57 · 209 阅读 · 0 评论 -
BN算法
转自:https://blog.csdn.net/guoyunfei20/article/details/78404577?locationNum=1&fps=1Motivation2015年的论文《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift...转载 2018-09-24 23:08:20 · 626 阅读 · 3 评论