深度学习
shu_0233
不想做老师的老板不是好程序员
展开
-
如何使用SCI-HUB下载文献
简单介绍sci-hub 是一个在线网站,可以下载众多学术论文目前可用的网址有:http://sci-hub.tw/ http://sci-hub.hk/ http://sci-hub.ren/使用方法打开网址,如图所示要下载一篇文章,需要知道如下两个信息中的至少一个: 文献的官方网址,比如http://www.sciencedirect.com/science/article/pii/0031920181900467,可以通过百度学术、谷歌学术等网站搜索得到 ...原创 2020-08-15 23:00:13 · 3025 阅读 · 0 评论 -
交叉熵损失函数
之前在代码中经常看见交叉熵损失函数(CrossEntropy Loss),只知道它是分类问题中经常使用的一种损失函数,对于其内部的原理总是模模糊糊,而且一般使用交叉熵作为损失函数时,在模型的输出层总会接一个softmax函数,至于为什么要怎么做也是不懂,所以专门花了一些时间打算从原理入手,搞懂它,故在此写一篇博客进行总结,以便以后翻阅。交叉熵简介交叉熵是信息论中的一个重要概念,主要用于度量两个概率分布间的差异性,要理解交叉熵,需要先了解下面几个概念。信息量信息奠基人香农(Shannon)认为转载 2020-08-11 16:13:08 · 1721 阅读 · 0 评论 -
在windows下IIS部署Flask和Django网站
用wfastcgi在IIS下部署Django&FlaskDjango跟Flask在Linux底下都可以很方便地以FastCGI模式部署,貌似IIS下面不很好配置,而且IIS也缺少一个像PHPmanager一样的全自动配置工具,在公司服务器上部署起来颇费周折,部署后总结起来过程倒也不复杂,主要是网上并没有给出一个完整的方案,这里记录一下方便大家使用先来Django吧,在自己机器上简单开一个测试用网站,这里我用“C:\myWebSite\djangoWeb”做测试...转载 2020-08-01 10:31:36 · 512 阅读 · 0 评论 -
位置注意力和通道注意力机制
Position Attention Module捕获特征图的任意两个位置之间的空间依赖,对于某个特定的特征,被所有位置上的特征加权和更新。权重为相应的两个位置之间的特征相似性。因此,任何两个现有相似特征的位置可以相互贡献提升,而不管它们之间的距离。特征图A(C*H*W)首先分别通过3个卷积层(BN和Relu)得到三个特征图{B,C,D},shape为(C*H*W),然后reshape为C*N。 矩阵C和B的转置相乘,在通过softmax得到spatial attention map S(N*原创 2020-07-08 11:55:21 · 16784 阅读 · 1 评论 -
可分离卷积-轻量级卷积神经网络
任何看过MobileNet架构的人都会遇到可分离卷积(separable convolutions)这个概念。但什么是“可分离卷积”,它与标准的卷积又有什么区别?可分离卷积主要有两种类型:空间可分离卷积(spatial separable convolutions)深度可分离卷积(depthwise separable convolutions)空间可分离卷积从概念上讲,这是两者中较容易的一个,并说明了将一个卷积分成两部分(两个卷积核)的想法,所以我将从这开始。 不幸的是,空间可分离卷积具有一些转载 2020-06-09 19:40:29 · 5181 阅读 · 0 评论 -
轻量级卷积神经网络综述
inception最初的版本 Inception/GoogleNet,其核心思想是利用多尺寸卷积核去观察输入数据,于是我们的网络就变胖了,通过增加网络的宽度,提高了对于不同尺度的适应程度。但这样的话,计算量有点大了。2.2Pointwise Conv为了减少在上面结构的参数量并降低计算量,于是在 Inception V1 的基础版本上加上了 1x1 卷积核,这就形成了 Inception V1 的最终网络结构,如 Figure 2。这个 1x1 卷积就是 Pointwise C.转载 2020-06-09 17:27:14 · 3727 阅读 · 0 评论