![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
DL
z1102252970
这个作者很懒,什么都没留下…
展开
-
softmaxWithLoss Layer
caffe中的softmaxWithLoss其实是: softmaxWithLoss = Multinomial Logistic Loss Layer + Softmax Layer其中: Multinomial Logistic Loss Layer 即为交叉熵代价函数 Softmax Layer其实就是指softmax function(全连接那一步在它前面的fc中实现)示意图如下转载 2016-09-27 22:04:07 · 1200 阅读 · 0 评论 -
Accuracy Layer
caffe在计算Accuravy时,利用的是最后一个全链接层的输出(不带有acitvation function),比如:alexnet的train_val.prototxt、caffenet的trainval.prototxt下图是这两个网络训练配置文件(prototxt文件)计算Accuray的配置文件截图的截图(对于该部分,alexnet和caffenet是一致的)最后一个全连接层 计算转载 2016-09-27 22:14:47 · 1387 阅读 · 0 评论 -
Deep Learning based Large Scale Visual Recommendation and Search for E-Commerce
一篇用于相似物品的图片推荐的paper,github地址 网络结构如下所示 图a展示的是整体的框架,每个VisNet具体细节如图b所示。 VisNet是具有两个分支:一个传统 的VGG16和一个浅层网络(kernel size 较大) VGG16用于提取 high level/ abstract details 浅层网络用于提取 low level/fine-graind detailst原创 2017-04-29 21:23:58 · 825 阅读 · 0 评论 -
mxnet 编译后运行的第一个demo train_mnist.py时的错误
mxnet 编译后运行的第一个demo train_mnist.py时的错误OSError: /home/usrname/anaconda2/bin/../lib/libgomp.so.1: version `GOMP_4.0’ not found其实这个错误会在import mxnet时出现,原因是因为anaconda里对应的文件已经过期,需要update。 具体方法: 1. cd ./mxn原创 2017-04-22 12:47:30 · 690 阅读 · 0 评论 -
caffe 计算 conv 图解
最后基本上就是Filter Matrix乘以Feature Matrix的转置,得到输出矩阵Cout x (H x W),就可以解释为输出的三维Blob(Cout x H x W)。转载 2017-04-23 18:49:30 · 660 阅读 · 0 评论 -
SSD 里的 atrous
SSD 论文里提到 Similar to DeepLab-LargeFOV , we convert fc6 and fc7 to convolutional layers, subsample parameters from fc6 and fc7, change pool5 from 2x2-s2 to 3x3-s1, and use the `a trous algorithm to fi原创 2017-04-23 21:26:19 · 6365 阅读 · 2 评论 -
生成对抗式网络GAN 的 loss
GAN同时要训练一个生成网络(Generator)和一个判别网络(Discriminator),前者输入一个noise变量 zz ,输出一个伪图片数据 G(z;θg)G(z;\theta_g),后者输入一个图片(real image)以及伪图片(fake image)数据 xx ,输出一个表示该输入是自然图片或者伪造图片的二分类置信度 D(x;θd)D(x;θ_d),理想情况下,判别器DD 需要尽可转载 2017-04-27 14:23:51 · 27362 阅读 · 3 评论 -
caffe 报错 Check failed: error == cudaSuccess (77 vs. 0) an illegal memory access was encountered
之前从没有遇到这样的问题,找了三个小时的bug和资料后,在此处发现了解决方案,他是这么说的:In my case the “top” and “bottom” layer in the “deconvolution” layers where the same (save variable but with different num_output) and this cause a strange原创 2017-08-02 16:50:53 · 12157 阅读 · 13 评论