深度学习
sinat_16985427
这个作者很懒,什么都没留下…
展开
-
1、为什么caffe训练时训练集loss=0.06,验证集accuracy=0.98但测试集的准确率很低accuracy=0.67
1、https://groups.google.com/forum/#!topic/caffe-users/NzKEWAFPPfI 提出新的测试方法2、https://github.com/pherrusa7/foodCAT/blob/master/caffeWrapper.py github源码3、https://www.zhihu.com/question/56017256 知乎上提原创 2017-08-03 16:22:52 · 35071 阅读 · 15 评论 -
AlexNet--结构分析
1、caffeNet与AlexNet结构区别:norm1,pool1,以及norm2,pool2互换了顺序1. 基本结构a. 共有8层,其中前5层convolutional,后边3层full-connected ,最后的一个full-connected层的output是具有1000个输出的softmax,最后的优化目标是最大化平均的multinomial log原创 2017-02-18 22:14:03 · 1254 阅读 · 1 评论 -
1、caffe study-AlexNet-算法
参考论文:Alex 2012 年的 NIPS论文ImageNet classification with deep convolutional neural networks.AlexNet:数据、模型分析数据:训练过程1、数据覆盖度广,数据集覆盖样本空间 2、数据与真实数据同分布在一般的训练任务中,考虑的关键问题之一就是原创 2017-02-18 22:15:28 · 299 阅读 · 0 评论 -
Fast convolutional neural network training using selective data sampling: Application to hemorrhage
摘要:Abstract—Convolutional neural networks (CNNs) are deep learning network architectures that have pushed forward the state-of-the-art in a range of computer vision applications and are increasingly原创 2017-01-17 17:01:06 · 356 阅读 · 0 评论 -
1、t_sne详解
1、t_sne博客点击打开链接2、t_sne发明者主页点击打开链接3、github源码:点击打开链接4、论文:点击打开链接原创 2017-08-04 11:08:10 · 525 阅读 · 0 评论 -
transfer learning与finetuning区别
举个例子,假设今天老板给你一个新的数据集,让你做一下图片分类,这个数据集是关于Flowers的。问题是,数据集中flower的类别很少,数据集中的数据也不多,你发现从零训练开始训练CNN的效果很差,很容易过拟合。怎么办呢,于是你想到了使用Transfer Learning,用别人已经训练好的Imagenet的模型来做。做的方法有很多:把Alexnet里卷积层最后一层输出的特征拿出来,然原创 2017-08-07 09:28:29 · 1680 阅读 · 0 评论 -
梯度爆炸与梯度消失
梯度不稳定问题 根本原因在于前面层上的梯度是来自于后面层上梯度的乘积。当存在过多的层次时,就出现了内在本质上的不稳定场景。 梯度消失导致DNN的前面几层权值得不到更新,相当于对输入做同一映射,仍接近初始值,等价于浅层神经网络,梯度消失 sigmoid导函数为负的二次曲线有最大值。梯度爆炸 量化分析 可以考虑使用其它激活函数对梯度原创 2017-08-07 11:29:50 · 484 阅读 · 0 评论