![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习 深度学习
文章平均质量分 84
C-------罗
985高校研究生毕业,模式识别专业,从事图像处理行业7年。现于上海腾讯科技工作
展开
-
SPP-Net 与 RCNN 网络的区别
详细讲述RCNN与SPP-Net网络的原理及区别翻译 2016-06-28 18:17:04 · 2164 阅读 · 0 评论 -
【论文分析笔记】 GoogLeNet --- Going deeper with convolutions
Going deeper with convolutions 目录1. 摘要2. 引言3. 相关工作4. 动机与高层次考虑5. 框架细节6. GoogLeNet 学习总结:卷积神经网络的问题有哪些? 通常神经网络要效果好,最简单的做法是加深网络层或者加宽网络层。这种做法简单暴力,易于实现。但是该方法存在以下几个缺点:a. 较大模型意...原创 2018-07-24 15:29:23 · 497 阅读 · 0 评论 -
深度学习之蒸馏法训练网络
《Distilling the Knowledge in a Neural Network》Geoffrey Hintion摘要在ML领域中有一种最为简单的提升模型效果的方式,在同一训练集上训练多个不同的模型,在预测阶段采用综合均值作为预测值。但是,运用这样的组合模型需要太多的计算资源,特别是当单个模型都非常浮渣的时候。已经有相关的研究表明,复杂模型或者组合模型的中“知识”通过合适的方式是可以迁移...原创 2018-04-26 14:51:30 · 11671 阅读 · 1 评论 -
SoftmaxWithLossLayer 详细讲解
SoftmaxWithLossLayer 原理分析及caffe代码实现原创 2017-11-02 20:09:44 · 686 阅读 · 1 评论 -
深度学习loss函数理解
监督机器学习问题无非就是“minimizeyour error while regularizing your parameters”,也就是在规则化参数的同时最小化误差。最小化误差是为了让我们的模型拟合我们的训练数据,而规则化参数是防止我们的模型过分拟合我们的训练数据。多么简约的哲学啊!因为参数太多,会导致我们的原创 2017-09-29 19:11:38 · 43577 阅读 · 1 评论 -
Deep Compression:Pruning (剪枝模型压缩)
caffe 实现剪枝模型压缩 根据“没有免费的午餐定律”,想要好机器学习效果,就要设计很深的网络结构,导致model很大,这篇博客讲述是如何在不降低模型识别率的情况下压缩模型。其实 network pruning 技术已经被广泛应用到CNN模型的压缩中了。 早期的一些工作中,LeCun 用它来减少网络复杂度,从而达到避免 over-fitting 的效果; 近期,其实也就是作者的第一篇网络压缩论文原创 2017-08-23 19:37:16 · 3404 阅读 · 12 评论 -
centos7.0 tesla k80 caffe 安装
centos7.0 tesla k80 caffe原创 2017-08-18 19:17:29 · 946 阅读 · 1 评论 -
openpose vs2015 cuda8.0 cudnn5.0 TiTan xp 环境配置
win10 caffe openpose cuda8.0 cudnn5.0 titan-xp原创 2017-08-18 16:00:35 · 902 阅读 · 0 评论 -
Fine-tuning 深度学习操作指南
fine-tuning:利用已有模型训练其他数据集Deep Learning或者说CNN在图像识别这一领域取得了巨大的进步,那么自然我们就想将CNN应用到我们自己的数据集上,但这时通常就会面临一个问题:通常我们的dataset都不会特别大,一般不会超过1万张,甚至更少,每一类图片只有几十或者十几张。这时候,直接应用这些数据训练一个网络的想法就不可行了,因为深度学习成功的一个关键性因素就是大量带标签数原创 2017-07-30 11:33:47 · 2736 阅读 · 2 评论 -
Active Learning: 一个降低深度学习时间,空间,经济成本的解决方案|CVPR 2017
Active Learning下面要介绍的工作发表于 CVPR 2017,题为「Fine-tuning Convolutional Neural Networks for Biomedical Image Analysis: Actively and Incrementally」。它主要解决了一个深度学习中的重要问题:如何使用尽可能少的标签数据来训练一个效果 promising 的分类器。根转载 2017-07-30 10:53:15 · 2470 阅读 · 0 评论 -
YOLO VS2015 windows
配置环境visual studio 2015 显卡 GTX 960M CUDA 7.5 Opencv 2.4.9 pthread 下载地址YOLO官网[http://pjreddie.com/darknet/yolo/]步骤CUDA 版本安装教程:参考地址CPU版本安装步骤:第一步:建立vs2015 x86(x64)位项目程序第二步:按照Makefile文件,将YOLO官网中下载的以原创 2016-08-30 15:59:28 · 8151 阅读 · 12 评论 -
深度学习网络Lenet Alexnet VGG GoogleNet 总结笔记
-深度学习网络学习总结卷积神经网络,是深度学习方向的主流方向,目前具有代表的网络如下:lenet alexnet vgg googlenet, 大部分卷积神经网络都由conv层、pool层、rule层、LRN层、fc层、softmax、dropout等层组成。本文对以上网络依次介绍。1. Lenet,1986年2. Alexnet,2012年3. GoogleNet,2014年4. VGG,原创 2017-04-20 21:13:48 · 5092 阅读 · 0 评论 -
Network in Network 笔记
network in network 学习笔记 -lenet等传统cnn网络中的卷积层其实就是用线性滤波器对图像进行内积运算,在每个局部输出后面跟着一个非线性的激活函数,最终得到的叫作特征图。而这种卷积滤波器是一种广义线性模型。所以用CNN进行特征提取时,其实就隐含地假设了特征是线性可分的,可实际问题往往是难以线性可分的。原创 2017-04-22 11:19:08 · 677 阅读 · 0 评论 -
Win10 VS2015 caffe CUDA8.0 GTX1070安装指南
Win10 VS2015 caffe CUDA8.0 GTX1070安装指南原创 2017-03-24 14:51:28 · 2088 阅读 · 0 评论 -
深度学习 VGG 网络 实现 face landmark 与 head pose
深度学习实现 人脸特征点(68点)标注及人脸3D姿态估计原创 2016-08-09 14:26:08 · 5763 阅读 · 16 评论 -
基于深度学习的分割资料
Awesome Semantic SegmentationNetworks by architectureSemantic segmentationU-Net [https://arxiv.org/pdf/1505.04597.pdf] https://github.com/zhixuhao/unet [Keras] https://lmb.informatik.uni-fr...转载 2018-11-09 18:55:48 · 651 阅读 · 0 评论