【机器学习&深度学习】
仙道菜
北京航空航天大学研究生;
关注:计算机视觉、机器学习等;
邮箱:cyh@buaa.edu.cn
展开
-
【论文笔记】The Impact of Imbalanced Training Data for CNN
本文主要研究使用不平衡数据训练CNN对图像分类的影响。文中使用的数据集是CIFAR-10。使用这些生成的不同的训练集,分别去训练一个CNN。结果显示,不平衡训练集会对结果造成很大的负面影响,而训练集在平衡的情况下,能够达到最好的performance,同时oversampling是一个非常有效的解决imbalance的方法。原创 2015-11-16 20:35:58 · 6950 阅读 · 0 评论 -
【深度神经网络压缩】Deep Compression (ICLR2016 Best Paper)
做过深度学习的应该都知道,NN大法确实效果很赞,在各个领域轻松碾压传统算法,不过真正用到实际项目中却会有很大的问题: 1. 计算量非常巨大;2. 模型特别吃内存;怎么办?使用网络压缩技术咯!《Deep Compression》 是 ICLR 2016 Best Paper,将AlexNet从200MB压缩到6.9MB,而且不降低准确率!原创 2016-06-19 01:51:39 · 26881 阅读 · 9 评论 -
【计算机视觉】Visual Tracking 领域最新进展(论文与源码)
最近在研究 tracking,所以总结了一些较新的 tracking 相关的论文和源码。希望能够为刚进入这个领域的同学节省一些时间。如您有其他优秀的paper或者code,欢迎在回复中留言~谢谢!原创 2016-06-05 22:48:15 · 16923 阅读 · 8 评论 -
【计算机视觉】《Learning Multi-Domain Convolutional Neural Networks for Visual Tracking》
本博客是《Learning Multi-Domain Convolutional Neural Networks for Visual Tracking》的阅读笔记。继 Object Classification、Detection 之后,Tracking 也"沦陷"啦,又一个被deep learning拿下的领域,这篇论文提出的 MDNet 在wuyi老师发布的OTB50和OTB100数据库上面取得了惊人的成绩。原创 2016-06-05 16:49:27 · 11124 阅读 · 2 评论 -
【卷积神经网络-进化史】从LeNet到AlexNet
本系列博客是对刘昕博士的《CNN的近期进展与实用技巧》的一个扩充性资料。主要引用刘昕博士的思路,将按照如下方向对CNN的发展作一个更加详细的介绍:【从LeNet到AlexNet】、【进化之路一:网络结构加深】、【进化之路二:加强卷积功能】、【进化之路三:从分类到检测】、【进化之路四:新增功能模块】原创 2016-05-17 23:20:30 · 77950 阅读 · 5 评论 -
【深度学习】caffe 中的一些参数介绍
caffe 是非常强大的深度学习框架,作为使用者,我们当然要对它的一些配置参数有一定的认识,本文简单介绍了caffe中的一些参数,持续更新中...原创 2016-05-30 14:33:42 · 49311 阅读 · 4 评论 -
【机器学习】神经网络-激活函数-面面观(Activation Function)
日常 coding 中,我们会很自然的使用一些激活函数,比如:sigmoid、ReLU等等。不过好像忘了问自己: 1. 为什么需要激活函数? 2. 激活函数都有哪些?都长什么样?有哪些优缺点? 3. 怎么选用激活函数?本文正是基于这些问题展开的,欢迎批评指正!原创 2016-01-27 12:35:17 · 73354 阅读 · 8 评论 -
【深度学习&分布式】Parameter Server 详解
MXNet是李沐和陈天奇等各路英雄豪杰打造的开源深度学习框架(最近不能更火了),其中最吸引我的是它的分布式训练的特性;而提供支持其分布式训练特性的正是当年李少帅和 Alex Smola 等人开发的 parameter server. 本文从易用性、通信高效性、可扩展性等角度介绍 parameter server .原创 2016-01-20 01:34:02 · 43899 阅读 · 10 评论 -
【机器学习】Logistic Regression 的前世今生(理论篇)
Logistic Regression可以说是机器学习的入门算法。不过,你真的有把握能够把LR从头到脚讲一遍吗?你会现场建模,数学推导?你知道它的正则化的作用?你能讲清楚它跟MaxEnt最大熵模型的关系吗?ok,你说这些你都会?那你知道并它的行化怎么做吗?有几种并行化的方式呢?啥?!你说你还会?大神,请受我一拜!原创 2015-12-19 17:36:12 · 55952 阅读 · 25 评论 -
【机器学习】K-Means 聚类是特殊的矩阵分解问题
【机器学习】K-Means 聚类是特殊的矩阵分解问题。本博客是该论文《k-Means Clustering Is Matrix Factorization》的阅读笔记。论文证明了传统的K-Means算法的目标函数可以被表达成数据矩阵与其低阶数据矩阵之间差异的Frobenius范数。简单地说,K-Means 聚类是特殊的矩阵分解问题。原创 2015-12-26 15:59:27 · 8509 阅读 · 3 评论 -
【论文笔记】SparkNET: 用Spark训练深度神经网络
这篇论文是 Berkeley大学 Michael I. Jordan 组的最新论文。训练深度神经网络是一个非常耗时的过程,比如用卷积神经网络去训练一个目标识别任务需要好几天来训练。因此,充分利用集群的资源,加快训练速度成了一个非常重要的领域。SparkNet 是基于Spark的深度神经网络架构。原创 2015-12-27 23:00:47 · 12629 阅读 · 3 评论 -
使用docker安装部署Spark集群来训练CNN(含Python实例)
实验室有4台服务器(8个GPU/台),平日都只使用了其中的一个GPU,实在暴遣天物!于是决定使用docker安装部署Spark集群,将这些GPU都利用起来训练CNN。本文是博主含泪写出的踩坑总结,希望能够给各位提供了一些前车之鉴来避开这些坑。原创 2015-11-06 15:03:18 · 22123 阅读 · 14 评论 -
【人脸识别】人脸验证算法Joint Bayesian详解及实现(Python版)
本文主要是针对[Bayesian Face Revisited: A Joint Formulation][3] 这篇文章的笔记。这篇论文仅通过LBP跟Joint Bayesian这两个方法结合,就把**LFW** 数据集上的人脸验证准确率轻松刷到了92.4%. 香港中文大学团队的DeepID2将七个联合贝叶斯模型使用SVM进行融合,最终达到了99.15%的结果。原创 2015-10-12 00:54:30 · 46493 阅读 · 115 评论 -
【Spark 机器学习】K-means聚类算法(理论篇)
【机器学习】K-means聚类算法(理论篇) 本博客是【Spark-Python-机器学习】系列的文章。 该系列的文章主要讲解【机器学习】的一些通用算法的原理,并且使用【Python+Spark】来实现。 文章通常分为上下篇(理论篇 与 实践篇)。 如需转载,请附上本文链接:http://blog.csdn.net/cyh_24/article/details/50原创 2015-12-31 23:49:54 · 7947 阅读 · 0 评论 -
Theano深度学习入门
关注DeepLearning,主要以Theano官方教程Deep Learning Tutorial为参考。原创 2014-12-09 19:18:52 · 2662 阅读 · 0 评论 -
【计算机视觉】《Light-Head R-CNN: In Defense of Two-Stage Object Detector》
Light-Head R-CNN: In Defense of Two-Stage Object Detector本文仅为仙道菜记录笔记之用,细节不对之处,欢迎批评指正。更多相关博客请猛戳:https://zhuanlan.zhihu.com/cyh24如需转载,请附上本文链接,谢谢!这篇 文章 从题目上看就一目了然: 捍卫two-stage object detector.原创 2018-01-21 23:41:49 · 1602 阅读 · 0 评论