Machine Learning
文章平均质量分 97
chenxp2311
在校大学生
展开
-
论文阅读:Multi-view Convolutional Neural Networks for 3D Shape Recognition
阅读一篇ICCV2015的论文:Multi-view Convolutional Neural Networks for 3D Shape Recognition,简称:MVCNN 用物体的三维数据从不同“视角”所得到的二维图,作为原始的训练数据。通过View-pooling层,聚合特征。再通过经典的二维图像卷积网络进行训练,训练出的模型,对三维物体的识别、分类效果之好,比那些用三维数据直接训练出的模型好很多。原创 2016-05-25 15:36:21 · 24086 阅读 · 12 评论 -
Triplet Loss、Coupled Cluster Loss 探究
因为要区分相似图像,所以研究了一下 Triplet Loss,还有今年 CVPR 的一篇文章:《Deep Relative Distance Learning: Tell the Difference Between Similar Vehicles》,这篇文章提出了 Coupled Cluster Loss 。文章的主要内容在之前的阅读笔记已经叙述过了,文本主要集中于对这两个损失函数的实验。原创 2016-07-25 20:49:46 · 16000 阅读 · 27 评论 -
论文阅读:Deep Relative Distance Learning: Tell the Difference Between Similar Vehicles
CVPR 2016 的论文:《Deep Relative Distance Learning: Tell the Difference Between Similar Vehicles》,阅读笔记。原创 2016-06-29 15:40:18 · 10284 阅读 · 3 评论 -
豆豆叶:机器学习与我的学术日常
之前因为没有得到 豆豆叶学长 的授权就把他这次 Live 的内容发出来,我在此再次抱歉。所以我之前的那篇文章已经被我删除了。这次的发表已经得到 豆豆叶学长 的授权,并且 豆豆叶学长 也检校过了。因此,我再次发出来,希望能够对你的学习有所帮助,谢谢 豆豆叶学长:对这篇文章的转载需要得到授权,谢谢!原创 2016-09-29 16:41:58 · 9998 阅读 · 0 评论 -
将 Street View Text 数据集的 GroundTruth 标注在图像上
自然场景图像,Street View Text 数据集是非常著名的一个数据集。所有的图像都源自于 Google Street View,这里面的图像分辨率较低,文字变化较大。 数据集给定的 ground truth 是两个 XML 文件: train.xml、test.xml。本文将 XML 中的 ground truth 信息,标注在原图像中。原创 2016-10-26 15:41:56 · 9433 阅读 · 2 评论 -
论文阅读:Synthetic Data for Text Localisation in Natural Images
重新把注意力放到了 自然场景文本检测与识别 上了。已经从这块方向离开了一年多了。再回来,已经物是人非。都不像以前那么玩了,论文赶紧看起来。上次阅读完 Reading Text in the Wild with Convolutional Neural Networks 之后,文中提到了作者自己生成了 Synthetic Data(人工合成自然场景文本数据)。原创 2016-08-31 22:24:01 · 15653 阅读 · 6 评论 -
SSD: Signle Shot Detector 用于自然场景文字检测
之前我在 论文阅读:SSD: Single Shot MultiBox Detector 中,讲了这个最新的 Object Detection 算法。既然 SSD 是用来检测物体的,那么可不可以将 SSD 用来检测自然场景图像中的文字呢?答案肯定是可以的~同时,受到浙大 solace_hyh 同学的 ssd-plate_detection 工作,这篇文章记录我自己将 SSD 用于文字检测的过程。原创 2016-10-18 21:21:37 · 30879 阅读 · 85 评论 -
YouTube-8M 数据集简介
Google 公布了一个大型的视频数据集:YouTube-8M 视频数据集。这个数据集包含 8,000,000 万个 YouTube 视频链接,同时有 4800 个标注的 knowledge graph entity(知识图谱实体)。原创 2016-10-06 11:07:46 · 61064 阅读 · 2 评论 -
Open Image 数据集简介
Google 又放出了一个大新闻: Open Image 图像数据集,包含 900 万张机器标注的 image-level 的图像数据。数据基本来自 flickr,其中验证集经过了人工检校。原创 2016-10-01 16:32:39 · 41826 阅读 · 6 评论 -
论文阅读:SSD: Single Shot MultiBox Detector
这篇 ECCV 2016 的文章,在既要保证检测速度,又要保证精度的情况下,提出了 SSD: Single Shot MultiBox Detector 物体检测模型。与现在流行的检测模型一样,将检测过程整个成一个 single deep neural network。便于训练与优化,同时提高检测速度。原创 2016-09-19 23:23:58 · 104230 阅读 · 62 评论 -
相比于深度学习,传统的机器学习算法难道就此没落了吗,还有必要去学习吗?
应 CSDN 运营朋友之邀写了一篇观点文章,作为一个刚刚入门的小硕,虽然不才,但厚着脸皮,发表一下自己浅薄的看法。原创 2016-09-24 10:53:19 · 45481 阅读 · 1 评论 -
论文阅读:You Only Look Once: Unified, Real-Time Object Detection
这篇今年 CVPR 2016 年的检测文章 YOLO,我之前写过这篇文章的解读。但因为不小心在 Markdown 编辑器中编辑时删除了。幸好同组的伙伴转载了我的,我就直接考过来了。以后得给自己的博文留个备份。原创 2016-09-23 19:07:11 · 32746 阅读 · 22 评论 -
机器学习中模型评估与选择中的几个小问题
Training set、Validation set 与 Testing set有关于训练数据的过程中,validation与testing有何区别,validation的作用到底是什么?Cross-validation中,该怎么理解、操作?原创 2016-05-07 21:15:08 · 22091 阅读 · 2 评论 -
When Does Deep Learning Work Better Than SVMs or Random Forests?
《When Does Deep Learning Work Better Than SVMs or Random Forests?》,这是这篇加上自己理解的译文,原文是kdnuggets网站上的一篇文章,也被收录进了Python Machine Learning Notebook中FAQ中。翻译 2016-05-31 08:53:20 · 996 阅读 · 0 评论 -
欧氏距离与马氏距离
之前写《Multi-view CNNs for 3D Objects Recognition》笔记时,一个创新点便是将MVCNN提取到的3D特征描述符,投影到马氏距离上。我沿着这篇文章追踪马氏距离,搞清楚马氏距离以及欧式距离之间的区别。原创 2016-06-10 14:54:42 · 53081 阅读 · 4 评论 -
论文阅读:Volumetric and Multi-View CNNs for Object Classification on 3D Data
最近由于要做正颌手术中术后变形预测的问题,要处理三维数据,所以在研究三维卷积,三维分类的问题。 这段时间精读一篇CVPR2016的论文:《Volumetric and Multi-View CNNs for Object Classification on 3D Data》。并做了实验,下文记录我对文章的理解。原创 2016-05-19 11:17:45 · 10990 阅读 · 2 评论 -
Deep Learning Trends @ ICLR 2016:深度学习趋势@ICLR2016(译)
《CLR 2016上深度学习发展趋势》,原文作者是Tomasz Malisiewicz大神,这是他在博客Tombone’s Computer Vision Blog的文章,一出来就引起这个圈子的广泛关注。微信公众号“机器之心”在第一时间提供了译文,我仔细看了一下,发现这篇译文翻译的有些地方比较拗口,还有遗漏的地方。所以,我在这里还是按照自己的理解翻译一下。翻译 2016-06-10 11:09:35 · 8553 阅读 · 0 评论 -
论文阅读:Comparative Study of Deep Learning Software Frameworks( caffe、Neon、TensorFlow、Theano、Torch 之比较)
这是我为本周例会准备的内容。最近不少人问我哪个开源框架好用,我自己用过 caffe、TensorFlow、Theano、Torch,用过后有一定的感觉。但很多东西需要实验来具体的验证。正好我看到《Comparative Study of Deep Learning Software Frameworks》,对Caffe、Theano、Torch、Neon和TensorFlow这5个框架作了对比,这是我阅读笔记。原创 2016-07-02 12:28:53 · 4313 阅读 · 2 评论 -
Torch 中添加自己的 nn Modules:以添加 Dropout、 Triplet Loss 为例
因为要复现前面阅读的一篇论文:《论文笔记:Deep Relative Distance Learning: Tell the Difference Between Similar Vehicles》 中提到的用来区分相似图像的两个损失函数:Triplet Loss、Coupled Cluster Loss 。上面的那篇论文没有提供源代码,因此得自己去写这两个损失函数模块。原创 2016-07-20 11:05:04 · 9570 阅读 · 5 评论 -
论文阅读:Reading Text in the Wild with Convolutional Neural Networks
来自 VGG 实验室,发表在 IJCV 上。实验步骤分为两部分,基于 region proposal mechanism 的检测文字部分,以及基于 CNN 的文字识别部分。在第一部分的 region proposal 部分,首先保证较高的 recall,尽量把所有可能的文字区域先检测出来;然后经过一个 filtering 阶段,保证文字检测的精度。在第二部分的 word recognition 部分,不同于传统的原创 2016-08-27 21:41:51 · 7361 阅读 · 11 评论 -
CCF ADL70:机器学习前沿
Preface这个月的 20~22 号,我参加了中国计算机协会举办的《机器学习前沿》讲习班。开会地点是在广州的广东外语外贸大学,地处广州白云山的山脚下,环境挺美的。 三天里,共有 5 位讲者在大会上分享他所研究领域的前沿。第一个分享者是清华大学的 朱军 老师,讲的是贝叶斯学习前沿;第二个分享者是香港科技大学的 James Kwok 老师,讲的是统计学习前沿;第三个分享者是华为若亚方舟实验室原创 2016-08-24 10:57:27 · 4477 阅读 · 11 评论