深度学习
ZesenChen
机器学习研究生在读,研究方向为多标记学习,github主页为:https://github.com/ZesenChen
展开
-
利用mask-rcnn解决kaggle目标检测问题
mask-rcnn简介 mask-rcnn是Kaiming He大佬提出的图像分割模型,它在对图像中的目标进行检测的同时还能对每一个目标给出一个分割结果。它在Faster R-CNN[1]基础之上进行扩展,并行地在bounding box recognition分支上添加一个用于预测目标掩模(object mask)的新分支。该网络还很容易扩展到其他任务中,比如估计人的姿势,也就是关键点识别。该框原创 2018-03-17 20:37:49 · 7051 阅读 · 14 评论 -
利用CNN模型进行NLP文本分类
前言这段时间在做kaggle的一个NLP比赛,虽然刚做不久但看了一些kernel和discussion后收获颇多,打算写几篇博客记录一下方便自己后面复习。文本特征提取文本作为一种长度不相同的数据,要作为模型的输入需要进行一定的处理。简而言之就是想办法让它们的长度一致。**keras.preprocessing.text中有Tokenizer模块,可以帮助你把英文句子转换成数值序列,再用pad...原创 2018-11-22 22:29:39 · 1587 阅读 · 0 评论 -
深度学习中处理类别不平衡问题主流方法总结
前言在深度学习的一些场景下,经常会出现类别不平衡的情况。以二分类为例,正负样本比例为1:1的情况十分罕见;多数情况下都是1:N,N有时甚至超过10,甚至几十上百都有。在多次遇到这种问题后写了该博客进行总结。方法1、欠采样和过采样欠采样是在多数类中进行部分采样,过采样是在少数类中重复采样。过采样和修改目标函数中正负项系数是等价的,但实际操作中效果一般不会相同。2、数据增强数据增强分图像和...原创 2018-12-18 11:08:56 · 9038 阅读 · 3 评论 -
改善深度学习训练的trick总结
在深度学习中,同样一个模型用不同的初始化,数据处理,batch size,学习率,优化器都能得到不同性能的参数。我根据自己参与过的比赛中经常用到的一些trick进行大致的总结,有代码的会顺便附上,方便自己以后使用。学习率调整在训练模型过程中,我们可以使用固定的学习率,但一些研究工作显示在模型训练过程中使用动态的学习率有助于加速收敛,在更少的epoch里得到更好的模型精度。CLR在每个bat...原创 2018-12-24 14:08:01 · 4495 阅读 · 2 评论