![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
笔记
code-life
code-life
展开
-
论文:Bag of Freebies for Training Object Detection Neural Networks
一、论文(19)Bag of Freebies for Training Object Detection Neural Networkshttps://arxiv.org/abs/1902.04103code: https://github.com/dmlc/gluon-cv二、论文笔记1、背景(1)、简单的有效的训练方式,就可以再不增加任何inference时间的情况下...原创 2019-06-20 17:48:11 · 337 阅读 · 0 评论 -
集成学习---(Boosting) Adaboost
一、简介1、 AdaBoost就是损失函数为指数损失的Boosting算法(当然这是后话,意思是指数损失的前向分步算法和Adaboost一致)二、细节1、算法流程2、最重要的两点误差率:==(也就是在一轮过后,误差率直接用分错样本的权重想加就可以了)(1)、弱分类器的权重如何确定权重仅仅由该分类器的分类误差率e决定,e的范围应该是[0, 0.5],所...原创 2019-06-11 11:27:44 · 387 阅读 · 0 评论 -
集成学习---(Bagging) RandomForest
一、简介https://www.cnblogs.com/maybe2030/p/4585705.html鉴于决策树容易过拟合的缺点,随机森林采用多个决策树的投票机制来改善决策树,我们假设随机森林使用了m棵决策树,那么就需要产生m个一定数量的样本集来训练每一棵树,如果用全样本去训练m棵决策树显然是不可取的,全样本训练忽视了局部样本的规律,对于模型的泛化能力是有害的产生n个样本的方法采用B...原创 2019-06-11 11:29:40 · 365 阅读 · 0 评论 -
集成学习---综述
一、简介集成学习,顾名思义,通过将多个单个学习器集成/组合在一起,使它们共同完成学习任务,有时也被称为“多分类器系统(multi-classifier system)”、基于委员会的学习(Committee-based learning)。这里的【学习器】就是指机器学习算法训练得到的假设。而我们之所以有直觉要把多个学习器组合在一起,是因为单个学习器往往可能效果不那么好 这要么是因为它们具有...原创 2019-06-11 11:31:10 · 1734 阅读 · 0 评论 -
论文:Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization 阅读笔记
一、论文(16)Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localizationhttps://arxiv.org/abs/1610.02391code: https://github.com/ramprs/grad-cam/pytorch :https://github.com/jac...原创 2019-06-16 23:44:13 · 544 阅读 · 0 评论 -
论文:Generalized Intersection over Union: A Metric and A Loss for Bounding Box Regression 阅读笔记
一、论文(19)Generalized Intersection over Union: A Metric and A Loss for Bounding Box Regressionhttps://arxiv.org/abs/1902.09630code:https://giou.stanford.edu二、论文笔记1、背景(1)、深度神经网络的优化,目前主要集中在网络结...原创 2019-06-21 23:00:16 · 228 阅读 · 0 评论 -
论文:Training Region-based Object Detectors with Online Hard Example Mining 阅读笔记
一、论文(19)Training Region-based Object Detectors with Online Hard Example Mininghttps://arxiv.org/abs/1604.03540二、论文笔记1、背景(1)、现存的网络的启发式方法和超参数需要花费很多时间去调。(2)、数据集的样本有很多简易样本,以及一小部分的困难样本。(3)、传统...原创 2019-06-22 18:04:47 · 207 阅读 · 0 评论 -
论文:Relation Networks for Object Detection 阅读笔记
一、论文(17) Relation Networks for Object Detectionhttps://arxiv.org/abs/1711.11575code : https://github.com/msracver/Relation-Networks-for-Object-Detection二、论文笔记1、背景(1)、建模物体之间的关系对物体检测非常有益,但是...原创 2019-07-01 18:02:19 · 328 阅读 · 0 评论 -
论文:FCOS: Fully Convolutional One-Stage Object Detection 阅读笔记
一、论文(19)FCOS: Fully Convolutional One-Stage Object Detectionhttps://arxiv.org/abs/1904.01355code: https://tinyurl.com/FCOSv1二、论文笔记1、背景(1)、anchor-based 需要设置的超参数太多了,而且超参数很影响最后的结果(比如cascade ...原创 2019-06-23 16:31:55 · 582 阅读 · 0 评论 -
论文:CBAM: Convolutional Block Attention Module 阅读笔记
一、论文(18)CBAM: Convolutional Block Attention Modulehttps://arxiv.org/abs/1807.06521code:gihub二、论文笔记1、背景1、网络结构方面有往深度方向探索的(使用resnet结构之后,网络可以更深),有往宽度方向探索的,比如(googlenet)还有往(cardinality)方向探索的...原创 2019-06-15 22:55:07 · 857 阅读 · 0 评论 -
统计语言模型
详细见: https://www.cnblogs.com/peghoty/p/3857839.html1、介绍2、计算统计语言模型的参数的方法(1)、n-gram做了一个n-1介的马尔科夫假设,认为一个 词出现的概率只与它前面的n-1个词相关这样利用条件概率公式就可以统计计算了(2)、神经概率语言模型(基于n-gram的思想...原创 2019-06-09 20:03:00 · 530 阅读 · 0 评论 -
论文:Cascade R-CNN: Delving into High Quality Object Detection 阅读笔记
一、论文Cascade R-CNN: Delving into High Quality Object Detectionhttps://arxiv.org/abs/1712.00726https://github.com/zhaoweicai/cascade-rcnn二、论文笔记1、背景a)、阈值设的太小,正负样本比例失衡,负样本太多,使得检测器对于有较大的阈值的错误框...原创 2019-05-25 19:15:11 · 235 阅读 · 0 评论 -
论文:Deep Face Recognition: A Survey 阅读笔记
一、论文Deep Face Recognition: A Surveyhttps://arxiv.org/abs/1804.06655二、论文笔记《 Deep Face Recognition: A Survey 》目前到v8分为人脸识别和人脸验证两种人脸验证: 1:1人脸识别: 1:N流程1、人脸检测(Face Detection)2、人脸对齐...原创 2019-05-25 19:21:52 · 2896 阅读 · 0 评论 -
论文:Parsing R-CNN for Instance-Level Human Analysis 阅读笔记
一、论文Parsing R-CNN for Instance-Level Human Analysishttps://arxiv.org/abs/1811.12596二、论文笔记1、分析以前的工作的问题实例级的人体分析还存在的问题(1)、mask 分支给出的是一个类无关的mask,但是实例分析需要更多的细节特征(2)、实例分析需要人体各个部分的几何和语义关系(ma...原创 2019-05-25 19:30:04 · 1723 阅读 · 1 评论 -
ICLR 2019最佳论文:The Lottery Ticket Hypothesis: Finding Sparse, Trainable Neural Networks
一、论文The Lottery Ticket Hypothesis: Finding Sparse, Trainable Neural Networkshttps://arxiv.org/abs/1803.03635二、论文笔记1、摘要:神经网络剪枝技术可将网络参数量减少 90%,进而在不牺牲准确率的前提下减少存储需求、提升推断的计算性能。然而现有经验表明,剪枝生成的解析架构从一开...原创 2019-05-17 14:34:02 · 4543 阅读 · 2 评论 -
论文:CenterNet: Keypoint Triplets for Object Detection 阅读笔记
一、论文CenterNet: Keypoint Triplets for Object Detectionhttps://arxiv.org/abs/1904.08189code:https://github.com/Duankaiwen/CenterNet二、笔记1、背景1)、anchor-based方法anchor方法的复杂性2)、cornernet没有好好利...原创 2019-05-23 20:58:50 · 397 阅读 · 0 评论 -
论文:Joint Face Detection and Alignment using Multi-task Cascaded Convolutional Networks 阅读笔记
一、论文(16)Joint Face Detection and Alignment using Multi-task Cascaded Convolutional Networkshttps://arxiv.org/abs/1604.02878二、论文笔记1、背景(1)、没人把facedetection and alignment结合起来做,或者前面人做得效果不太好(2...原创 2019-06-13 16:12:46 · 206 阅读 · 0 评论 -
论文:GCNet: Non-local Networks Meet Squeeze-Excitation Networks and Beyond 阅读笔记
一、论文(19)GCNet: Non-local Networks Meet Squeeze-Excitation Networks and Beyondhttps://arxiv.org/abs/1904.11492code:https://github.com/xvjiarui/GCNet.二、论文笔记1、背景(1)、发现原版的non-local 结构针对每个查询位置...原创 2019-06-08 15:04:03 · 6546 阅读 · 2 评论 -
论文:Text-Attentional Convolutional Neural Network for Scene Text Detection 阅读笔记
一、论文(16)Text-Attentional Convolutional Neural Network for Scene Text Detectionhttps://arxiv.org/abs/1604.02878二、论文笔记1、简介这是一篇关于图片是否包含文字区域的二分类的论文1、背景(1)、文字区域只占整个图片一个很小的区域,但是图片的背景相对复杂,这样就增加...原创 2019-06-14 12:06:36 · 797 阅读 · 0 评论 -
词编码
1、词集模型词集模型:将语料库的所有不相同的词,列出一个有顺序的列表,然后根据该顺序形成一个列表长度的向量,然后根据词列表的顺序,搜索句子里是否包含该词,包含的话向量的该位置置为1,否则置为0。缺点:向量的顺序完全根据前面形成的词的列表的顺序而来,与句子的词的顺序无关,忽略了文本的词序,以及没有词语的权重信息2、词袋模型在词集模型的基础上,把置1改为词出现的频率信息或者tf-idf...原创 2019-06-09 13:36:08 · 662 阅读 · 0 评论 -
论文:Region Proposal by Guided Anchoring 阅读笔记
一、论文(19)Region Proposal by Guided Anchoringhttps://arxiv.org/abs/1901.03278二、论文笔记1、背景(1)、原本的anchors 生成不够高效(2)、不同的问题需要预先定义不同的锚,但是anchor定义的不合适的话,可能会影响结(3)、为了维持极高的召回率,需要定义很多的anchor ,这会带来很大的...原创 2019-07-15 21:35:07 · 230 阅读 · 0 评论