- 博客(6)
- 资源 (1)
- 收藏
- 关注
原创 GBDT学习总结(Boosting、决策树)
1 GBDT简介GBDT (Gradient Boosting Decision Tree) 梯度提升决策树。DT-Decision Tree决策树,GB是Gradient Boosting,是一种学习策略,GBDT的含义就是用Gradient Boosting的策略训练出来的DT模型在前几年深度学习还没有大行其道之前,GBDT在各种竞赛是大放异彩。一是效果确实挺不错。二是即可以用于分类也可以用于回归。三是可以筛选特征2 集成学习集成学习就是将多个弱的学习器结合起来组成一个强的学习器。这就涉及到,
2020-05-28 17:26:01 2562
翻译 论文笔记R-CNN
1 介绍本文基于《Rich feature hierarchies for accurate object detection and semantic segmentation》翻译总结,该文论述了R-CNN。最近10年,关于各种不同的视觉识别任务主要是基于SIFT和HOG。SIFT和HOG是块方向直方图。在R-CNN之前,物体识别停滞了几年。我们是结合了region proposals和CNNs,故取名R-CNN:Regions with CNN features。我们的方法有两个关键点:(1)将高
2020-05-27 17:53:03 192
翻译 论文笔记Transformer:Attention is all you need
1 介绍主流的序列转换模型是基于复杂的循环或卷积神经网络,它们包括一个encoder和一个decoder。表现最好的模型也是用attention 机制连接encoder和decoder。我们提出了一个新的简单网络模型,即Transformer,该模型仅仅依靠attention机制,不用循环或卷积网络。实验结果显示该模型不仅质量很好,而且可以并行,需要较少的时间训练。循环网络模型主要是输入和输出序列的符号位置的因子计算。位置对齐计算时,需要序列的hidden state 、上一步的hidden state
2020-05-25 15:34:48 723
原创 注意力Attention之学习总结
1. Attention 介绍目前绝大多数文献中出现的attention模型是附着在Encoder-Decoder框架下的,当然,其实attention模型可以看作一种通用的思想,本身并不依赖于Encoder-Decoder模型。本文首先讲解了Encoder-Decoder模型,接着讲解了带有注意力的Encoder-Decoder模型,最后更一般的陈述了attention模型理念。第二部分简单描述了几种不同的attention分类,包括soft attention、hard attention、glo
2020-05-12 16:12:11 944
翻译 论文笔记-Fast R-CNN
1 介绍本文基于《Fast R-CNN》翻译总结,作者是Ross Girshick(Microsoft Research)。Fast Region-based Convolutional Network method (Fast R-CNN) 用来进行物体识别。相比于图片分类,物体识别更具挑战,需要更加复杂的方法来解决。R-CNNR-CNN有以下三个缺点:1.训练是多步骤的:R-CNN首先微调一个卷积网络,使用log loss 进行物体检测;然后适配SVM到卷积特征。这些SVM作为物体检测者,代替
2020-05-09 17:31:46 435
翻译 论文笔记:神经网络架构搜索NAS和ENAS
1.介绍1.1.介绍在论文《NEURAL ARCHITECTURE SEARCH WITH REINFORCEMENT LEARNING》中首次提出了NAS(神经网络架构搜索NEURAL ARCHITECTURE SEARCH),本文首先翻译总结了下此篇内容。接着根据《Efficient Neural Architecture Search via Parameter Sharing》写了EN...
2020-05-04 16:08:53 1603
dicomutil.py
2020-08-18
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人