阅读笔记
文章平均质量分 91
vivian_ll
这个作者很懒,什么都没留下…
展开
-
Location Prediction综述
2012-Geolocation Prediction in Social Media Data by Finding Location Indicative Wordsfinding location indicative words (LIWs) 朴素贝叶斯 LR2012-Supervised Text-based Geolocation Using Language Models on an Adaptive Gridk-d树 KNN KL散度度量2014-Hierarchical Discr原创 2021-11-28 16:22:15 · 1357 阅读 · 0 评论 -
论文笔记:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
论文地址:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding前言Google在2018年10月发表的一篇文章。AbstractBERT 表示来自 Transformer 的双向编码器表示(Bidirectional Encoder Representations from Tra...原创 2019-11-21 20:03:33 · 1263 阅读 · 0 评论 -
论文笔记:Focal Loss for Dense Object Detection
论文链接: https://arxiv.org/pdf/1708.02002.pdf本篇论文是何恺明及其团队17年发表在ICCV上的paper。最初用于目标检测,因为解决了分类中类别不平衡的问题,nlp中也有应用。下面是各部分的要点,并非全文翻译。Abstract目前最高精度的目标检测器是基于由R-CNN推广的 two-stage 方法,其中分类器应用于稀疏的候选对象位置集。相比之下,...原创 2019-11-20 20:38:14 · 611 阅读 · 0 评论 -
论文笔记:XGBoost: A Scalable Tree Boosting System
这篇论文是Tianqi Chen2016年在arXiv上发表的。陈天奇是机器学习领域著名青年学者,本科就读于上海交大ACM班,华盛顿大学计算机系博士,开发了XGBoost、MXNet、TVM等知名机器学习工具。(因为原文内容较多,很多针对系统而非算法本身的内容,故没有逐句翻译,仅放上了每部分的核心内容,如想阅读全文翻译可以阅读参考网址。)Abstract提升树是一种高效且被广泛使用的机器学...原创 2019-11-12 21:05:43 · 981 阅读 · 0 评论 -
论文笔记:A Mostly Data-driven Approach to Inverse Text Normalization
这篇文章是苹果公司发表在语音识别顶会INTERSPEECH2017上的一篇文章。将逆文本化(ITN)转为标签问题的方法Siri 使用标准的格式化方式来展示日期、时间、地址和金额等对象。这是由于在语音识别的核心组件的输出上应用了一个被称之为逆转文本标准化(ITN,Inverse Text Normalization)的过程。可以通过下面这个案例来理解 ITN 所起的重要作用,如果没有 ITN,S...原创 2019-05-31 14:58:19 · 1799 阅读 · 0 评论 -
女士品茶
第七章 费歇尔获胜费歇尔在英国皇家统计学会会议上宣读了他的论文《归纳推理的逻辑》。高尔顿生物统计实验室成长为生物统计学系。他退休后,该系一分为二,费歇尔受命担任其中之一的优生学系的系主任,另一个则是规模缩小了的生物统计学系,系主任由 K·皮尔逊的儿子 E·皮尔逊担任。费歇尔学派与皮尔逊学派:两种统计观K·皮尔逊把统计分布视为对他所分析数据的集合的真实描述。而按照费歇尔的观点,真实分布只是一...原创 2018-11-29 18:05:00 · 2152 阅读 · 0 评论 -
论文笔记:Recurrent Convolutional Neural Networks for Text Classification
1 Abstract文本分类是NLP的一项重要的基础任务。传统的文本分类需要特征工程,需要人类参与。而深度学习能够自动提取特征不需要人的参与。本文采用周期循环神经网络比卷积神经网络能够更加减少噪声,利用最大池化层选取一句话中最重要的特征。首先在学习词的表达的时候,采用双向循环结构获取文本信息,比传统的基于窗口的神经网络更能减少噪声,而且在学习文本表达时可以大范围的保留词序。其次使用最大池化层获...原创 2018-07-09 18:01:15 · 7105 阅读 · 7 评论 -
论文笔记:A Sensitivity Analysis of Convolutional Neural Networks for Sentence Classification
A Sensitivity Analysis of (and Practitioners’ Guide to) Convolutional Neural Networks for Sentence Classification——Ye Zhang,Byron C. Wallace这篇paper的主要工作是对“Convolutional Naural Networks for Sentence ...原创 2018-07-02 15:12:44 · 2296 阅读 · 0 评论 -
论文笔记:Convolutional Neural Networks for Sentence Classification
Abstract作者在句子级的分类任务上做了一系列基于预训练词向量的CNN实验。 实验结果说明了:一个简单的(单层神经网络)、有一点超参数的调节(Filter的个数)和static word vector的CNN模型在多个benchmarks上效果都很好。通过微调学习特定任务的向量(task-specific vectors)可提升性能。 作者还提出了一个架构上的简单修改来允许t...原创 2018-07-02 14:54:41 · 1037 阅读 · 0 评论 -
论文笔记:Do we Need Hundreds of Classifiers to Solve Real World Classification Problems
Abstract179个分类器17个类别(判别分析,贝叶斯,神经网络,支持向量机,决策树,基于规则的分类器,boosting,bagging,stacking,随机森林和其他集成方法,广义线性模型,近邻算法,偏最小二乘(PLS)和主成分回归,逻辑和多项式回归,多元自适应回归样条函数和其他方法)。121个数据集(the whole UCI data base)性能最好的是: 1. RF——原创 2017-03-10 16:41:21 · 2052 阅读 · 0 评论