nlp、
文章平均质量分 90
siyan985
这个作者很懒,什么都没留下…
展开
-
Representation learning表示学习
机器学习(Machine Learning,ML)是指从有限的观测数据中学习(或“猜 测”)出具有一般性的规律,并利用这些规律对未知数据进行预测的方法。传统的机器学习主要关注如何学习一个预测模型。一般需要首先将数据表示为一组特征(Feature),特征的表示形式可以是连续的数值、离散的符号或其他形式。然后将这些特征输入到预测模型,并输出预测结果。这类机器学习可以看作浅层学习(Shallow Learning)。浅层学习的一个重要特点是不涉及特征学习,其特征主要靠人工经验或特征转换方法来抽取为了提高.原创 2021-05-03 11:43:08 · 1267 阅读 · 0 评论 -
A Collaborative Learning Framework to Tag Refinement for Points of Interest
摘要POI的标签可以促进基于位置的服务比如位置搜索或者地点推荐。但是很多POI的标签并不完备或者不精确,本文目的是自动填充缺失的标签和纠正噪声标签。文章通过设计一个三自适应的协同学习框架搜索理想的POI-tag得分矩阵。框架分为三个部分1)建模POI和tag之间的相似性2)通过矩阵分解恢复POI-tag的模式3)通过最大似然估计推测最有可能的标签s动机根据观察发现,尽管最初的POI标签不完美但仍然透漏着POIs和相关tag之间的语义信息。我们可以把这种关系看作得分矩阵,分数代表标签和POI之..原创 2021-03-24 21:08:41 · 202 阅读 · 0 评论 -
DAN-SNR: A Deep Attentive Network for Social-Aware Next Point-of-Interest Recommendation
摘要推荐下一个感兴趣的位置(POI, point-of-interest)近年来吸引了很多研究者的兴趣。先前的研究企图整合一些时空信息和序列信息预测用户下一个访问点。但是,还没有方法考虑到使用目标用户的好友社交信息。本文通过使用一个深度的注意力网络,考虑到了社交影响。本文通过设计两个并行的通道分别扑获用户的短期兴趣和长期兴趣并考虑到社交影响。动机LBSN(Location-based network)是一种社交网络,用户的下一步决策在一定程度上会受到LSBN中其朋友的影响。比如对于用户1来说..原创 2021-03-23 21:17:47 · 716 阅读 · 0 评论 -
DeepAR:Probabilistic forecasting with autoregressive recurrent network
DeepAR:Probabilistic forecasting with autoregressive recurrent network一般的时间序列预测方法是做点预测,即预测未来某个时间点的具体值。但对于一些具体业务比如预测销量来说预测一个概率区间更加易于决策。DeepAR是一个做概率预测的方法,同时也可以做点预测。首先简单介绍一下时间序列和常见的处理方法一、方法介绍DeepAR是一个基于自回归循环神经网络的预测方法,可以用于概率预测。通过在大量相关的时间序列的历史数据上学习一个全局的模型。原创 2020-11-09 15:01:15 · 2329 阅读 · 1 评论 -
Attention mechanism总结
Attention mechanism总结:Attention机制简单来说就是一种信息过滤或者提取机制类似于记忆或者门控机制,用来筛选、更新信息。类比于人脑,神经网络中可以存储的信息量称为网络容量。要存储的信息越多,神经元数量就越多或者网络越复杂,大量的信息增加了存储负担和计算开销。由于人脑每个时刻接收的外界信息非常多,在有限的资源下,并不能同时处理这些过载的输入信息。大脑神经系统通过注意力和记忆两个机制解决信息过载问题。注意力是指人可以在关注一些信息的同时忽略另一些信息的选择能力,选择性过滤.原创 2020-10-24 22:47:41 · 1357 阅读 · 0 评论 -
自然语言发展历史
什么是自然语言自然语言处理(Natural Language Processing,NLP)是研究人与计算机交互语言问题的一门学科。其任务大致分为两类——自然语言理解和自然语言生成。研究方法分类20 世纪 50 年代到 70 年代自然语言处理主要采用基于规则的方法(符号派),研究人员们认为自然语言处理的过程和人类学习认知一门语言的过程是类似的,所以大量的研究员基于这个观点来进行研究,这时的自然语言处理停留在理性主义思潮阶段,以基于规则的方法为代表。但是基于规则的方法具有不可避免的缺点,首先规则不原创 2020-09-29 20:38:40 · 1132 阅读 · 0 评论