深度学习
文章平均质量分 85
冰淇淋和慕斯蛋糕
我是一棵小青菜,
不仅菜,还卷不起来
展开
-
【论文阅读】Category-aware Collaborative Sequential Recommendation
以前看过的 顺手做个笔记然而,大多数现有的解决方案都将用户的操作历史视为一个长序列。这种简化通常忽略了动作序列中的细粒度依赖结构。考虑图1所示的示例。对于用户Lily来说,从衣服到鞋子的重复转换表明她的下一个动作很可能与鞋子有关,而她之前浏览的鞋子系列表明她对运动鞋的总体偏好。但她最近浏览的商务套装表明,她目前的意图是穿正装。因此,系统不再适合按照她的一般喜好来推荐运动鞋;相反,推荐正式的鞋子成为更好的选择。这样的观察告诉我们,再次考虑图1中的示例。原创 2022-10-26 23:06:33 · 1057 阅读 · 2 评论 -
【论文阅读】先验规则-Controlling Neural Networks with Rule Representations
提出一个模型:DEEPCTRL下图是模型算法的描述我们建议通过引入数据编码器ϕ和规则编码器ϕ这两个通道来改进规范化训练方法。这样,我们的目标是,对应于从标记数据和规则中。然后,将这两个表示,得到一个。我们使用的是小批量训练,就是有D的存在。为了调整数据与规则编码的相对贡献,我们使用,它也将(zd, zr)与相应的目标(Ltask, Lrule)耦合(算法1中的第4和第5行)。。原创 2022-10-25 11:12:30 · 1039 阅读 · 1 评论 -
【论文阅读】Dual-level diagnostic feature learning with recurrent neural networks for treatment sequence r
接着我们使用element attention 来学习 治疗项目和对应的CTRs的优先级(不同的治疗项目和结果会对后续产生影响,我们给他们分配一个权重,然后把治疗项目和对应的CTRs的嵌入进行一个结合,得到一个新的embedding,(或者是先contact成新的embedding,然后使用attention学习weight)(计算损失的时候计算的是 用户本来的治疗顺序集 以及 推荐的治疗顺序集)我们对治疗方案和治疗方案结果分别使用CBOW,进行一个密集的嵌入表示(主要原因:原本的数据维度又多,又稀疏)原创 2022-10-24 20:51:43 · 866 阅读 · 1 评论 -
【推荐系统】顶会文章
最近略读的几篇推荐系统的文章,稍微整理一下相关的内容、方法和模型,便于学习补充,之后有需要会在这个基础上补充整理。原创 2022-08-21 19:15:52 · 712 阅读 · 0 评论 -
【论文阅读】Out-of-Town Recommendation with Travel Intention Modeling
[1] Xin H , Lu X , Xu T , et al. Out-of-Town Recommendation with Travel Intention Modeling[J]. 2021.这篇之前我好像看过,这次做好详细的笔记吧、——话虽如此,基本就是原文的翻译了。目录0.Abstract1.Introduction传统的不足我们的工作我们的贡献一句话概括2.Problem Definition 问题定义Definition 1 (POI)Definition 2 (Check-in原创 2022-03-23 05:32:41 · 278 阅读 · 1 评论 -
【论文阅读】Attributed Graph Clustering via Adaptive Graph Convolution(2019 IJCAI)
[1] Zhang X , Liu H , Li Q , et al. Attributed Graph Clustering via Adaptive Graph Convolution[J]. 2019.这篇没看透呢。后面的没有精读下去,公式太多,半懂不懂。有两个相关链接可以参考。文章目录Abstract1 Introduction3 The Proposed Method3.1 Problem Formulation3.2 Graph ConvolutionAbstract属性图聚类具原创 2022-03-19 04:48:23 · 960 阅读 · 0 评论 -
【论文阅读】Merging Statistical Feature via Adaptive Gate for Improved Text Classification基于自适应门的统计特征合并改进
Merging Statistical Feature via Adaptive Gate for Improved Text Classification来自期刊AAAI 2021年的文章信息如下图所示(作者…)和之前的论文阅读专栏一样,只对部分进行翻译、截取、笔记。目录1. Introduction2.Related Work2.1 Text classification2.2 Classifier with additional knowledge3. Methodology3.1 Glob原创 2022-03-12 03:12:24 · 864 阅读 · 0 评论 -
【论文阅读】Heterogeneous Graph Neural Network via Attribute Completion (WWW ‘21)【异构图神经网络】
同构图 homogeneous graphs异构图 heterogeneous graphs异构信息网络 Heterogeneous information networks (HI原创 2022-03-08 21:54:20 · 5614 阅读 · 0 评论 -
【论文阅读】 略读 融合FastText模型和注意力机制的网络新闻文本分类模型
[1]王婉,张向先,卢恒,张莉曼.融合FastText模型和注意力机制的网络新闻文本分类模型[J].现代情报,2022,42(03):40-47.原创 2022-03-08 02:35:08 · 336 阅读 · 0 评论 -
【论文阅读】略读 基于注意力门控图神经网络的文本分类
基于注意力门控图神经网络的文本分类[1]邓朝阳,仲国强,王栋.基于注意力门控图神经网络的文本分类[J/OL].计算机科学:1-14[2022-03-06].http://kns.cnki.net/kcms/detail/50.1075.TP.20220223.1642.022.html.本文将每个输入的目标文本转换为独立的图结构数据,将文本中的单词作为节点,在节省内存资源消耗的同时保证了节点的特征表达能力.同时,为了有效地利用单词的语义特征信息,并在单词节点之间进行充分的语义信息交互,本文提出了注意力原创 2022-03-07 03:30:24 · 2684 阅读 · 0 评论 -
【论文阅读-未完待续】A Novel Neural Topic Model and Its Supervised Extension
来源百度就可以一篇之前看过的文章,但是有些记不住,打算做成博客记录完善一下。首先直接上模型图。1.输入层(g, d):n-gram g = w1,···,wn,文档ID d∈D,其中D是文档集2.n-gram嵌入层(le∈R 1×300):这一层的目标是用分布式嵌入表示来表示每个n-gram。使用在大型谷歌News数据集(大约1000亿个单词)上训练过的可用工具word2vec1,每个单词或短语由一个300维的嵌入向量表示。那么对于任意n-gram g,如果g在词汇表中,我们直接使用它的嵌入原创 2022-03-05 18:33:59 · 390 阅读 · 0 评论 -
【论文阅读】基线论文 Deep Neural Networks for YouTube Recommendations
Deep Neural Networks for YouTube Recommendations ,百度就可以。推荐YouTube的视频会在三个主要角度上受限:规模(Scale)(YouTube的数据太大的,比以往算法成熟应用的数据集都要大),(新鲜度)(Freshness)(YouTube视频库动态更新快,推荐系统对新内容建模),噪音(noise)(算法需要对个别特征有鲁莽性)原创 2022-02-21 03:09:35 · 733 阅读 · 0 评论