论文笔记
文章平均质量分 90
BodyCsoulN
这个作者很懒,什么都没留下…
展开
-
【论文笔记】U-BERT: Pre-training User Representations for Improved Recommendation
原文作者:Zhaopeng Qiu, Xian Wu, Jingyue Gao, Wei Fan原文标题:U-BERT: Pre-training User Representations for Improved Recommendation原文来源:AAAI 2021原文链接:https://www.aaai.org/AAAI21Papers/AAAI-2116.QiuZ.pdfU-BERT: Pre-training User Representations for Improved Reco原创 2021-12-02 09:27:59 · 1994 阅读 · 0 评论 -
【论文笔记】Recommending Third-party Library Updates with LSTM Neural Networks
原文作者:Phuong T.Nguyen,JuriDi Rocco,RiccardoRubei,ClaudioDi Sipio,DavideDi Ruscio原文标题:Recommending Third-party Library Updates with LSTM Neural Networks原文来源:IIR 2021(Proceedings of the 11th Italian Information Retrieval Workshop 2021)原文链接:http://ceur-ws.o原创 2021-12-01 09:50:16 · 696 阅读 · 0 评论 -
【论文笔记】Diversified Third-Party Library Prediction for Mobile App Development
原文作者:Qiang He, Bo Li, Feifei Chen, John Grundy, Xin Xia, Yun Yang原文标题:Diversified Third-Party Library Prediction for Mobile App Development原文来源:IEEE TSE 2020原文链接:https://ieeexplore.ieee.org/abstract/document/9043686Diversified Third-Party Library Predi原创 2021-11-30 17:38:40 · 975 阅读 · 0 评论 -
【论文笔记】Attention is all you need
原文作者:Ashish Vaswani,Noam Shazeer,Niki Parmar,Jakob Uszkoreit原文标题:Attention is all you need原文来源:NIPS 2017原文链接:https://papers.nips.cc/paper/2017/file/3f5ee243547dee91fbd053c1c4a845aa-Paper.pdfAttention is all you need主流序列转导模型基于复杂的CNN或RNN,包括编码器和解码器。有的模型使原创 2021-11-23 16:43:33 · 3227 阅读 · 3 评论 -
【论文笔记】KGAT: Knowledge Graph Attention Network for Recommendation
原文作者:Xiang Wang,Xiangnan He,Yixin Cao,Meng Liu,Tat-Seng Chua原文标题:KGAT: Knowledge Graph Attention Network for Recommendation原文来源:KDD 2019原文链接:https://arxiv.org/abs/1905.07854本文提出了一种新的推荐方法KGAT,能够根据实体间的高阶关系特征建模,并具有一定的可解释性。以端到端方式对KG的高阶连通性进行了显式建模。递归地从节点的邻居(原创 2021-11-23 16:32:02 · 986 阅读 · 0 评论 -
【论文笔记】THE SURVEY of REAL TIME OPERATING SYSTEM: RTOS
原文作者:Prasanna Hambarde, Rachit Varma,Shivani Jha原文标题:THE SURVEY of REAL TIME OPERATING SYSTEM: RTOS原文来源:ICESC 2014原文链接:https://ieeexplore.ieee.org/document/6745342THE SURVEY of REAL TIME OPERATING SYSTEM: RTOS操作系统通常由两部分组成:内核态和用户态。最基础的就是内核。内核可以分为几类:单内核原创 2021-11-11 11:30:40 · 515 阅读 · 0 评论 -
【论文笔记】Don’t Stop Pretraining: Adapt Language Models to Domains and Tasks
原文作者:Suchin Gururangan,Ana Marasović,Swabha Swayamdipta,Kyle Lo,Iz Beltagy,Doug Downey,Noah A. Smith原文标题:Don’t Stop Pretraining: Adapt Language Models to Domains and Tasks原文来源:ACL2020原文链接:https://www.aclweb.org/anthology/2020.acl-main.740.pdfDon’t Stop原创 2021-11-10 09:44:42 · 933 阅读 · 0 评论 -
【论文笔记】Bert:Pre-training of Deep Bidirectional Transformers for Language Understanding
原文作者:Jacob Devlin,Ming-Wei Chang,Kenton Lee,Kristina Toutanova原文标题:Bert:Pre-training of Deep Bidirectional Transformers forLanguage Understanding原文来源:谷歌AI团队原文链接:https://arxiv.org/pdf/1810.04805.pdf3.2 Bert:Pre-training of Deep Bidirectional Transforme原创 2021-11-08 10:50:11 · 2445 阅读 · 0 评论 -
【论文笔记】Explainable Reasoning over Knowledge Graphs for Recommendation
笔记作者:刘泽鑫原文作者:Xiang Wang,Dingxian Wang,Canran Xu, Xiangnan He, Yixin Cao,Tat-Seng Chua原文标题:Explainable Reasoning over Knowledge Graphs for Recommendation原文来源:AAAI 2019原文链接:https://ojs.aaai.org//index.php/AAAI/article/view/4470Explainable Reasoning ove原创 2021-11-04 10:35:02 · 1064 阅读 · 0 评论 -
【论文笔记】SSP: Semantic Space Projection for Knowledge Graph Embedding with Text Descriptions
SSP: Semantic Space Projection for Knowledge Graph Embedding with Text Descriptions摘要知识图谱嵌入将知识图谱中的实体和关系表示为低维的,连续的向量,从而使知识图谱能够与机器学习模型兼容。尽管有很多知识图谱嵌入的模型,但大多数只涉及事实三元组,实体和关系的补充文字说明并未得到充分利用。本文提出了SSP方法, 联合学习事实三元组和文本描述,建立了二者之间的交互,使用文本描述发现实体、关系的语义相关,提高嵌入的准确性。大量的实原创 2021-10-29 18:08:32 · 630 阅读 · 1 评论 -
【论文笔记】Unsupervised Embedding Enhancements of Knowledge Graphs using Textual Associations
Unsupervised Embedding Enhancements of Knowledge Graphs using Textual Associations摘要知识图谱嵌入对于表示和学习多关系数据是有帮助的,最近嵌入模型表现出从现有的数据库推断新事实的高效性。然而,这些精确的结构数据通常在数量上和范围上有限。因此,为了为了完整优化嵌入,考虑更广泛可用的信息源是重要的,比如文本。这篇文章描述了一个无监督的方法来兼容文本信息通过关联单词的嵌入来增强实体嵌入。该方法并不修改知识图谱嵌入的优化目标,允许原创 2021-10-29 14:33:50 · 387 阅读 · 0 评论 -
TransH-Knowledge Graph Embedding by Translating on Hyperplanes 翻译
Knowledge Graph Embedding by Translating on Hyperplanes摘要处理把一个大规模的由实体和关系组成的知识图谱嵌入到连续的向量空间中。TransE是最近提出来的一个很有希望的方法,是非常高效的,实现了最先进的预测性能。我们讨论了一些应该在嵌入中考虑到关系的映射属性,比如自反,一对多,多对一和多对多。我们注意到TransE在处理这些属性时做的并不好。一些复杂的模型有足够的能力保持这些映射属性,但在这个过程中牺牲了效率。为了在模型容量和效率中做很好的权衡,我们翻译 2021-09-10 10:07:25 · 376 阅读 · 0 评论