自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

nakaizura

悠闲地不定期更新多模态、搜索推荐、基础技术、前沿追踪的翔二

  • 博客(10)
  • 资源 (2)
  • 收藏
  • 关注

原创 Source-Code-Notebook(源码解析和逐行笔记)

Source-Code-Notebook关于一些经典论文源码Source Code的中文笔记,尽量做到整体框架梳理和逐行源码注释。不过太早期的代码一般都模块化了,所以主要更一些后期(2017-NOW)的笔记。语言主要是pytorch和Tensorflow版本的代码,部分keras。有注解错误和思路问题欢迎讨论。大部分都在本博客里面有文章整理过吧,思路+源码一起吃能对pap...

2020-05-03 21:36:50 6776

原创 Strategies for Pre-training Graph Neural Networks(图预训练)

STRATEGIES FOR PRE-TRAINING GRAPH NEURAL NETWORKSICLR2020,Stanford出品。用于GNN的预训练策略。paper:https://openreview.net/forum?id=HJlWWJSFDH&noteId=HJlWWJSFDHcode:https://github.com/snap-stanford/pretrain-gnns/预训练从CV领域开始取得了很好的效果,到BERT在NLP大杀四方,终于Graph也开始Pretr.

2020-05-31 18:12:43 4735

原创 胶囊网络用于推荐系统问题(MIND,CARP)

Multi-Interest Network with Dynamic Routing for Recommendation at Tmall多兴趣动态路由,出自一直在学术前沿的阿里:https://arxiv.org/pdf/1904.08030.pdf 。推荐系统中默认用户的历史行为代表着用户的兴趣,而传统的Embedding方式会用DNN把用户特征固定成一个低维向量,不能很好的捕捉到用户动态的,多方面丰富的兴趣特征。所以DIN方法采用自注意力,使同一个用户与不同的item预测时用户产生的Embe.

2020-05-29 22:37:21 5105

原创 知识图谱用于推荐系统问题(CKE,RippleNet)

Knowledge Graph知识图谱是一种语义图,其结点(node)代表实体(entity)或者概念(concept),边(edge)代表实体/概念之间的各种语义关系(relation)。一个知识图谱由若干个三元组(h、r、t)组成,其中h和t代表一条关系的头结点和尾节点,r代表关系。引入知识图谱进入推荐系统领域的优点在于:精确性(precision)。为物品item引入了更多的语义关系,可以深层次地发现用户兴趣多样性(diversity)。提供了不同的关系连接种类,有利于推荐结果的发散,避免.

2020-05-29 18:16:39 11404 21

原创 知识图谱用于推荐系统问题(MKR,KTUP,KGAT)

前一篇文章介绍了知识图谱用于推荐系统问题(CKE,RippleNet),这一篇博文目整理对KG和RC融合的更加深入的两篇文章MKR,KTUP。MKR利用一个Cross单元使两者融合,KTUP则是相互补全相互增强的思路。Multi-task Learning for KG enhanced Recommendation (MKR)交替学习文章以更好的融合KG和RC。模型图如下:左边是推荐任务。用户和物品的特征表示作为输入,预测点击率y右边是知识图谱任务。三元组的头结点h和关系r表示作为输入,预测

2020-05-29 18:08:30 9245 3

原创 图神经网络用于推荐系统问题(PinSage,EGES,SR-GNN)

Session-based Recommendation with Graph Neural Networks会话序列推荐的图应用,发自AAAI 2019,先放链接:blog:https://sxkdz.github.io/research/SR-GNN/paper:https://arxiv.org/abs/1811.00855code:https://github.com/CRIPAC-DIG/SR-GNN会话推荐是指,对于一个用户的点击序列(即session),预测下一个要点击的物品。即输.

2020-05-29 14:44:54 12051

原创 注意力机制用于推荐系统问题(DIN,DIEN,BERT4Rec,PRM)

当注意力机制都已经变成很tasteless的手法的时候,使用/魔改注意力机制一定要专注讲好自己的故事…即为什么要用Attention,为什么要魔改Attention。DIN和DIEN都是阿里针对CTR预估的模型,都主要是对用户历史行为数据的进一步挖掘的工作。CTR预估任务是,根据给定广告/物品、用户和大量的上下文情况等信息,对点击进行预测,所以对用户的兴趣理解,历史行为数据非常重要。Deep Interest Network for Click-Through Rate Prediction(DIN).

2020-05-28 21:14:02 6374 6

原创 Cross-modal Retrieval(跨模态检索)

前一篇文章整理了多模态融合Multimodal Fusion,最近看到一篇很好的跨模态检索的文章,这篇博客就来整理几篇博主认为idea还不错的跨模态检索。另,如果有其他idea很好的跨模态论文,希望你在文章后面留言!Cross-modal Retrieval一般一个跨模态检索过程可以既包括模态表征,模态转换,模态对齐和联合学习(唯独没有模态融合,基本上不需要融合)。Adversarial ...

2020-05-03 20:55:32 24473 14

原创 Scene Graph(视觉关系场景图检测)

Scene GraphNeural Motifs: Scene Graph Parsing with Global Context开山经典之作。motif指场景图中重复出现的子结构。引入relation priors(主语和宾语确定,relation很容易确定,并且类似的motif会大量出现)后,直接通过统计的方法,不需要图片信息就能得到较高的准确率。文中的方法先将图片做proposal...

2020-05-02 20:58:16 15985 1

原创 Transformer变体(Star-Transformer,Transformer-XL)

Star-Transformer来自NAACL 2019的论文。问题:Transformer的自注意力机制每次都要计算所有词之间的注意力,其计算复杂度为输入长度的平方,结构很重在语言序列中相邻的词往往本身就会有较强的相关性,似乎本来就不需要计算所有词之间解决:Star-Transformer用星型拓扑结构代替了全连通结构如上图左边是Transformer,而右边是Star-Tra...

2020-05-02 19:15:33 2958

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除