图算法&神经网络
文章平均质量分 82
图算法&神经网络
小爷毛毛(卓寿杰)
NLP对话问答、大模型、AIGC。
微信公众/视频号:毛毛讲书,欢迎关注进一步交流!
展开
-
解读:【腾讯】基于兴趣点图谱的内容理解
单只用“分类、实体、关键词”进行召回,容易导致信息蚕房。如果我们能。原创 2021-11-14 13:46:01 · 1082 阅读 · 0 评论 -
图神经网络——【KDD 2019】KGAT
深度推荐算法(如DeepFM等)模型有个缺点:将训练数据里(用户交互数据)的特征进行独立建模,没有考虑到交互数据之间的关系。这使得这些模型不足以从用户的行为中提取出基于属性的协同信息。如上图:用户u1 看了电影i1 ,这个电影是 ei 导演的,传统的CF方法会着重去找那些也看了电影i1 的用户,比如u4、u5 。而监督学习方法会重点关注那些有相同属性ei 的电影,比如 i2。很显然这两类信息都可以作为推荐信息的补充,但是现有的模型不能做到上面两者信息的融合,而且这里的高阶关系也可以作为推荐信息的补充的。比原创 2021-05-17 19:04:33 · 588 阅读 · 0 评论 -
图神经网络——【SIGIR 2019】NGCF
从早期的矩阵分解到最近出现的基于深度学习的方法,现有的工作通常通过从描述用户(或项目)的现有特性(如ID和属性)映射来获得用户(或项目)的嵌入。作者认为,这种方法的一个固有缺点是,隐藏在用户-项目交互中的协作信号没有在嵌入过程中编码。因此,由此产生的嵌入可能不足以捕获协作过滤效果。作者提出了一个新的推荐框架Neural Graph Collaborative Filtering (NGCF) ,它可以在图结构中学习嵌入表示,让模型可以表达高维特征,显示地将协同过滤信号放入到嵌入过程中。原创 2021-05-17 11:56:20 · 545 阅读 · 0 评论 -
图神经网络——【KDD 2018】PinSage
可以先参阅。本文将基于GraphSAGE来讲讲PinSage。原创 2021-05-14 17:40:43 · 657 阅读 · 0 评论 -
图神经网络——【NIPS 2017】GraphSAGE
直推式(transductive)学习方法是在一个固定的图上直接学习每个节点embedding,但是大多情况图是会演化的,当网络结构改变以及新节点的出现,直推式学习需要重新训练(复杂度高且可能会导致embedding会偏移),很难落地在需要快速生成未知节点embedding的机器学习系统上。本文提出归纳学习—GraphSAGE(Graph SAmple and aggreGatE)框架,通过训练聚合节点邻居的函数(卷积层),使GCN扩展成归纳学习任务,对未知节点起到泛化作用。原创 2021-05-14 14:14:01 · 456 阅读 · 1 评论 -
KM算法详解+模板
首先,每个女生会有一个期望值,就是与她有好感度的男生中最大的好感度。现在有N男N女,有些男生和女生之间互相有好感,我们将其好感程度定义为好感度,我们希望把他们两两配对,并且最后希望好感度和最大。同时,刚才被抢的男生此时非常得意,因为有妹子来抢他,于是他的期望值提高了1点(就是同妹子们降低的期望值相同)于是,只要期望值降低1,就有妹子可能选择其他人。降低期望值1的时候,女3-男3可以配对,所以女3降低期望值1?这一轮匹配相关人员:女1,女2,女3,男1,男3。这一轮参与匹配的人有:女1,女2,男3。转载 2020-09-25 08:59:56 · 316 阅读 · 0 评论