![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
推荐系统
文章平均质量分 88
chad_lee
看论文的
展开
-
【推荐系统中的Hash 3】Deep Hash:Learning to Embed Categorical Features without Embedding Tables KDD‘21
作者也觉得他这种方法不能满足同质性Equal Similarity,因此提出对于物品ID、用户ID,在encode之后再拼接上属性(年龄、性别、品牌等),然后在输入到DHE中解码,为最终生成的embedding补充同质性。项为1,其他都为0。,即一个特征分别落到了k个桶中,分别从embedding table取出向量,并且把最后的结果concat到一起或者做avg-pooling。作者说,这里是受到GAN网络的启发,用服从高斯分布的随机变量做GAN网络的输入。2、无法处理新出现的特征(OOV)。原创 2022-08-21 23:27:14 · 1243 阅读 · 0 评论 -
【推荐系统中的Hash 2】局部敏感哈希(利用冲突)
首先将2维数据点组织成二叉树的结构,比如先用红色的线把点云一分为二,再用深蓝色的线把各自片区的点云一分为二,以此类推,直到每个片区只剩下一个点,这就完成了空间索引的构建。比如,希望找到点 q 的 k 个邻接点,我们就可以先搜索它相邻子树下的点,如果数量不够,我们可以向上回退一个层级,搜索它父片区下的其他点,直到数量凑够 k 个为止。局部敏感哈希的基本思想是希望让相邻的点落入同一个“桶”,这样在进行最近邻搜索时,我们仅需要在一个桶内,或相邻几个桶内的元素中进行搜索即可。kd-tree的实现是改造的线段树。原创 2022-08-21 23:23:32 · 470 阅读 · 0 评论 -
【推荐系统中的Hash 1】Hash Trick:原始数据—>特征,尽可能避免冲突
哈希的本质是得到key。原创 2022-08-21 23:21:52 · 354 阅读 · 0 评论 -
【超长序列建模】美团CIKM‘22:《Sampling Is All You Need on Modeling Long-Term User Behaviors for CTR Prediction》
如果直接只用一个哈希函数的话,那么这样计算得到的用户兴趣表征误差肯定是非常大的。为了减小误差,作者采用了 simHash 的一个变种:(m,τ) - parameterized simHash,也就是同时采样 m 个哈希函数生成 m 个 binary 的哈希指纹,然后将每 τ 个哈希指纹串在一起视为一个新的 τ 位的哈希签名,而后用这个 τ 位的哈希签名去计算 item 间的碰撞。直接用 item 间的哈希碰撞概率来近似他们的相似度,从而避免 element-wise 的相似度计算**。...原创 2022-08-14 14:33:55 · 1228 阅读 · 3 评论 -
【超长序列建模】阿里ETA:《End-to-End User Behavior Retrieval in Click-Through Rate Prediction Model》
最自然想到的方法就是target attention,让target item与每个historical item逐一点积,这兜兜转转由回到了起点,我们就是从attention出发来的。现在找到了一个功能和target attention类似,但是复杂度低的多的方法了。一种解决方法是SimHash。SimHash的优点在于其。,SimHash后得到。...原创 2022-08-14 14:31:43 · 1261 阅读 · 0 评论 -
【冷启动】Transform Cold-Start Users into Warm via Fused Behaviors in Large-Scale Recommendation SIGIR‘22
主要有三点:(1)将冷启动用户的嵌入预热,其实就是加了一个冷启动用户embedding,(2)为了利用冷启动用户的少量行为来帮助表征用户,提出了通过Label Encoding(LE)同时建模正负反馈混合序列,类似于卷积层里有负样本。冷启动用户的user embedding刚开始是随机初始化的,为了消除初始随机初始化embedding的的影响,类似MAML的思想,用全局平均embedding来辅助。类似于图卷积中加负样本,在用户的序列行为中也考虑负反馈物品,即对用户曝光但未点击的item。...原创 2022-08-10 23:20:35 · 618 阅读 · 0 评论 -
【超长序列建模】万级别:SIM《Search-based User Interest Modeling with Lifelong Sequential Behavior Data for Click
这个时候干脆模仿起推荐系统的召回、精排方法,对序列特征再做一次“召回”和“精排”:第一阶段Genral Search Unit(GSU)通过相对粗略的搜索模式,提取行为序列中与候选 AD 较相关的节点,第二阶段Exact Search Unit(ESU)通过精准搜索的模式,得到序列与候选 AD 的关系,并形成 embedding 供 MLP 使用。因为引入的是超长的用户行为序列,用户行为间横跨较长的时间,用户行为的分布是不同的,所以给每个用户行为引入了一个时间状态属性。来表达每个行为的时间状态属性。...原创 2022-08-10 23:18:35 · 623 阅读 · 0 评论 -
【超长序列建模】千级别:MINM《Practice on Long Sequential User Behavior Modeling for Click-Through Rate Predictio
当序列行为超长时,意味着一个节点有数十万条边,这个时候一阶关系都过于稠密,更不用说利用高阶关系了。原创 2022-08-10 23:16:27 · 585 阅读 · 0 评论 -
【冷启动】快手《POSO: Personalized Cold Start Modules for Large-scale Recommender Systems》
既然需要不同用户群模型,那就以当前模型为基础,通过加权得到某个用户群的模型,再进行加权得到某个用户的模型,两次加权可以通过一个gate网络合并。显然,冷启用户的特征分布和全量用户的特征分布差别很大,但是冷启动用户样本一般占全量样本5%以下,因此模型主要受正常用户的影响。,强迫模型关注到这个特征,POSO的核心思想也类似,即对每个用户学习对应的模型,不受其他用户样本的影响,做到完全基于用户自己的个性化。,在基础的单个模型中引入个性化模块,使模型对每个用户在模型结构层面进行个性化响应,实现模型结构的个性化。..原创 2022-08-01 23:41:11 · 3086 阅读 · 1 评论 -
【多任务模型】腾讯MFH《Multi-Faceted Hierarchical Multi-Task Learning for a Large Number of Tasks
特别是task非常多的时候又有新的问题一般一个MTL模型只能处理2~6个任务,对于10~20个任务一般需要2~3个MTL模型,所以当任务数量多起来的时候1、task之间会有复杂的关系;以往的MTL都是在微观级别上创新Switcher的结构,以提高合作学习的效率,这一定程度上是因为他们的场景task少,negativetransfer没这么严重。类似FM的思想,将多棵H-MTL交叉,每棵树是一个强语义表示,像FM一样对每棵树进行“特征交叉”,自动的构造多个任务的组合,从而提高了学习的效率和质量。......原创 2022-08-01 23:37:57 · 946 阅读 · 0 评论 -
【多任务CTR】阿里ESMM:Entire Space Multi-Task Model: An Effective Approach for Estimating Post-Click Conve
pCVR=pCTCVR/pCTR,即分别训练一个CTCVR和CTR模型,然后相除得到pCVR,但是这样有一个明显的缺点是真实场景预测出来的pCTR、pCTCVR值都比较小,“除”的方式容易造成数值上的不稳定。”,想象一个场景,一个item,可能因为头图很丑,它被某个user点击的概率很低,但这个item内容本身完美符合这个user的偏好,若user点击进去,那么此item被user转化的概率极高。现在感觉解决方案已经呼之欲出了CVR是的样本是有偏的、CTR是无偏的,CTCVR样本是无偏的!......原创 2022-08-01 23:34:30 · 665 阅读 · 0 评论 -
【多任务优化】DWA、DTP、Gradnorm(CVPR 2019、ECCV 2018、 ICML 2018)
L=i∑Li显然这种做法有很大问题,因为不同task的label分布不同,同时不同task的loss量级也不同,整个模型很可能被一些loss特别大的任务主导。L=i∑wi∗LiL=i∑wi(t,θ)∗Lit是训练的step,theta是模型其他参数。但是这种做法也不一定有人工设计权重好。一些设计wi(t,θ)...原创 2022-07-25 22:47:00 · 1440 阅读 · 0 评论 -
【多任务模型】Progressive Layered Extraction: A Novel Multi-Task Learning Model for Personalized(RecSys‘20)
腾讯的视频推荐团队,建模的目标包含用户的多种不同的行为点击,分享,评论等等。score=pVTRwVTR×pVCRwVCR×pSHRwSHR×…×pCMRwCM×f(videolen)其中w是超参,表示相对重要性。原创 2022-07-25 22:44:31 · 211 阅读 · 0 评论 -
【多任务学习】Modeling Task Relationships in Multi-task Learning with Multi-gate Mixture-of-Experts KDD18
在模型层面理解,我们在单目标中经常会花费大量的精力“找强特征”和“删冗余特征”输入到模型,提高模型效果。那么切换到MTL时,每个task所需要的“强特”和排斥的“负特”是不同的,MTL的目的就是对每个task尽可能的找到他们的强特和负特。在优化层面理解,多个task同时优化模型,某些task会主导了模型的优化过程,淹没了其他task。从监督信号的角度理解,MTL不仅仅是任务,也是一种数据扩增,相当于每个task多了k-1个监督信号来辅助学习,一些特征可以从其他task学的更好。...原创 2022-07-25 22:39:45 · 385 阅读 · 0 评论 -
【RS采样】A Gain-Tuning Dynamic Negative Sampler for Recommendation (WWW 2022)
这样选出的负样本是得分靠近正样本的,可以为训练过程提供比较大的梯度,从而提供更多的信息。实验还发现,真实负样本的。的正样本集合和负样本集合,意味着每个正样本分别要对所有负样本算loss,等于所有的正样本共享了负样本信息,而不是一对一对的分别优化,效率更高,信息更多。文章提出一个基于期望增益的采样器,在训练过程中根据正负样本之间差距的期望的变化,动态指导负采样,可以识别假负样本。分析真实和虚假负样本的H和G的分布,可以看出在训练过程中H越来越高的是假负样本,真实负样本的G越来越高。用户交互过的物品集合,...原创 2022-07-21 00:23:13 · 679 阅读 · 1 评论 -
【GCN-RS】Learning Explicit User Interest Boundary for Recommendation (WWW‘22)
是一个标量,只和userembedding有关,所以对于popularitybias大的用户,s往往都很大,这个时候给他限定一个比较高的margin值,相当于设定一个动态的marginloss。在loss里可以看作是一种针对高频user的惩罚正则化。也可以看作一种debias的方法,还有一种可能,优化正样本loss。...原创 2022-07-21 00:12:21 · 231 阅读 · 0 评论 -
【GCN-RS】Region or Global? A Principle for Negative Sampling in Graph-based Recommendation (TKDE‘22)
在GCN-RS里,负采样应该选取距离user中间的区域,太近的区域一般是用户聚合的物品,太远的没什么信息量,距离不远不近的样本可以看作是信息量比较大的难样本。类似于MixUp技术,为了得到user的难负样本,不仅仅和user。远小于整个物品集,但我在数据集上统计仅仅是3-hop,绝大部分。是超参数,用于平衡用户和物品的影响。累计分数,但是如果不在中间区域的话,不计数。定义距离userk阶的物品是中间区域。越近的物品,作为负样本的概率越大。有关,还和user的正样本。中用两种策略得到难负样本。...原创 2022-07-21 00:10:55 · 688 阅读 · 0 评论 -
【GCN-RS】MCL: Mixed-Centric Loss for Collaborative Filtering (WWW‘22)
Pointwise和pairwise损失函数挖掘的信息太少了,只是采样样本,然后更新权重。是指正样本的距离比距离最小的负样本的距离减阈值还要大的样本。是指负样本的距离比距离最大的正样本的距离加阈值还要小的样本。为了从可用的偏好信息中挖掘更多的信号,考虑了难样本和全局信息。...原创 2022-07-21 00:10:03 · 322 阅读 · 0 评论 -
【多模态】《TransRec: Learning Transferable Recommendation from Mixture-of-Modality Feedback》 Arxiv‘22
通用推荐的实现是基于一个常见的推荐场景,即用户的物品交互行为由**混合模态(MoMMixture-of-modality)**的物品组成,用户交互的物品可以是文本(text)形式,视觉(vision)(图像/视频等)形式,或两种模态形式都存在。但是推荐系统在该方向发展缓慢,模型的可迁移性范围有限,通常只适用于一个公司内部的业务场景,无法实现广义上的可迁移性和通用性。文章还验证了数据对于模型的上限,越多的预训练数据对于TransRec的性能提升越大,在工业界中有源源不断的数据可以扩充。...原创 2022-07-20 23:57:51 · 396 阅读 · 0 评论 -
【GCN多模态RS】《Pre-training Representations of Multi-modal Multi-query E-commerce Search》 KDD 2022
session的划分规则是同一个用户前后2次搜索间隔不超过30分钟作为窗口来构建搜索session,文章先展示了MMsession普遍更长,甚至9%包含10个query以上,另一方面MMsession的点击次数明显少于纯文本session,说明MMsession的意图还是很复杂的,MMsession的表征学习还是很重要的。考虑的场景是多模态querysession,即一个session是文本和图像的query,目的是建模这个session的表征,从而实现CTR或者Query推荐。...原创 2022-07-20 23:55:01 · 458 阅读 · 0 评论 -
【Debias】Model-Agnostic Counterfactual Reasoning for Eliminating Popularity Bias in RS(KDD‘21)
图a是我们一般推荐模型的假设,即用户和物品的匹配程度可以反映是否会产生交互。但是事实上应该如图c所示,产生交互不仅仅和匹配程度有关,还和用户和物品本身的偏差有关物品的流行度、用户是否喜欢流行物品。...原创 2022-07-20 23:46:50 · 431 阅读 · 0 评论 -
【GCN-RS】Are Graph Augmentations Necessary? Simple Graph Contrastive Learning for RS (SIGIR‘22)
我曾经也做过实验,把这个公式的分子置为1,即不考虑扩增图结构后表征依然相似,NDCG指标反而升的更高,所以SGL的确实不太有用。因此这两个扰动可以看作在原始embedding的方向,各自伸缩了一些。然后带入对比学习loss,就可以用了。则输出-1,否则1。...原创 2022-07-20 23:44:34 · 201 阅读 · 0 评论 -
【CTR】《Towards Universal Sequence Representation Learning for Recommender Systems》 (KDD‘22)
现有方法依赖于显式的商品ID建模,存在迁移性差和冷启动的问题(即使各个推荐场景的数据格式是完全相同的)。序列推荐是根据用户点击过的item序列,学习出一个序列表征,然后根据表征预测下一个item,建模表征的模型有RNN、CNN、GNN、Transformer、MLP等。微调时把所有Transformerencoderfix(PLM的本来就是fixed的),只微调MoE那一块的参数,即利用MoE让预训练模型快速和新领域适配、融合。核心思想是利用与商品相关的文本(如商品描述、标题、品牌等)来学习可。...原创 2022-07-20 23:41:05 · 963 阅读 · 0 评论 -
【GCN-RS】Towards Representation Alignment and Uniformity in Collaborative Filtering (KDD‘22)
为了验证BPR以及其他loss在优化的过程中会优化对齐兴和均匀性,作者在不同的方法上进行了实验,随着训练过程进行,对齐和均匀性会得到相应的优化和改善。而缺乏对CF中表征的期望属性进行研究,这对于理解现有CF方法的基本原理和设计新的学习目标很重要。随机初始化后,Uniformity很好,Alignment很差,前期学习过程主要是优化Alignment,后期的性能提升主要来自于Uniformity。这也比较好理解,正样本相近是好实现的,但是在样本分布均匀的基础上实现正样本相近是需要花费effort的。...原创 2022-07-20 23:37:33 · 770 阅读 · 1 评论 -
【GCN-CTR】DC-GNN: Decoupled GNN for Improving and Accelerating Large-Scale E-commerce Retrieval WWW22
第二个子图和第三个子图得到的embedding,进行对比学习,同一个节点在两个视图的embedding是正例,不同节点是负例。,比如targetnode是user,给这个节点采样三个子图出来,每个子图出了targetnode之外,分别只包含user、query、item节点。用Taobao近7天的记录作为数据集,有三类节点user、query和item,每个节点都有丰富的节点属性设备、年龄等。然后在已有子图的基础上,和SIGN那篇一样,直接将不同阶卷积的向量拼接起来。有边连接的是正例,然后采集。...原创 2022-07-19 23:36:12 · 484 阅读 · 0 评论 -
【CTR模型系列汇总】十五篇博文、十九个模型梳理CTR预估模型(20220802更新)
一、【机器学习基础04】矩阵分解(Matrix Factorization)二、【特征交叉-CTR】FM-based Recommendation Model:FM、FFM三、【特征交叉-CTR】特征交叉:Wide & Deep、Deep & Cross Network四、【特征交叉-CTR】真伪DeepFM:DeepFM、xDeepFM五、【挖掘兴趣-CTR】YouTubeNet、DIN六、【挖掘兴趣-CTR】Deep Interest Evolution Network for原创 2022-03-21 22:16:12 · 3345 阅读 · 0 评论 -
【RS Attack and Defense系列汇总】十三篇论文解读梳理推荐系统的攻击与防御(附部分代码实现)
攻击一、【RS-Attack】攻击MF:Data Poisoning Attacks on Factorization-Based Collaborative Filtering (NIPS‘16)二、【RS-Attack】Poisoning Attacks to Graph-Based Recommender Systems (ACSAC‘18)三、【RS-Attack】Data Poisoning Attacks to Deep Learning Based Recommender Systems原创 2022-03-21 22:04:20 · 934 阅读 · 0 评论 -
【GCN-RS系列汇总】十三篇文章、十六个模型梳理图神经网络协同过滤模型(附代码实现)
整理了博客已有的GCN-RS的文章,持续更新中。一、【基础知识:DeepWalk、Node2Vector、GCN】二、【经典工作:NGCF、LightGCN、LR-GCCF】三、【多行为推荐:MBGCN】四、【多关系推荐:GHCF】五、【对比学习SGL】六、【Item-KNN + WMF = UltraGCN】七、【也是KNN算法:How Powerful GCN RS】八、【YouTubeNet、MF又一春:SimpleX】九、【GCN的难负样本:MixGCF】(附赠Simplify原创 2022-03-21 21:39:36 · 1077 阅读 · 1 评论 -
【GCN-CTR】端到端的GNN-CTR:Dual Graph enhanced Embedding Neural Network for CTR Prediction (KDD‘21)
DG-ENN: Dual Graph enhanced Embedding Neural Network for CTR Prediction (KDD’21)性能简直无敌了,线下这个收益上线岂不是xx亿的收益?代价就是虽然是个端到端的模型,但是用到了全数据集的邻接矩阵,这可以在数据集上搞,可以在工业场景用吗?就论文本身而言,我个人认为这篇文章的缺点是:我反复读这篇文章,发现根本无法实现其 “分治、field-wise” 的做法。所以我按我的理解介绍。Motivation:稀疏的特征和稀疏的交互在原创 2022-03-05 19:15:47 · 1653 阅读 · 10 评论 -
【GCN-CTR】end-to-end属实8行:阿里预训练PCF-GNN生产显式统计特征(SIGIR‘21)
PCF-GNN: Explicit Semantic Cross Feature Learning via Pre-trained Graph Neural Networks for CTR Prediction (SIGIR’21)这篇终于不是在一个样本内建feature graph的伪GNN了,自然也不再是end-to-end的了。这篇GCN-CTR的用法我个人觉得非常的巧妙、有道理,可能是因为我没有工作经验的缘故。文章提出建立一个全数据集的特征图,然后设计一个预训练任务,在特征图上学习显式语义特原创 2022-02-26 21:06:52 · 1262 阅读 · 0 评论 -
【GCN-CTR】双塔又不完全塔:Neural Graph Matching based Collaborative Filtering (SIGIR‘21)
Neural Graph Matching based Collaborative Filtering (SIGIR’21)可以理解为一个双塔模型,user的特征输入到一个塔里,item的特征输入到一个塔里,两个塔的输出做match。这里用GNN来实现塔,所以最终输出可以看作是两个Graph做match。双塔模型一般到最后特征向量级别才会做交互,这里在塔中部就做了交互,又不严格算双塔,因为这样双塔的工程优势就没了,所以这篇属于双塔但又不完全塔。文章的motivation可以用这张图解释,右图是已有的原创 2022-02-25 15:19:43 · 740 阅读 · 0 评论 -
【GCN-RS】Deep GCN with Hybrid Normalization for Accurate and Diverse Recommendation (DLP-KDD‘21)
memo-Deep Graph Convolutional Networks with Hybrid Normalization for Accurate and Diverse Recommendation (DLP-KDD’21)一句话总结这篇文章就是在LR-GCCF和LightGCN的基础上,同时结合了 left normalization (给不同的邻居分配相等的归一化,PinSAGE)和 symmetric normalization (degree大的邻居分配小权重,LightCGN)。Ab原创 2022-02-24 11:07:32 · 302 阅读 · 3 评论 -
【GCN-CTR】剪枝特征:Detecting Beneficial Feature Interactions for Recommender Systems (AAAI‘21)
Detecting Beneficial Feature Interactions for Recommender Systems (AAAI’21)这篇的motivation和method都更自然一些,就是有的地方写的不太清楚。MotivationDeepFM等一系列模型注重于挖掘高阶特征,但是这些模型只管挖不管筛。对于一个样本有 JJJ 个特征,二阶组合特征就有 J(J−1)/2J(J-1)/2J(J−1)/2 个,大量的特征组合自然也有大量无用特征,会降低模型质量和速度,所以怎么合理对特征组合进原创 2022-02-23 16:26:20 · 943 阅读 · 0 评论 -
【GCN-CTR】早期工作Fi-GNN (CIKM‘19)——懂了,要用Transformer~
早期工作Fi-GNN《Fi-GNN: Modeling Feature Interactions via Graph Neural Networks for CTR Prediction》CIKM’19类似session-base RS里的SR-GNN,是GNN最早用在CTR上的模型,所以成了经典baseline。MotivationCTR模型的输入由以下几部分组成:用户id、用户特征、用户历史行为、物品id、物品特征。由于模型输入有特征,因此简单的 LR 模型就可以实现CTR任务,但是LR只根原创 2022-02-23 16:22:16 · 738 阅读 · 0 评论 -
推荐系统常用评价指标:NDCG、Recall、Precision、Hit Rate
评价指标NDCGNormalized Discounted Cumulative Gain(归一化折损累计增益)NDCG用作排序结果的评价指标,评价排序的准确性。推荐系统通常为某用户返回一个item列表,假设列表长度为K,这时可以用NDCG@K评价该排序列表与用户真实交互列表的差距。CG (累计增益 Cumulative Gain)CGK=∑i=1KreliC G_{K}=\sum_{i=1}^{K} r e l_{i}CGK=i=1∑Kreli考虑一个长度为K的列表,relirel原创 2022-02-20 21:57:58 · 8943 阅读 · 3 评论 -
【机器学习基础04】矩阵分解(Matrix Factorization)
完成了机器学习基础的学习,笔者还分享了基于矩阵分解的CTR模型供参考矩阵分解进阶:FM、FFM矩阵分解与深度学习:DeepFM、xDeepFM矩阵分解与特征交叉:Wide & Deep、Deep & Cross Network矩阵分解(Matrix Factorization)对于数据集 D\mathcal DD ,该假设函数的基于平方误差的误差测量为:Ein ({wm},{vn})=1∑m=1M∣Dm∣∑user n rated mov原创 2022-01-21 15:23:31 · 439 阅读 · 0 评论 -
【RS-Torch】Pytorch中RS负样本计算
比如embedding维度为64,batch_size为512,负采样比例为1时一切都很简单:user_embs.shape #(512,64)pos_item_embs.shape #(512,64)neg_item_embs.shape #(512,64)pos_scores = torch.sum(torch.mul(user_emb, pos_item_emb), axis=1) #(512)neg_scores = torch.sum(torch.mul(user_emb, neg_it原创 2021-12-01 10:45:30 · 1310 阅读 · 0 评论 -
【GCN-RS-Defence】GCN-Based User Representation Learning for Unifying Robust Recommendation and Frauds
GCN-Based User Representation Learning for Unifying Robust Recommendation and Fraudster Detection (SIGIR’20)造了一个模型可以同时实现鲁棒推荐系统和欺诈检测。评分预测用GCN,欺诈检测用NRF,把两个模块塞进一个模型中,两个模块也互相扶助。模型输入模型输入除了U-I二部图以外还有用户行为数据的统计特征xu∈Rb\mathrm{x}_{u} \in \mathbb{R}^{b}xu∈Rb:模原创 2021-11-21 19:33:29 · 1213 阅读 · 2 评论 -
【RS-Defence】Detection of Shilling Attack Based on Bayesian Model and User Embedding (ICTAI‘2018)
Detection of Shilling Attack Based on Bayesian Model and User Embedding (ICTAI’2018)直接将user embedding输入到分类器,因此需要强化一下user embedding,把更多的信息加进去。三个loss训练user embedding。loss1:Matrix factorization矩阵分解正常loss,分解user-item评分矩阵RRRL=∑u∈m,i∈n(ru,i−r^u,i)+λ(∑u∥pu∥原创 2021-11-21 19:31:58 · 302 阅读 · 0 评论 -
【RS-Defence】RS Attack Detection:早期统计方法、CNN-based模型
RS Attack DetectionOld School Method (Before 2016)2016年之前Shilling Attack Detection大多是从人工设计特征,制定几个统计数据,从而区别正常用户和恶意用户。手工做好的特征输入到传统ML分类器如决策树等中,举两个例子比如:Preventing shilling attacks in online recommender systems (WIDM’05)设计两个特征DegSim和RDMA:Degree of similari原创 2021-11-21 19:30:15 · 629 阅读 · 0 评论