- 博客(9)
- 收藏
- 关注
原创 Latex公式编辑
对常用latex公式编辑做一个备忘录大括号x={ab×yc×zx =\left\{\begin{aligned} ab & \times y \\ c & \times z\end{aligned}\right.x={abc×y×z$$x =\left\{\begin{aligned} ab & \times y \\ c &...
2019-04-23 20:07:34 537
原创 推荐系统笔记二 Personal rank算法
Graph-based推荐传统做法是构建二元图(bipartite),分为user和item两个node集合,user-item的interaction构建两个集合之间的连线,见下图,其中圆框是三个user,方形框是四个item。该方法在2005年前较流行,现在学术界更流行的方法是Graph Convolutional Network(GCN)。推荐采用personal rank算法,或...
2019-04-23 19:55:41 1201
原创 推荐系统论文阅读 Why Does Collaborative Filtering Work?
这篇是一篇比较早的利用图来研究推荐系统的文章(2005):Why Does Collaborative Filtering Work? — Recommendation Model Validation and Selection by Analyzing Bipartite Random Graphs作者利用二元图(bipartite)方法来对一个数据集做一个量化的评价,希望能够通过二元图拓扑...
2019-04-22 15:53:16 170
原创 讲座笔记 Federated GBDT
新加坡国立大学Bingsheng He老师的讲座,主要内容是如何更好构建GPU架构来加速训练ML模型以及最近对联邦学习的一些探索。现在联邦学习中保护用户隐私的算法主要是两类:一类是HE,但计算效率很低,另一类是DP,但会对模型准确率造成影响。很自然的引出一个问题,是否能换一种方法,既能够保证计算效率,又不损害模型准确率?因此他们想到可以利用LSH,将数据映射到buckets中,对一个bucket...
2019-04-14 13:17:37 624
原创 元学习 meta-learning
总结一下元学习的概念meta-learning主要是为了解决冷启动或者数据很少的情况,它的想法是学习到任务空间中的一个最优点,这个点与所有任务的最优解是最近的,也就是说学习到一个更好的泛化模型。本质上来说,meta-learning学习的其实是模型参数的一个最优初始化参数。MAML下面这幅图比较形象地说明了MAML学习的过程:θ{\theta}θ代表一个任务模型的参数矩阵,比如说CNN的...
2019-04-04 10:29:28 1245
原创 联邦学习论文阅读:Federated collaborative filtering
今年一月刚挂上arXiv的一篇联邦推荐文章Federated collaborative filtering for privacy-preserving personalized recommendation system。摘要作者将一个隐形反馈的CF模型修改成了联邦学习的框架,隐私性用Fed-Avg算法保证。总的来说,没什么创新。问题在保护用户隐私的情况下利用隐性反馈进行推荐框架...
2019-04-02 15:02:25 3393 9
原创 联邦学习论文阅读:Federated meta-learning for recommendation
2018年fb的文章Federated meta-learning for recommendation的阅读笔记
2019-04-01 11:27:49 4537 7
原创 联邦学习
历史联邦学习的概念最早由google于17年提出[1],他们构建了一个横向联邦模型用于提升用户下一步输入预测的准确性。解决的问题数据隔离少标签数据传输过程隐私安全分类横向联邦模型:用户特征一致,用户不一致纵向联邦模型:用户一致,用户特征不一致联邦迁移学习:用户,用户特征均不一致安全和隐私安全性通过同态加密HE和secret sharing解决隐私性通过查分隐私D...
2019-04-01 10:29:57 5595 5
原创 推荐系统论文阅读:Entire Space Multi-Task Model
阿里18年的论文Entire Space Multi-Task Model: An Effective Approach for Estimating Post-Click Conversion Rate.code已经开源:代码
2019-04-01 10:09:57 769
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人