自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

原创 深度学习推荐系统论文汇总

AutoRec AutoRec: AutoRec: Autoencoders Meet Collaborative Filtering。 Deep Crossing Deep Crossing: Deep Crossing: Web-Scale Modeling without Manually Crafted Combinatorial Features。 NeuralCF NeuralCF: Neural Collaborative Filtering。 PNN PNN: Product-based N

2020-08-08 19:27:00 808

原创 word2vec资料汇总

论文阅读 word2vec是基于单词的上下文语境学习单词的词向量表示的一种技术,相比于one-hot编码高维、稀疏的特点,word2vec可以学习到低维、连续的词向量表示,同时编码的词向量可以很好的度量单词的语义相似性。相关论文可以参考:Efficient Estimation of Word Representations in Vector Space 。 模型解析 为了学习单词分布式的词向量表示,word2vec提出了两种模型CBOW和Skip-gram,其中CBOW是基于单词的上下文单词预测中心单词

2020-07-11 17:11:44 245

原创 graph embedding资料汇总

论文阅读 图嵌入(graph embedding)算法的目标是将图中每个顶点映射到一个高维的连续空间中,使得原来图中近邻的顶点或者相同结构的顶点投影到高维空间后,保持近邻关系不变。比价经典的论文有:depwalk 和 node2vec。 模型解析 deepwalk基于随机游走算法产生节点序列,然后调用word2vec算法学习每个节点的embedding,而node2vec在采样节点序列时同时考虑节点的近邻关系和节点的结构相似关系,利用广度优先和深度优先算法产生节点序列,然后调用word2vec算法学习每个节

2020-07-04 19:21:46 245

原创 bert资料汇总

论文阅读 bert是google提出的一种基于transformer的深度语言模型,其最大的特点一是使用transformer作为特征提取器,替换了之前的RNN;二是双向编码的深度模型。了解该模型最直接的方式就是阅读论文原文:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding。 模型解析 bert模型是一种基于transformer多层堆砌的深度语言模型,其深度可以达到L = 24 层。相较于之前深

2020-06-25 18:52:33 238

原创 transformer资料汇总

1.论文阅读 2.模型解析 3.模型实战 4.源码阅读

2020-06-13 15:14:40 542

原创 因子分解机公式推导(Factorization Machine)

基本定义 在逻辑回归的分类公式中,传入给sigmoid函数的参数是特征的线性组合,计算如公式1所示。该公式的不足之处是没有考虑特征间的相互作用,而特征的相互作用(即特征交叉)是很重要的,例如在CTR预估场景,性别和购买行为就有很强的关联性,女性更愿意购买化妆品,而男性更愿意购买运动产品。为了考虑特征的相互作用,因子分解机(Factorization Machine,简称FM)显示地对两两特征交叉进...

2019-12-07 19:37:55 720 1

原创 逻辑回归公式推导(Logistic Regression)

逻辑回归

2019-11-30 21:22:40 1701

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除