自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 资源 (4)
  • 收藏
  • 关注

原创 推荐系统知识梳理——GBDT&LR

1. GBDT+LR简介前面介绍的协同过滤和矩阵分解存在的劣势就是仅利用了用户与物品相互行为信息进行推荐, 忽视了用户自身特征, 物品自身特征以及上下文信息等,导致生成的结果往往会比较片面。 而这次介绍的这个模型是2014年由Facebook提出的GBDT+LR模型, 该模型利用GBDT自动进行特征筛选和组合, 进而生成新的离散特征向量, 再把该特征向量当做LR模型的输入, 来产生最后的预测结果, 该模型能够综合利用用户、物品和上下文等多种不同的特征, 生成较为全面的推荐结果, 在CTR点击率预估场景下使

2020-10-30 23:54:27 531

原创 推荐系统知识梳理——Wide&Deep

1. 点击率预估简介点击率预估是用来解决什么问题?点击率预估是对每次广告点击情况作出预测,可以输出点击或者不点击,也可以输出该次点击的概率,后者有时候也称为pClick.点击率预估模型需要做什么?通过上述点击率预估的基本概念,我们会发现其实点击率预估问题就是一个二分类的问题,在机器学习中可以使用逻辑回归作为模型的输出,其输出的就是一个概率值,我们可以将机器学习输出的这个概率值认为是某个用户点击某个广告的概率。点击率预估与推荐算法有什么不同?广告点击率预估是需要得到某个用户对某个广告的点击率,然后

2020-10-27 23:30:34 464

原创 推荐系统知识梳理——FM

1. FM模型的引入1.1 逻辑回归模型及其缺点FM模型其实是一种思路,具体的应用稍少。一般来说做推荐CTR预估时最简单的思路就是将特征做线性组合(逻辑回归LR),传入sigmoid中得到一个概率值,本质上这就是一个线性模型,因为sigmoid是单调增函数不会改变里面的线性模型的CTR预测顺序,因此逻辑回归模型效果会比较差。也就是LR的缺点有:是一个线性模型每个特征对最终输出结果独立,需要手动特征交叉(xi∗xjx_i*x_jxi​∗xj​),比较麻烦1.2 二阶交叉项的考虑及改进由于LR模

2020-10-27 21:05:52 556

原创 推荐系统知识梳理——矩阵分解

隐语义模型与矩阵分解协同过滤算法的特点就是完全没有利用到物品本身或者是用户自身的属性, 仅仅利用了用户与物品的交互信息就可以实现推荐,是一个可解释性很强, 非常直观的模型, 但是也存在一些问题, 第一个就是处理稀疏矩阵的能力比较弱, 所以为了使得协同过滤更好处理稀疏矩阵问题, 增强泛化能力, 从协同过滤中衍生出矩阵分解模型(Matrix Factorization,MF)或者叫隐语义模型, 两者差不多说的一个意思, 就是在协同过滤共现矩阵的基础上, 使用更稠密的隐向量表示用户和物品, 挖掘用户和物品的隐含

2020-10-25 22:53:55 1188

原创 推荐系统知识梳理——协同过滤

协同过滤算法协同过滤(Collaborative Filtering)推荐算法是最经典、最常用的推荐算法。所谓协同过滤, 基本思想是根据用户之前的喜好以及其他兴趣相近的用户的选择来给用户推荐物品(基于对用户历史行为数据的挖掘发现用户的喜好偏向, 并预测用户可能喜好的产品进行推荐),一般是仅仅基于用户的行为数据(评价、购买、下载等), 而不依赖于项的任何附加信息(物品自身特征)或者用户的任何附加信息(年龄, 性别等)。目前应用比较广泛的协同过滤算法是基于邻域的方法, 而这种方法主要有下面两种算法:基于

2020-10-22 23:48:14 778 1

原创 推荐系统摘要

本次是参加datawhale的打卡活动,大家有任何疑问欢迎一起讨论!之前也有写过一篇推荐系统概述文章,大家可以康康:个性化推荐算法(推荐系统)概要传统推荐系统及深度学习推荐系统的演化关系图(图来自《深度学习推荐系统》)传统推荐系统深度学习推荐系统核心内容:协同过滤算法: 包括基于用户的协同过滤(UserCF)和基于商品的协同过滤(ItemCF),这是入门推荐系统的人必看的内容,因为这些算法可以让初学者更加容易的理解推荐算法的思想。矩阵分解算法: 矩阵分解算法通过引入了隐向量的

2020-10-18 23:42:11 1058 1

原创 统计学习方法笔记(李航)———第五章(决策树)

一、特征选择特征选择的目的是筛选最有价值的特征,提高决策树的学习效率,同时避免无价值的特征导致模型过于复杂。这是决策树模型的理论基础,涉及信息论的一些基本内容,书中一笔带过。为了加深理解,我把书中的内容补充完整,把一些结论的证明、推导过程全部展示出来。(一)信息论初步1.边缘熵在信息论中,熵(entropy)是随机变量不确定性的度量,不确定性越高,熵值越大。设 X\mathrm{X}X 是离散型随机变量(有限个),其概率分布为 P(X=xi)=pi,i=1,2,…,nP\left(X=x_{i}\

2020-10-06 22:51:26 641

原创 Transformer介绍

原文链接:https://papers.nips.cc/paper/7181-attention-is-all-you-need.pdf首先介绍一下Encoder-Decoder所谓encoder-decoder模型,又叫做编码-解码模型。这是一种应用于seq2seq问题的模型。那么seq2seq又是什么呢?简单的说,就是根据一个输入序列x,来生成另一个输出序列y。seq2seq有很多的应用,例如翻译,文档摘取,问答系统等等。在翻译中,输入序列是待翻译的文本,输出序列是翻译后的文本;在问答系统中,输入

2020-10-01 16:30:23 772

太原理工大学2018级算法实验报告.zip

包含每个实验详解以及思考问题答案!

2020-05-05

线性代数

线性代数 试题答案

2020-04-03

DeepFM.pdf

DeepFM

2020-04-03

2018年12月中国主要城市地铁客运量统计 (1).pdf

2018年12月中国主要城市地铁客运量统计 (1).

2020-04-03

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除