其实在19年初的时候大概看了一下这篇论文,但当时其实理解的并不深,今天再读的时候发现这里边其实包含了很多东西,不仅是学术性的目标函数优化,也包括工程性的取舍和特征的构造。
本文分为两部分,第一部分主要介绍论文,第二部分谈从中的收获和启发,如果你对论文比较熟悉的话可以直接阅读第二部分。
第一部分
引言
Airbnb于2018年提出了论文《Real-time Personalization using Embeddings for Search Ranking at Airbnb》,可谓是Embedding技术在工程实践中的一次大的进步,虽然论文已经发表两年了,但每次读都会有不一样的收获,作为深度学习的「核心操作」之一,Embedding技术不仅能够将大量的稀疏特征转换成稠密特征,便于输入深度学习网络,而且能够通过Embedding将物品语义进行编码,用来计算物品的相似度,进度i2i(item to item)的推荐。
论文主要提出的是item的Embedding算法和优化方案,基于不同类型和时间窗口的房源序列构建Embedding,以致于能够捕获用户的短期(short-term)和长期(long-term)兴趣偏好。其本质是改造Word2vec的优化目标函数,使用的是其中Skip-gram模型(另一种是词袋模型,bag-of-word)
背景
Airbnb是一个在线约定房源的网站,主要是给用户提供不同地点的房源列表(需要注意的是在论文中房源使用的是「list」进行表示,可能国内朋友阅读的时候会有点出戏),如下所示,在搜索某个地点的房源之后,展示列表为:
在点击某个具体的房源之后,也会有相似房源推荐,如下所示:
上述的两个部分,其实也是Airbnb进行论文中Embedding评估的业务场景。
基于用户短期兴趣的房源Embedding构建方法
文章中提到使用8亿的搜索点击房源session作为训练集构建房源的embedding(当然足够大的数据集构造出的Embedding也更加准确,表达信息也更加准确)。
目标函数的进化
定义 S S S为 N N N个用户的 S S S个click sessions,每个session为: s = ( l 1 , . . . , l M ) ∈ S s = (l_1, ..., l_M) \in S s=(l1,...,lM)∈S,论文中特意提到如果一个用户的两次点击之间超过30分钟这进行session的截断,最后为每个房源(list)生成一个 d d d维的embedding向量,$ v_{l_i} \in R^d$,这里使用word2vec中的skip-gram,最大化目标函数为:
L = ∑ s ∈ S ∑ l i ∈ s ( ∑ − m ≥ j ≤ m , i ≠ 0 l o g P ( l i + j ∣ l i ) ) L = \sum_{s \in S} \sum_{l_i \in s} ( \sum_{ -m \geq j \leq m, i \neq 0} log \, P(l_{i+j} | l_i)) L=s∈S∑li∈s∑(−m≥j≤m,i=0∑logP(li+j∣li))
其中
P
(
l
i
+
j
∣
l
i
)
P(l_{i+j} | l_i)
P(li+j∣li) 可以通过softmax来进行定义和求解:
P
(
l
i
+
j
∣
l
i
)
=
e
x
p
(
v
l
i
T
v
l
i
+
j
′
)
∑
l
=
1
∣
V
∣
e
x
p
(
v
l
i
T
v
l
′
)
P(l_{i+j} | l_i) = \frac {exp(v_{l_i}^T v_{l_{i+j}}')}{ \sum_{l=1}^{|V|} exp(v_{l_i}^T v_{l}')}
P(li+j∣li)=∑l=1∣V∣exp(vliTvl′)exp(vliTvli+j′)
其中 v l v_l vl 表示的是房源 l l l 的输入向量, v l ′ v_l' vl′ 表示的是房源 l l l的输出向量表示, m m m 表示的上下文滑动的窗口大小, V V V 表示的是所有房源的集合。
在实际的计算中由于 V V V 很大,基于整体数据的负样本进行训练,在有限的计算资源下,将会消耗很多的资源和计算时间,因此会进行一定程度的负采样。
这里使用
D
p
D_p
Dp 表示正样本对
(
l
,
c
)
(l, c)
(l,c),即房源
l
l
l和其上下窗口内的房源
c
c
c,
D
n
D_n
Dn 表示负样本对
(
l
,
c
)
(l, c)
(l,c),负样本从整个房源集合中进行抽取。增加随机负采样后,优化的目标函数变为:
a
r
g
m
a
x
θ
∑
(
l
,
c
)
∈
D
p
l
o
g
1
1
+
e
−
v
c
′
v
l
+
∑
(
l
,
c
)
∈
D
n
l
o
g
1
1
+
e
v
c
′
v
l
\underset{\theta}{ arg \, max } \sum_{(l,c) \in D_p} log \frac{1}{1+e^{-v_c' v_l}} + \sum_{(l,c) \in D_n} log \frac{1}{1+e^{v_c' v_l}}
θargmax(l,c)∈Dp∑log1+e−vc′vl1+(l,c)∈Dn∑log1+evc′vl1
求解参数 θ \theta θ 可以使用随机梯度上升法(stochastic gradient ascent)。
用户的行为序列其实分为两类:
- 经过一系列点击之后有预定房源的行为
- 经过一系列点击之后没有预定房源的行为
用户短期内预定房源的行为其实在一定程度上和之前的搜索点击行为都有强相关的关系,因此将预定房源的行为作为一个全局的动作加入到每个session中,则需要优化的目标函数转变为:
a
r
g
m
a
x
θ
∑
(
l
,
c
)
∈
D
p
l
o
g
1
1
+
e
−
v
c
′
v
l
+
∑
(
l
,
c
)
∈
D
n
l
o
g
1
1
+
e
v
c
′
v
l
+
l
o
g
1
1
+
e
−
v
l
b
′
v
l
\underset{\theta}{ arg \, max } \sum_{(l,c) \in D_p} log \frac{1}{1+e^{-v_c' v_l}} + \sum_{(l,c) \in D_n} log \frac{1}{1+e^{v_c' v_l}} + log \frac{1}{1+e ^{- v'_{l_b} v_l}}
θargmax(l,c)∈Dp∑log1+e−vc′vl1+(l,c)∈Dn∑log1+evc′vl1+log1+e−vlb′vl1
其中
v
l
b
v_{l_b}
vlb 表示预定的房源embedding表示,下图展示了预定房源的行为是如何加入到一个session中的。
用户在进行搜索房源的时候往往是集中在一个地点的,因此正样本
D
p
D_p
Dp 很大概率上是同一地点附近的房源,但是负采样的样本
D
n
D_n
Dn 则是基于全局进行采样的,即负样本不一定出现在同一个地方,这会造成在学习同一地点附近房源embedding时的平衡性,因此在目标函数中加入了同一市场的负采样,如下所示:
a
r
g
m
a
x
θ
∑
(
l
,
c
)
∈
D
p
l
o
g
1
1
+
e
−
v
c
′
v
l
+
∑
(
l
,
c
)
∈
D
n
l
o
g
1
1
+
e
v
c
′
v
l
+
l
o
g
1
1
+
e
−
v
l
b
′
v
l
+
∑
(
l
,
m
n
)
∈
D
m
n
l
o
g
1
1
+
e
v
m
n
′
v
l
\underset{\theta}{ arg \, max } \sum_{(l,c) \in D_p} log \frac{1}{1+e^{-v_c' v_l}} + \sum_{(l,c) \in D_n} log \frac{1}{1+e^{v_c' v_l}} + log \frac{1}{1+e ^{- v'_{l_b} v_l}} + \sum_{(l, m_n) \in D_{mn}} log \frac{1}{ 1+ e^{v'_{m_n}v_l} }
θargmax(l,c)∈Dp∑log1+e−vc′vl1+(l,c)∈Dn∑log1+evc′vl1+log1+e−vlb′vl1+(l,mn)∈Dmn∑log1+evmn′vl1
房源Embedding中的冷启动问题
Airbnb每天都有新上的房源,但是因为其没有出现在训练集中,导致无法产出其embedding,这里采用的解决办法是最相近的三个房源的平均embedding进行表示
衡量房源的相近程度可以采用位置、价格、房源类型等,且要求距离在10英里内。
这里可以带给我们很多思考,不仅对于新物品,同样对于新用户,依旧可以采用其属性相近的n个用户的平均embedding作为其embedding表示
房源Embedding 实验
8亿的搜索点击房源session作为训练集构建房源的embedding,每个房源Embedding的维度为32(后文也提到了32维实验效果比较好,而且节省存储空间)。在进行数据构造时,移除了用户停留时间小于30秒的房源,保留了房源出现次数大于等于2的。
1、通过K-Means对房源Embedding进行聚类,对于房源的重新定价很有参考意义
2、评估了洛杉矶附近不同类型房源的Embedding相似度(Table 1)和不同价格区间房源的Embedding相似度(Table 2),从实验结果中可以看出相同类型或者相同价格范围内的房源平均相似度要明显高于不同类型或者不同价格范围的房源平均相似度,因此说明emedding是有效的
3、对于房源的一些属性信息可以从元数据中获得,但是一些信息并不能从元数据中获得,比如风格、带给人的感觉等,因此开发了一个相似度探索工具(Figure 4)进行离线的观察和评估(更多关于相似度探索工具的功能参考:https://youtu.be/1kJSAG91TrI)
基于用户长期兴趣的房源Embedding构建方法
上文中介绍了如何基于用户短期兴趣的房源Embedding构造方法,但是因为Airbnb平台业务的特殊性,用户旅行地不是唯一的,因此提出了基于用户长期兴趣的房源Embedding构造方法:基于用户预定房源的序列进行Embedding的构造。但是有几方面的挑战:
- 1、预定数据相对点击数据要稀疏的多
- 2、很多用户在过去时间段内只有一个预定
- 3、如果要学习list(房源)的embedding,至少需要该房源出现5-10次,但是通过预定构建的数据集很多都小于5-10次
- 4、用户的两次预定之间相差时间较长,这期间用户的兴趣会发生变化
用户类型和房源类型的定义
为了解决上边提到的问题,这里使用学习房源的类型embedding来代替房源的embedding,使用学习用户类型embedding来代替用户的embedding。
如下图所示,比如美国的一个房源,其属性为:
- listing type:entire home
- per night:$60.8
- per guest:$29.3
- number reviews:5
- list 5 star%:全部是5 star
- capacity:2 person
- num beds:1
- bedroom:1
- bathroom:1
- new guest accept:100%
那么其类型可以表示为: U S _ l t 1 _ p n 3 _ p g 3 _ r 3 _ 5 s 4 _ c 2 _ b 1 _ b d 2 _ b t 2 _ n u 3 US{\_lt1\_pn3\_pg_3\_r_3\_5s_4\_c_2\_b_1\_bd_2\_bt_2\_nu_3} US_lt1_pn3_pg3_r3_5s4_c2_b1_bd2_bt2_nu3。
同样对于一个用户,气属性为:
- market:San Franciso
- Language:English
- Device Type:MacBook laptop
- Full Profile:full profile
- Profile Photo:user photo
- − − − − − − − − − − − − − − − − − − − − − − − − − − − − − − − − -------------------------------- −−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
- Number Bookings:0
- Per night:$52.52
- Per Guest:$31.85
- capacity:2.33
- num reviews:8.24
- listing 5 star%:76.1%
- guest 5 star%:83.4%
那么其类型可以表示为: S F _ l g 1 _ d t 1 _ f p 1 _ p p 1 _ n b 1 _ p p n 2 _ p p g 3 _ c 2 _ n r 3 _ l 5 s 3 _ g 5 s 3 SF{\_lg_1\_dt_1\_fp_1\_pp_1\_nb_1\_ppn_2\_ppg_3\_c_2\_nr_3\_l5s_3\_g5s_3} SF_lg1_dt1_fp1_pp1_nb1_ppn2_ppg3_c2_nr3_l5s3_g5s3
注意的是,对于第一次预定的新用户,使用表中的前5行进行用户类型的定义,这在一定程度上可以缓解用户冷启动问题
目标函数
S b S_b Sb 包含了 N b N_b Nb 个预定序列,涉及了 N N N个用户,每个session可以表示为: s b = ( u t y p e 1 l t y p e 1 , . . . , u t y p e M l t y p e M ) s_b = (u_{type1}l_{type1}, ..., u_{typeM}l_{typeM}) sb=(utype1ltype1,...,utypeMltypeM),这里需要注意的是,用户在预定房源时,其属性是变化的,因此同一用户的不同房源预定应该根据实际情况进行不同类型的划分。
定义的目标函数和上述一致,但是这里需要更新的中心不是固定的,可能是房源也可能是用户类型,因为在论文中进行处理时将其进行了展开,用户类型和房源类型是等价的。如下图5(a)所示。
如果更新的中心是用户类型,目标函数为:
a r g m a x θ ∑ ( u t , c ) ∈ D b o o k l o g 1 1 + e − v c ′ v u t + ∑ ( u t , c ) ∈ D n l o g 1 1 + e v c ′ v u t \underset{\theta}{ arg \, max } \sum_{(u_t,c) \in D_{book}} log \frac{1}{1+e^{-v_c' v_{u_t}}} + \sum_{(u_t,c) \in D_n} log \frac{1}{1+e^{v_c' v_{u_t}}} θargmax(ut,c)∈Dbook∑log1+e−vc′vut1+(ut,c)∈Dn∑log1+evc′vut1
如果更新的中心是房源类型,目标函数为:
a
r
g
m
a
x
θ
∑
(
l
t
,
c
)
∈
D
b
o
o
k
l
o
g
1
1
+
e
−
v
c
′
v
l
t
+
∑
(
l
t
,
c
)
∈
D
n
l
o
g
1
1
+
e
v
c
′
v
l
t
\underset{\theta}{ arg \, max } \sum_{(l_t,c) \in D_{book}} log \frac{1}{1+e^{-v_c' v_{l_t}}} + \sum_{(l_t,c) \in D_n} log \frac{1}{1+e^{v_c' v_{l_t}}}
θargmax(lt,c)∈Dbook∑log1+e−vc′vlt1+(lt,c)∈Dn∑log1+evc′vlt1
但是用户进行房源预定时,房主也可以根据用户的情况进行拒绝,因此在目标函数上增加了被拒绝的优化项,其对应的图示如上图中的(b)所示,其目标函数如下所示:
如果更新的中心是用户类型:
a
r
g
m
a
x
θ
∑
(
u
t
,
c
)
∈
D
b
o
o
k
l
o
g
1
1
+
e
−
v
c
′
v
u
t
+
∑
(
u
t
,
c
)
∈
D
n
l
o
g
1
1
+
e
v
c
′
v
u
t
+
∑
(
u
t
,
l
t
)
∈
D
r
e
j
e
c
t
l
o
g
1
1
+
e
v
u
t
′
v
l
t
\underset{\theta}{ arg \, max } \sum_{(u_t,c) \in D_{book}} log \frac{1}{1+e^{-v_c' v_{u_t}}} + \sum_{(u_t,c) \in D_n} log \frac{1}{1+e^{v_c' v_{u_t}}} + \sum_{(u_t,l_t) \in D_{reject}} log \frac{1}{1+e^{v_{u_t}' v_{l_t}}}
θargmax(ut,c)∈Dbook∑log1+e−vc′vut1+(ut,c)∈Dn∑log1+evc′vut1+(ut,lt)∈Dreject∑log1+evut′vlt1
如果更新的中心是房源类型:
a
r
g
m
a
x
θ
∑
(
l
t
,
c
)
∈
D
b
o
o
k
l
o
g
1
1
+
e
−
v
c
′
v
l
t
+
∑
(
l
t
,
c
)
∈
D
n
l
o
g
1
1
+
e
v
c
′
v
l
t
+
∑
(
u
t
,
l
t
)
∈
D
r
e
j
e
c
t
l
o
g
1
1
+
e
v
u
t
′
v
l
t
\underset{\theta}{ arg \, max } \sum_{(l_t,c) \in D_{book}} log \frac{1}{1+e^{-v_c' v_{l_t}}} + \sum_{(l_t,c) \in D_n} log \frac{1}{1+e^{v_c' v_{l_t}}} + \sum_{(u_t,l_t) \in D_{reject}} log \frac{1}{1+e^{v_{u_t}' v_{l_t}}}
θargmax(lt,c)∈Dbook∑log1+e−vc′vlt1+(lt,c)∈Dn∑log1+evc′vlt1+(ut,lt)∈Dreject∑log1+evut′vlt1
因为进行session构建时,将用户类型和房源类型进行了展开,将其embedding映射到同一空间内,因此可以通过计算用户类型和房源类型的embedding余弦相似度进行候选池的召回,如下图所示。
在构造预定房源的session时,因为预定房源的行为较少,因此对此进行了加强,采用了过采样(重复正样本的比例,与之对应的是欠采样)的技术,比例为5倍,关于过采样和欠采样会对模型产生怎么样的影响可以参考:https://www.zhihu.com/question/269698662
实验
- 基于用户短期兴趣进行房源Embedding的构造:8亿的搜索点击房源session作为训练集构建房源的embedding,每个房源Embedding的维度为32(后文也提到了32维实验效果比较好,而且节省存储空间)。在进行数据构造时,移除了用户停留时间小于30秒的房源,保留了房源出现次数大于等于2的。
- 基于用户长期兴趣进行房源Embedding的构造:使用5千万用户的预定数据进行预定sesssion的构建,同时对正样本进行了5倍的过采样。
- 实验表明每天重新对房源进行embedding学习要比增量训练效果好
- 试验参数:embedding维度32,滑动窗口为5,迭代次数为10
- 训练平台:C版本的word2vec,基于MapReduce进行训练,300个mappers 1个reduce,给予AirFlow进行pipline的构建
离线评估方法
获取用户最近点击的房源列表和需要进行排序的候选池房源,其中候选池中必定包含用户最终预定的房源,分别计算候选池中房源和用户第 i i i次点击的房源相似度进行排序,观察预定房源在其中的位置信息,最终结果如下图所示:
图中不同颜色的线分别对应不同的优化目标函数,可以看出增加预定房源信息和负采样的效果最好。
在线实验中,也通过AB测试验证了效果是要比base组提升很多。
如何实时使用Embedding数据
论文中得到了房源的embedding、用户类型embedding、房源类型embedding,但Airbnb并没有直接拿embedding作为特征进行使用,而是进行了转化和构造。其排序模型为GBDT(https://github.com/yarny/gbdt),评估指标为:NDCG,训练集和测试集的比例为:8:2。
其构造的特征为:
其中字符表示的含义为:
比如其中EmbClickSim特征的计算方式为(同类型的计算方式类似):
E
m
b
C
l
i
c
k
S
i
m
(
l
i
,
H
c
)
=
m
a
x
c
o
s
m
∈
M
(
v
l
i
,
∑
l
h
∈
m
,
l
h
∈
H
c
v
l
h
)
EmbClickSim(l_i, H_c) = \underset{ m \in M }{ max \, cos } (v_{l_i}, \sum_{l_h \in m, l_h \in H_c} v_{l_h})
EmbClickSim(li,Hc)=m∈Mmaxcos(vli,lh∈m,lh∈Hc∑vlh)
EmbLastLongClickSim特征计算方式为:
E
m
b
L
a
s
t
L
o
n
g
C
l
i
c
k
S
i
m
(
l
i
,
H
l
c
)
=
c
o
s
(
v
l
i
,
v
l
l
a
s
t
)
EmbLastLongClickSim(l_i, H_{l_c}) = cos(v_{l_i}, v_{l_{last}})
EmbLastLongClickSim(li,Hlc)=cos(vli,vllast)
UserTypeListingTypeSim特征计算方式为:
U
s
e
r
T
y
p
e
L
i
s
t
i
n
g
T
y
p
e
S
i
m
(
u
t
,
l
t
)
=
c
o
s
(
v
u
t
,
v
l
t
)
UserTypeListingTypeSim(u_t, l_t) = cos(v_{u_t}, v_{l_t})
UserTypeListingTypeSim(ut,lt)=cos(vut,vlt)
针对特征的实验如下图所示:
- 上图中左侧部分,可以看出EmbClickSim越大,推荐的列表得分越高
- 上图中中间部分,可以看出EmbSkipSim越大,推荐的列表得分越高
- 右图部分,可以看出当UserTyle和ListingType越相似时,推荐的列表得分越高
下图展示了增加Embedding构造的相关特征和不增加这些特征的AB实验数据。
启发:
1、通过对传统的Word2vec算法进行改造,完成对用户和房源的Embedding,并针对数据稀疏性问题,利用用户和房源的属性进行数据的聚合,这些思路值得借鉴,不仅针对老用户,在新用户冷启动的处理上也有一定的借鉴意义
2、在生成Embedding目标函数的过程中,引入与业务强相关的目标项,使算法改造与公司业务和商业目标强结合,值得学术导向的算法工程师的学习。
第二部分
其实如果没有太多的实际经验,在论文中收获的东西可能是有限的,如果在阅读论文的过程中能够结合实际的业务经验,你对发现其实其中有很多能够带来启发的点,或许一些点你已经在实际中进行了应用,而且取得了不错的效果,但还是有一些点值得思考和借鉴的,下面将陈列我在读论文的过程中的收获(包含曾经知道的和已经使用的),希望你也能感同身受,颇受启发。
下面的点按照阅读论文过程中看到的进行陈列,无须在乎其先后
关于业务的评估指标
其实在做模型的过程中,会涉及很多指标可以参考,不仅有离线指标,还有在线指标或者公司的KPI目标等。
离线指标随着定义模型的类型不同也有所区分,比如分类模型的准确率、召回率、精确率、AUC、NDCG等(具体可以参考:最全面的推荐系统评估方法介绍),回归模型中的MSE、MAE、RMSE等,在线指标比如点击率、阅读率、留存率、转化率等,公司的KPI指标比如GMV、下单率、用户时长等。
但这些评估指标并不是通用的,不同的平台其注重的指标不一样,即使同一平台不同的业务模块注重的指标也不一样,再使同一平台,统一业务模块不同时间点的注重指标也会不一样,因为会随着公司战略的调整而变化。
那么看到文章的你有什么想法呢?或者你怎么认为评估指标的变化和转移呢?欢迎在评论区留言进行沟通
关于业务的负反馈使用
负反馈在推荐系统中的使用方式很多,比如可以通过负反馈进行构架模型(负反馈模型),通过负反馈进行展示过滤,通过负反馈收集用户意见,通过负反馈构建特征供排序模型使用等。
关于负采样
在实际的业务场景中,负样本的比例是明显高于正样本的,我们没有办法直接对所有的正样本和负样本进行模型,因此需要进行采样,其中的负样本采样就变得格外重要,首先是明确负样本的比例,其次是负样本的采样方法,随机负采样?基于用户?而且召回模型和排序模型的负样本采样技术还有有所不同的。
之前专门写过一篇C文章介绍CTR预估中的正负样本问题,可以参考:CTR预估模型中的正负样本问题
提问:召回模型和CTR排序模型的正负样本构建有什么区别?
关于冷启动物品的Embedding表示方法
对于冷启动的房源或者用户,可以使用最近邻的几个用户的embedding 平均值表示。
关于Embedding的效果评估
论文中提出的Embedding效果评估方法很值得借鉴和学习,在日常的工作中其实很痛苦的就是Embedding的评估,但是论文中的这种方法在整理数据时会比较耗费时间,因此如何能够搭建一套有效的Embedding效果评估方案就变得比较重要。
另外一种评估方法就是直接上线进行AB实验,但这种方法周期会比较长,不利于模型的迭代和更新。
那么你认为如何进行Embedding的效果评估?
基于Embedding的特征构造
其实我们大多数时间都是直接使用的item的embedding表示作为特征,但文中创造性的提出的特征构造方式很值得大家借鉴和学习,个人猜测Airbnb这样做的原因也是因为担心直接使用Embedding特征会对其他特征造成影响。
OK,至此该篇论文的分享已经完成,如果你觉得不错,请点赞支持,谢谢!
扫一扫关注「搜索与推荐Wiki」!号主「专注于搜索和推荐系统,以系列分享为主,持续打造精品内容!」