RankNet
RankNet 论文的笔记。原文:
Learning to rank using gradient descent.
模型
- 特征 xi∈ℝd
- 模型函数: f:ℝd→ℝ
若 f(xi)>f(xj) 则表示模型预测 i 排在 j 前面: xi▹xj 。
后验概率
Pij=P(xi▹xj)
用如下形式:
损失函数使用交叉熵的形式,并根据上面的定义变形为:
其中根据样本中两个 item 排序的在前、在后和同序关系,目标取值为:
关于假设合理性的讨论
论文中已经证明上述模型假设的一致性、传递性。由于
oik=oi−oj+(oj−ok)=oij+ojk
,则容易得到:
自洽性
上式满足 0<Pij<1 .传递性:
在概率等于 p∈{0,0,5,1} 的时候,等号具有传递性:
P(A▹B)=p,P(B▹C)=p,⇒P(A▹C)=PP<0.5 时,小于号传递性:
P(A▹B)=p,P(B▹C)=p,⇒P(A▹C)<P0.5<P<1 时,大于号传递性:
P(A▹B)=p,P(B▹C)=p,⇒P(A▹C)>P以上的传递不限于两步,经过多步仍然满足。
优模型化
oi
的取值使用神经网络模型
其中 g3,g2,w32,w21,b2,b3 分别为第三、第二层激活函数,第三、第二层的权重、第二、第三层偏置。
定义一个 pair 样本的损失为
l(o2−o1)
(论文中用
f
表示,这里换成
所有参数都可以根据上面的梯度,用梯度下降法来优化。