论文链接
Learning Piece-wise Linear Models from Large Scale Data for Ad Click Prediction
首先介绍了传统的解决方案和局限性
(1)LR不能捕捉非线性
(2)GBDT+LR虽然能够产生非线性特征组合,但是树模型不适用于超高维稀疏数据
(3)FM利用二阶信息来产生变量之间的相关性,但是无法适应多阶模式
LS-PLM采用divide-and-conquer策略,将特征空间分割成若干个子区域,在每个区域采用线性模型,最后用weighted linear predictions组合结果
LS-PLM存在三个优势:Nonlinearity(源于子区域的划分)、Scalability(与LR相似,可并行)、Sparsity(用L1和L2)
论文基于directional derivatives(方向导数)和quasi-Newton(拟牛顿)方法来解决因为正则项使得目标函数非凸的问题。
用softmax函数作为dividing function以及sigmoid函数作为fitting function
其中part1 dividing function将特征空间分割成m歌不同的区域,而part 2对每个区域做预测
损失函数logloss
如何优化?
因为目标函数的负梯度方向并不存在,所以用能够得到f最小的方向导数的方向b作为负梯度的近似值。
论文给了两个定理:
(1)目标函数由smooth loss function with L1 and L2,1 norm,对于任意的参数空间和方向d,其方向导数 f′(Θ;d)