- 特征自动抽取。减少手动特征构建工作量,减少对专家知识的依赖。例如bert可以学到文本的语义和语法;CNN可以自动学习图像特征。
- 离散和连续特征都能处理。可以加入很多id类特征、类别特征等。对离散特征做embedding后,可以通过数据学到离散特征的语义向量,能表示离散特征的相对关系等,例如女装和男装的距离要小于女装和自行车的距离。而树模型对离散特征,基本只能按one-hot处理,无法表示离散特征的相对关系。
- 特征交叉。二阶交叉FM、高阶交叉DNN、指定阶交叉CIN等。bit-wise的交叉,vector-wise的交叉,
神经网络相对树模型等有何优势?
最新推荐文章于 2022-09-02 12:03:53 发布