个推教程--第八课--基于深度学习的排序模型wide and deep

基础的神经网络知识就跳过了

DNN只在基础特征上下点功夫,复杂特征学习交给NN即可,只是可解释性会差些,但效果很不错啊

k是t-1层神经元的个数,j为t层神经元的个数,a =f(z),简单地说,t层的一个神经元就是t-1层神经元通过特征权重w和偏置量b确定的。这就是前向传播。激活函数f的作用就是把线性表达转换为非线性,增强模型表达能力,不然再多的隐层作用跟一层没有任何区别。

wide侧的特征如下

1、对于离散型特征,进行hash

2、对于连续型特征,离散化,以及再作交叉的特征

deep侧的特征

1、离散型特征:hash值的embedding

2、连续性特征:直接输入

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值