基础的神经网络知识就跳过了
DNN只在基础特征上下点功夫,复杂特征学习交给NN即可,只是可解释性会差些,但效果很不错啊
k是t-1层神经元的个数,j为t层神经元的个数,a =f(z),简单地说,t层的一个神经元就是t-1层神经元通过特征权重w和偏置量b确定的。这就是前向传播。激活函数f的作用就是把线性表达转换为非线性,增强模型表达能力,不然再多的隐层作用跟一层没有任何区别。
wide侧的特征如下
1、对于离散型特征,进行hash
2、对于连续型特征,离散化,以及再作交叉的特征
deep侧的特征
1、离散型特征:hash值的embedding
2、连续性特征:直接输入