-
为什么说深度学习的特点不适合处理特征过于稀疏的样本?
-
我们能把输出矩阵中的权重向量当作词向量吗?
-
为什么在计算word similarity的时候,我们要用cosine distance,我们能够用其他距离吗?
-
在word2vec的目标函数中,两个词Wi, Wj的词向量Vi,Vj其实分别来自输入权重矩阵和输出权重矩阵,那么在实际使用时,我们需要分别存储输入矩阵和输出矩阵吗?还是直接用输入矩阵当作word2vec计算similarity就好了?
-
隐层的激活函数是什么?是sigmoid吗?
-
<>
Embedding 在深度学习的应用 -
在深度学习网络中作为Embedding层,完成从高维稀疏特征向量到低维稠密特征向量的转换;
-
作为预训练的Embedding特征向量,与其他特征向量连接后一同输入深度学习网络进行训练;
-
通过计算用户和物品的Embedding相似度,Embedding可以直接作为推荐系统或计算广告系统的召回层或者召回方法之一。
机器学习笔记
最新推荐文章于 2023-02-25 09:16:58 发布