机器学习笔记

  1. 为什么说深度学习的特点不适合处理特征过于稀疏的样本?

  2. 我们能把输出矩阵中的权重向量当作词向量吗?

  3. 为什么在计算word similarity的时候,我们要用cosine distance,我们能够用其他距离吗?

  4. 在word2vec的目标函数中,两个词Wi, Wj的词向量Vi,Vj其实分别来自输入权重矩阵和输出权重矩阵,那么在实际使用时,我们需要分别存储输入矩阵和输出矩阵吗?还是直接用输入矩阵当作word2vec计算similarity就好了?

  5. 隐层的激活函数是什么?是sigmoid吗?

  6. <>
    Embedding 在深度学习的应用

  7. 在深度学习网络中作为Embedding层,完成从高维稀疏特征向量到低维稠密特征向量的转换;

  8. 作为预训练的Embedding特征向量,与其他特征向量连接后一同输入深度学习网络进行训练;

  9. 通过计算用户和物品的Embedding相似度,Embedding可以直接作为推荐系统或计算广告系统的召回层或者召回方法之一。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值