【算法工程师】深度学习面试问题总结

深度学习是我接触了解比较少的,只看过吴恩达的视频课还有《深度学习入门–基于python的理论与实现》(还是转发爱可可老师抽奖中的),基础薄弱,但是我觉得比ML要简单(emmm,不知道我哪来的自信)。。。


word2Vec

word2Vec的原理?能详细的说一下CBOW和skip garm的区别和适用场景分别是什么?

  1. word2vec原理
    1. word2vec是词向量的求解模型,输入:大量已分好词的文本,输出:用一个稠密向量表示每一个词
    2. word2Vec就是简化的神经网络模型:
      在这里插入图片描述
      输入的是one-hot vector,隐藏层是没有激活函数,即线性单元,输出层和输入层维度相同,使用的是softmax回归;损失函数是交叉熵(对数)损失函数;我们为每个词获取的稠密向量,其实就是从输入层到隐藏层的权重
  2. CBOW和skip-garm的区别

    https://www.cnblogs.com/bincoding/p/9065110.html
    https://blog.csdn.net/weixin_38526306/article/details/88803803

    1. CBOW是输入某个特征词的上下文相关的词对应的词向量,输出就是这个特定词的词向量,即先验概率;
    2. skip garm输入的特定的一个词的词向量,输出是特定词对应的上下文的词向量,即后验概率。
  3. CBOW和skip-garm的应用场景:CBOW对小型数据库比较合适,而Skip-Gram在大型语料中表现更好。
  4. 两种高效的训练方法:负采样(negative sampling)和层序softmax(hierarchical softmax)

说一下skip-gram的负采样

  1. 首先需要明确的是无论是skip-gram还是cbow,都是用模型来训练一个嵌入矩阵E
  2. 举例理解skip-gram:
    假设有一句话为 i like playing basketball. 那么skip-gram 要做的就是:
    1. 在这句话中选择出一个上下文词,假设这个词为playing。
    2. 然后再给定一个数字n(窗口),在上下文词的前n个词与后n个词中间选择出目标词。 比如假如
  • 2
    点赞
  • 37
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值