Word2Vec模型精简和本质

本文介绍了Word2Vec的模型框架,重点解析了Hierarchical Softmax的原理,特别是CBOW模型在该框架下的应用。通过霍夫曼树进行二分类,优化目标函数,以实现词向量的训练。
摘要由CSDN通过智能技术生成
1. 模型框架

在这里插入图片描述

  • CBOW模型,上下文预测中心词,目标函数为
    在这里插入图片描述
  • Skip-gram模型,中心词预测上下文,目标函数为
    在这里插入图片描述
2. Hierarchical Softmax

借助CBOW训练模型,得到词向量

2.1 CBOW模型
  • 输入层:2c个上下文context(w)的词向量
  • 投影层:2c个向量求和累加
  • 输出层:huffman树和sigmoid函数(一开始就将词汇建立了一个huffman树) 在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    从根节点到足球,共经历四次分支,每次分支可看做是一次二分类,即将一个节点进行分类,分到左边是负类,分到右边是正类。
    一个节点被分为正类的概率是(后续要优化)
    在这里插入图片描述
    被分为负类的概率是
    在这里插入图片描述
    x w T 是 足 球 这 个 叶 子 节 点 的 词 向 量 表 达 , Θ 是 非 叶 节 点 对 应 的 向 量 x_w^{T}是足球这个叶子节点的词向量表达,\Theta 是非叶节点对应的向量 xwTΘ
    在这里插入图片描述
    最后的结果是将四次的分类相乘
    在这里插入图片描述
    因此,条件概率的一般公式可以写成
    在这里插入图片描述
    其中,
    在这里插入图片描述
    或者写成整体表达式
    在这里插入图片描述
    代入下列公式,得到
    在这里插入图片描述
    在这里插入图片描述
    将内核表示成
    在这里插入图片描述
    上面就是CBOW模型的目标函数
    目前需要做的就是将这个函数最大化,因此使用随机梯度上升法
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    霍夫曼树上每一步的

    在这里插入图片描述
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值