Improved Word Representation Learning with Sememes

Improved Word Representation Learning with Sememes
来自:acl2017
网址:https://github.com/thunlp/SE-WRL
代码:https://github.com/thunlp/SE-WRL

Hownet

知网(HowNet)的构建秉承还原论思想,即所有词语的含义可以由更小的语义单位构成,而这种语义单位被称为“义原”(Sememe),即最基本的、不宜再分割的最小语义单位。知网构建了包含 2000 多个义原的精细的语义描述体系,并为十几万个汉语和英语词所代表的概念标注了义原。

详细介绍

论文中给出的例子:

在这里插入图片描述

论文贡献

论文利用词语的义原信息来学习更加准确的词表征,这里并不考虑不同义原的在hownet词典中的顺序(顺序与词频有关嘛?)

在这里插入图片描述

skip-gram模型结构,利用中心词来预测周围词,得到额外的词向量表征。来自论文Efficient Estimation of Word Representations in Vector Space

在skip-gram词向量训练的模型基础上做出改进:

(1) Simple Sememe Aggregation Model (SSA)
模型完全和skip-gram 模型一样,只是在考虑每个单词的时候,考虑义原信息,将义原信息的初始化向量和初始化词向量相加求平均

(2) Sememe Attention over Target Model (SAC)
在这里插入图片描述
利用输入词,即target word的信息,将其attention向量来组合每个周围词的多个义原,从而a加强周围词的词表征

(3) Sememe Attention over Target Model (SAT)
在这里插入图片描述
利用周围词,获得图中的contextual embedding,作为attention向量来组合输入词的多个义原,从而加强输入词的词表征

在语义相似度计算上的结果:

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

旺旺棒棒冰

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值