11种必知的word embeddings模型

作者:Fabio Chiusano

v2-11ddbfe8602bd770b4e06837d91dbedc_b.jpg

单词嵌入为序列标注和文本分类等下游任务提供输入特征,在过去的十年中,已经提出了几种单词嵌入方法。

Context-independent

每个单词都会学习一个唯一的表达而不考虑上下文

Context-independent without machine learning

  • Bag-of-words
  • TFIDF

Context-independent with machine learning

  • Word2Vec: CBOW & SkipGram。
  • GloVe(Global Vectors for Word Representation):对语料库中聚合的全局单词共现统计数据进行训练。
  • FastText:与GloVe不同的是,它通过将每个单词视为由字符n-grams组成而不是一个单词整体来做单词嵌入。此做法不仅可以学习罕见的单词,还可以学习词汇表外的单词。

Context-dependent

相同单词不同上下文也会embedding不一样。

Context-dependent and RNN based

  • ELMO(Embeddings fr
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值