word embedding系列(三) FastText

本文是word embedding系列的第三篇,重点介绍Facebook的FastText。内容涵盖FastText的词向量、文本分类和代码示例。FastText利用n-gram和层次Softmax改进了词向量学习,并能进行文本分类。文章提供了代码实践和精度评估。
摘要由CSDN通过智能技术生成

本系列分为四部分,这篇文章是本系列第三篇,在公众号上有写过:word embedding系列(三) FastText,现在搬到CSDN上~

欢迎关注我的公众号,微信搜 algorithm_Tian 或者扫下面的二维码~

现在保持每周更新的频率,内容都是机器学习相关内容和读一些论文的笔记,欢迎一起讨论学习~


fastText 是 facebook 开源的一个词向量计算以及文本分类工具,fastText 方法包含三部分:模型架构层次 Softmax 和 N-gram 特征

该工具的理论基础是以下两篇论文:

Enriching Word Vectors with Subword Information 词向量(n-gram subword+skip-gram)

Bag of Tricks for Efficient TextClassification 分类(cbow+h softmax)

本篇文章分为三部分来介绍fasttext:

1. FastText中的词向量

2.fasttext预测标签

3.代码示例

输入

词向量模型

文本分类+精度评估

查看分类标签

由于fasttext基本就是基于word2vec,所以本文就不介绍详细公式,只讲与word2vec不同的地方。如果想看公式推导,可以参考上一篇文章

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值