高效的文本分类

相关介绍

文本分类任务是自然语言处理中重要的任务之一,近来,神经网络的使用变得更为普遍,神经网络在文本分类任务中表现更好,但是在训练和测试时间比较慢,限制了在大型语料库中的使用。
与此同时,线性分类器在文本分类器中被认为是一种很好的baseline,尽管他们很简单,但当正确的特征被使用时,经常能够得到很好的表现[1.wang and Manning,2012]。线性模型也适用于非常大的语料库。因此,当这些baseline的方法应用到大语料库中时,提出了一个基于rank constraint的线性模型,该线性模型有着简答的损失函数,能够在十亿大小的语料库中,十分钟内训练完成。并且能够得到很好的表现。该模型为fastText。

模型结构

通常在文本分类中使用BOW训练向量,并用来表示sequence,并使用SVM或逻辑回归等分类器进行分类,然而线性分类器在特征和类别之间并不分享参数,这可能限制了在大型语料库中当某些类别具有很少的实例时的泛化能力。通常的解决方法是将线性分类器分解成低阶矩阵,或者使用多重的神经网络。
当采用rank constraint时,具体如下图所示:
这里写图片描述

该模型与cbow模型比较类似,只是预测中间的词改为预测目标词,具体目标函数如下所示:
这里写图片描述

其中A是lookup table。B为权值矩阵,f为softmax函数,另外,模型中使用a bag of n-gram作为额外的特征,并使用hashing trick维护一个快速并内存有效的映射。

实验验证

情绪分析

这里写图片描述

这里写图片描述

这里写图片描述

Tag Predict

这里写图片描述

参考论文:
Bag of Tricks for Efficient Text classification

1.Feature hashing for large scale multitask learning.

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一夜了

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值