入门NLP新闻文本分类Task4——基于深度学习的文本分类之FastText

与传统机器学习模型不同,深度学习既提供特征提取功能,也可以完成分类功能。

学习目标

  • 学会FastText的使用和基础原理
  • 学会使用验证集进行调参

在机器学习的文本处理中,常用One-hot、Bag of Words、N-gram、TF-IDF来进行文本分类,并使用了sklearn进行了实践,但这些方法存在着文本转换后向量维度过高,需要较长时间的训练;没有考虑单词间的关系仅进行单词数量的统计等问题;

而在深度学习中,也可以用FastText、Word2Vec和Bert等进行文本处理,并将文本映射到较低维空间。

本文先介绍FastText在文本处理中的应用。

初识FastText

  • FastText是一种典型的深度学习词向量的表示方法,它通过Embedding层非常简单的将单词映射到稠密空间,然后将句子中所有的单词在Embedding空间中进行平均,进而完成分类操作,因此,TastText是一个三层的神经网络,包含输入层、隐含层和输出层。
    在这里插入图片描述

  • FastText在文本分类任务上,是优于TF—IDF的:

    • TastText用单词的Embedding叠加获得的文档向量,将相似的句子分为一类;
    • FastText学习到的Embedding空间维度比较低,可以快速进行训练;

基于FastText的文本分类实战

  • 安装TastText的方式,参见blog
import pandas as pd
from sklearn.metrics import f1_score

#转换为Fast需要的格式
df3=pd.read_csv('D:/DLdata/train_set.csv/train_set.csv',sep='\t',nrows=15000)
df3['label_ft']='__label__'+df3['label'].astype(str)
df3[['text','label_ft']].iloc[:-5000].to_csv('train_copy.csv',index=None,header=None,sep='\t')
                
import fasttext
model=fasttext.train_supervised('train_copy.csv',lr=1.0,wordNgrams=2,verbose=2,minCount=1,epoch=25,loss='hs')
val_pred=[model.predict(x)[0][0].split('__')[-1] for x in df3.iloc[-5000:]['text']]
                
print(f1_score(df3['label'].values[-5000:].astype(str),val_pred,average='macro'))

#0.8221061745439003

train_supervised方法详细介绍

import fasttext import train_supervised训练一个监督模型, 返回一个模型对象。

以下是train_supervised方法的常用参数。

train_supervised(input, lr=0.1, dim=100,
ws=5, epoch=5, minCount=1,
minCountLabel=0, minn=0,
maxn=0, neg=5, wordNgrams=1,
loss=“softmax”, bucket=2000000,
thread=12, lrUpdateRate=100,
t=1e-4, label=“label”,
verbose=2, pretrainedVectors=""):

  • input:训练数据文件路径
  • lr:学习率
  • dim:向量维度
  • ws: cbow模型时使用
  • epoch:次数
  • minCount:词频阈值, 小于该值在初始化时会过滤掉
  • minCountLabel:类别阈值,类别小于该值初始化时会过滤掉
  • minn:构造subword时最小char个数
  • maxn:构造subword时最大char个数
  • neg:负采样
  • wordNgrams:n-gram个数
  • m loss: 损失函数类型, softmax, ns: 负采样, hs: 分层softmax
  • bucket:词扩充大小, [A, B]: A语料中包含的词向量, B不在语料中的词向量
  • thread:线程个数, 每个线程处理输入数据的一段, 0号线程负责loss输出
  • lrUpdateRate:学习率更新
  • t: 负采样阈值
  • label:类别前缀
  • verbose:
  • pretrainedVectors: 预训练的词向量文件路径, 如果word出现在文件夹中初始化不再随机
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值