文本预处理

3 篇文章 0 订阅
2 篇文章 0 订阅

文本预处理的工作

1 原始文本数据的获取

一般是从网站上爬取需要的数据内容,这里处理的文本主要是英文的文本。获得的数据的形式为:一个文档占据一行。

2 Tokenize(令牌化)

由于原始的文本是一个文档占据一行,没法对单个词进行统计分析,所有要将单词全部分开,包括将标点符号也要分开。

3 stemming&lemma(词干化及词型还原)

在英文中,同一个单词会因为时态、语态的不同而出现不同的表现形式,如:go,goes,going,went。但是这些单词都是表示同一个意思”go”,所以,要将这些表示时态、语态的后缀去除。在去除之后,将单词还原成表达单词最基本意思的词(lemma)

4 去除stopwords

stopword是停用词的意思,也就是这些词语并没有实际的意义,但是它们的存在又会影响文本的语义分析,因此这些词语也是要去除的。同时,也将所有的标点符号也一并去除。

5 处理好的文本

经过上面四个步骤最后会得到能够输入文本模型中的干净的语料。

之后会将python处理代码补上。

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python是一种强大而流行的编程语言,广泛用于数据处理和文本分析。英文文本预处理是指在对英文文本进行分析之前对其进行必要的处理和清洗。以下是用Python进行英文文本预处理的一些常见步骤: 1. 去除标点符号:使用Python中的正则表达式或字符串处理函数,去除文本中的标点符号,例如逗号、句号等。这可以避免标点符号对后续分析和处理的干扰。 2. 分词:英文文本通常通过空格来区分单词,因此可以使用Python中的split()函数或第三方库(如NLTK)来将文本分割成单个单词。这一步骤很重要,因为在后续的文本分析中,单词是最基本的处理单位。 3. 去除停用词:停用词是指在文本分析中不被考虑的常见单词,如"the"、"is"等。Python的NLTK库提供了一个预定义的停用词列表,可以使用它来去除文本中的停用词。 4. 文本转小写:统一将文本转换为小写字母形式,这样可以避免针对大小写进行不必要的区分分析。 5. 词干提取:将单词还原为其原始形式,例如将"running"还原为"run"。Python的NLTK库提供了一些词干提取的方法,如Porter词干提取器。 6. 词袋模型:将文本转换为数值表示,用于后续的机器学习和文本分析。一种常见的方法是使用词袋模型,将每个文本表示为单词的频率向量。Python的Scikit-learn库提供了TF-IDF向量化器,可以实现这一功能。 以上是对英文文本预处理的一些常见步骤,可以根据具体需求和任务进行适当的调整和拓展。Python提供了丰富的文本处理工具和库,使得英文文本预处理变得更加高效和便捷。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值