机器学习-文本处理

基础知识

语料库(corpus):
语料库有三点特征
语料库中存放的是在语言的实际使用中真实出现过的语言材料,因此例句库通常不应算作语料库;
语料库是承载语言知识的基础资源,但并不等于语言知识;
真实语料需要经过加工(分析和处理),才能成为有用的资源。

北京大学语料库(http://icl.pku.edu.cn/ )
北大计算语言学研究所俞士汶教授主持,北大、富士通、人民日报社共同开发
《人民日报》1998年全部文本(约2600万字)
完整的词语切分和词性标注信息
例子:
咱们/r 中国/ns 这么/r 大/a 的/u 一个/m 多/a 民族/n 的/u 国家/n 如果/c 不/d 团结/a ,/w 就/d 不/d 可能/v 发展/v 经济
/n ,/w 人民/n 生活/n 水平/n 也/d 就/d 不/d 可能/v 得到/v 改善/vn 和/c 提高/vn

 停用词(stopword):

人类语言包含很多功能词。与其他词相比,功能词没有什么实际含义。最普遍的功能词是限定词("the"、"a"、"an"、"that"、和"those"),这些词帮助在文本中描述名词和表达概念,如地点或数量。介词如:"over","under","above" 等表示两个词的相对位置。

这些功能词的两个特征促使在搜索引擎的文本处理过程中对其特殊对待。第一,这些功能词极其普遍。记录这些词在每一个文档中的数量需要很大的磁盘空间。第二,由于它们的普遍性和功能,这些词很少单独表达文档相关程度的信息。如果在检索过程中考虑每一个词而不是短语,这些功能词基本没有什么帮助。

在信息检索中,这些功能词的另一个名称是:停用词(stopword)。称它们为停用词是因为在文本处理过程中如果遇到它们,则立即停止处理,将其扔掉。将这些词扔掉减少了索引量,增加了检索效率,并且通常都会提高检索的效果。停用词主要包括英文字符、数字、数学字符、标点符号及使用频率特高的单汉字等。

Stop Words大致为如下两类:

1、这些词应用十分广泛,在Internet上随处可见,比如"Web"一词几乎在每个网站上均会出现,对这样的词搜索引擎无 法保证能够给出真正相关的搜索结果,难以帮助缩小搜索范围,同时还会降低搜索的效率;

2、这类就更多了,包括了语气助词、副词、介词、连接词等,通常自身 并无明确的意义,只有将其放入一个完整的句子中才有一定作用,如常见的"的"、"在"之类。

词袋BoW模型
 
Bag-of-words model (BoW model) 最早出现在自然语言处理(Natural Language Processing)和信息检索(Information Retrieval)领域.。该模型忽略掉文本的语法和语序等要素,将其仅仅看作是若干个词汇的集合,文档中每个单词的出现都是独立的。BoW使用一组无序的单词(words)来表达一段文字或一个文档.。近年来,BoW模型副也被广泛应用于计算机视觉中。
 
首先给出两个简单的文本文档如下:
 
        John likes to watch movies. Mary likes too.
 
        John also likes to watch football games.
 
基于上述两个文档中出现的单词,构建如下一个词典 (dictionary):
 
       {"John": 1, "likes": 2,"to": 3, "watch": 4, "movies": 5,"also": 6, "football": 7, "games": 8,"Mary": 9, "too": 10}
 
上面的词典中包含10个单词, 每个单词有唯一的索引, 那么每个文本我们可以使用一个10维的向量来表示。如下:
 
       [1, 2, 1, 1, 1, 0, 0, 0, 1, 1]
 
       [1, 1,1, 1, 0, 1, 1, 1, 0, 0]
 
该向量与原来文本中单词出现的顺序没有关系,而是词典中每个单词在文本中出现的频率。

文本转换

tf词频

from sklearn.feature_extraction.text import CountVectorizer
X = ['我 爱 你','我 恨 你 恨 你']
y = [0,1]
countCoder = CountVectorizer(token_pattern="[a-zA-Z|\u4e00-\u9fa5]+")
X = countCoder.fit_transform(X)
print(countCoder.get_feature_names())  
print(X.toarray())
# ['你', '恨', '我', '爱']
# [[1 0 1 1]
#  [2 2 1 0]]

tf-idf

原始的词项频率会面临这样一个严重问题,即在和查询进行相关度计算时,所有的词项都被认为是同等重要的,实际上,某些词项对于相关度计算来说几乎没有或很少有区分能力,例如在一个有关汽车工业的文档集中,几乎所有的文档都会包含auto,但是auto就没有区分的能力,因此下面我们提出一个机制来降低这些出现次数过多的词在计算时的相关性.

一个直接的想法就是给文档集进行统计频数,较高词频的词赋予较低的权重,这样就很好的解决了这个问题.

IDF逆向文件频率是一个词语普遍重要性的度量。某一特定词语的IDF,可以由总文件数目除以包含该词语之文件的数目,再将得到的商取以10为底的对数得到.

例: X = [‘我 爱 你’,‘我 恨 你 恨 你’]

以“爱”为例,其df(爱,document1)=1
idf(爱)=
则,TF-IDF(爱,document1)=1*1.405

from sklearn.feature_extraction.text import TfidfVectorizer
X = ['我 爱 你','我 恨 你 恨 你']
y = [0,1]
tiCoder = TfidfVectorizer(norm=None,token_pattern="[a-zA-Z|\u4e00-\u9fa5]+") 
X = tiCoder.fit_transform(X)
print(tiCoder.get_feature_names())  
print(X.toarray())
# ['你', '恨', '我', '爱']
# [[ 1.          0.          1.          1.40546511]
#  [ 2.          2.81093022  1.          0.        ]]


# [[1 0 1 1]
#  [2 2 1 0]]

分词工具:jieba

jieba:
“结巴”中文分词:做最好的 Python 中文分词组件,可用于中文句子/词性分割、词性标注、未登录词识别,支持用户词典等功能。能较好实现中文分词,同时支持繁体分词。 

特点:
支持三种分词模式:
精确模式: 试图将句子最精确地切开,适合文本分析;
全模式:把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;
搜索引擎模式:在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。
支持繁体分词
支持自定义词典

算法:
基于前缀词典实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图 (DAG)
采用了动态规划查找最大概率路径, 找出基于词频的最大切分组合
对于未登录词,采用了基于汉字成词能力的 HMM 模型,使用了 Viterbi 算法

1,主要功能
分词

jieba.cut 方法接受三个输入参数: 需要分词的字符串;cut_all 参数用来控制是否采用全模式;HMM 参数用来控制是否使用 HMM 模型
jieba.cut_for_search 方法接受两个参数:需要分词的字符串;是否使用 HMM 模型。该方法适合用于搜索引擎构建倒排索引的分词,粒度比较细
待分词的字符串可以是 unicode 或 UTF-8 字符串、GBK 字符串。注意:不建议直接输入 GBK 字符串,可能无法预料地错误解码成 UTF-8
jieba.cut 以及 jieba.cut_for_search 返回的结构都是一个可迭代的 generator,可以使用 for 循环来获得分词后得到的每一个词语(unicode),或者用
jieba.lcut 以及 jieba.lcut_for_search 直接返回 list
jieba.Tokenizer(dictionary=DEFAULT_DICT) 新建自定义分词器,可用于同时使用不同词典。jieba.dt 为默认分词器,所有全局分词相关函数都是该分词器的映射。

# encoding=utf-8
import jieba
 
seg_list = jieba.cut("我来到北京清华大学", cut_all=True)
print("Full Mode: " + "/ ".join(seg_list))  # 全模式
#Full Mode: 我/ 来到/ 北京/ 清华/ 清华大学/ 华大/ 大学
 
seg_list = jieba.cut("我来到北京清华大学", cut_all=False)
print("Default Mode: " + "/ ".join(seg_list))  # 精确模式
#Default Mode: 我/ 来到/ 北京/ 清华大学
 
seg_list = jieba.cut("他来到了网易杭研大厦")  # 默认是精确模式
print(", ".join(seg_list))
#他, 来到, 了, 网易, 杭研, 大厦

seg_list = jieba.cut("小明硕士毕业于中国科学院计算所,后在日本京都大学深造")  # 默认是精确模式print(", ".join(seg_list))
#小明, 硕士, 毕业, 于, 中国科学院, 计算所, ,, 后, 在, 日本京都大学, 深造

seg_list = jieba.cut("小明硕士毕业于中国科学院计算所,后在日本京都大学深造", cut_all=True) # 全模式print("Full Mode: " + "/ ".join(seg_list))#Full Mode: 小/ 明/ 硕士/ 毕业/ 于/ 中国/ 中国科学院/ 科学/ 科学院/ 学院/ 计算/ 计算所/ / / 后/ 在/ 日本/ 日本京都大学/ 京都/ 京都大学/ 大学/ 深造

seg_list = jieba.cut_for_search("小明硕士毕业于中国科学院计算所,后在日本京都大学深造")  # 搜索引擎模式
print(", ".join(seg_list))
#小明, 硕士, 毕业, 于, 中国, 科学, 学院, 科学院, 中国科学院, 计算, 计算所, ,, 后, 在, 日本, 京都, 大学, 日本京都大学, 深造

 

添加自定义词典

2,载入词典:
开发者可以指定自己自定义的词典,以便包含 jieba 词库里没有的词。虽然 jieba 有新词识别能力,但是自行添加新词可以保证更高的正确率
用法: jieba.load_userdict(file_name) # file_name 为文件类对象或自定义词典的路径
词典格式和 dict.txt 一样,一个词占一行;每一行分三部分:词语、词频(可省略)、词性(可省略),用空格隔开,顺序不可颠倒。file_name 若为路径或二进制方式打开的文件,则文件必须为 UTF-8 编码。
词频省略时使用自动计算的能保证分出该词的词频。
例如: 创新办 3 i 
云计算 5
凱特琳 nz 
更改分词器(默认为 jieba.dt)的 tmp_dir 和 cache_file 属性,可分别指定缓存文件所在的文件夹及其文件名,用于受限的文件系统。
范例:
自定义词典:https://github.com/fxsjy/jieba/blob/master/test/userdict.txt
用法示例:https://github.com/fxsjy/jieba/blob/master/test/test_userdict.py
之前: 李小福 / 是 / 创新 / 办 / 主任 / 也 / 是 / 云 / 计算 / 方面 / 的 / 专家 /
加载自定义词库后: 李小福 / 是 / 创新办 / 主任 / 也 / 是 / 云计算 / 方面 / 的 / 专家 /

(2) 调整词典:
使用 add_word(word, freq=None, tag=None) 和 del_word(word) 可在程序中动态修改词典。
使用 suggest_freq(segment, tune=True) 可调节单个词语的词频,使其能(或不能)被分出来。

注意:自动计算的词频在使用 HMM 新词发现功能时可能无效

test = "吴国忠臣伍子胥"
print("/".join(jieba.cut(test)))
print(jieba.get_FREQ("吴国忠"))
print(jieba.get_FREQ("臣"))
print(jieba.get_FREQ("吴国"))
print(jieba.get_FREQ("忠臣"))
jieba.add_word('忠臣',456) #更改忠臣词频为456
print("/".join(jieba.cut(test)))``` >>> 吴国忠/臣/伍子胥 14 5666 174 316 吴国/忠臣/伍子胥
print('/'.join(jieba.cut('如果放到post中将出错。', HMM=False)))
如果/放到/post/中将/出错/。
jieba.suggest_freq(('中', '将'), True)
494
print('/'.join(jieba.cut('如果放到post中将出错。', HMM=False)))
如果/放到/post/中/将/出错/。
print('/'.join(jieba.cut('「台中」正确应该不会被切开', HMM=False))) 「/台/中/」/正确/应该/不会/被/切开 jieba.suggest_freq('台中', True) 69 print('/'.join(jieba.cut('「台中」正确应该不会被切开', HMM=False))) 「/台中/」/正确/应该/不会/被/切开

3. 关键词提取
(1) 基于 TF-IDF 算法的关键词抽取
某个词对文章的重要性越高,它的TF-IDF值就越大。所以,排在最前面的几个词,就是这篇文章的关键词。

import jieba.analyse
jieba.analyse.extract_tags(sentence, topK=20, withWeight=False, allowPOS=()) 
Sentence: 待提取的文本
topK : 返回几个 TF/IDF 权重最大的关键词,默认值为 20
withWeight: 是否一并返回关键词权重值,默认值为 False
allowPOS: 仅包括指定词性的词,默认值为空,即不筛选
jieba.analyse.TFIDF(idf_path=None): 新建 TFIDF 实例,idf_path 为 IDF 频率文件
代码示例 (关键词提取)
https://github.com/fxsjy/jieba/blob/master/test/extract_tags.py
关键词提取所使用逆向文件频率(IDF)文本语料库可以切换成自定义语料库的路径
用法: jieba.analyse.set_idf_path(file_name) # file_name为自定义语料库的路径
自定义语料库示例:https://github.com/fxsjy/jieba/blob/master/extra_dict/idf.txt.big
用法示例:https://github.com/fxsjy/jieba/blob/master/test/extract_tags_idfpath.py 
关键词提取所使用停止词(Stop Words)文本语料库可以切换成自定义语料库的路径
用法: jieba.analyse.set_stop_words(file_name) # file_name为自定义语料库的路径
自定义语料库示例:https://github.com/fxsjy/jieba/blob/master/extra_dict/stop_words.txt
用法示例:https://github.com/fxsjy/jieba/blob/master/test/extract_tags_stop_words.py
关键词一并返回关键词权重值示例
用法示例:https://github.com/fxsjy/jieba/blob/master/test/extract_tags_with_weight.py

(2) 基于 TextRank 算法的关键词抽取

jieba.analyse.textrank(sentence, topK=20, withWeight=False, allowPOS=(‘ns’, ‘n’, ‘vn’, ‘v’)) 直接使用,接口相同,注意默认过滤词性。
jieba.analyse.TextRank() 新建自定义 TextRank 实例
 
基本思想:(算法论文: TextRank: Bringing Order into Texts)
将待抽取关键词的文本进行分词
以固定窗口大小(默认为5,通过span属性调整),词之间的共现关系,构建图
计算图中节点的PageRank,注意是无向带权图

s = "此外,公司拟对全资子公司吉林欧亚置业有限公司增资4.3亿元,增资后,
吉林欧亚置业注册资本由7000万元增加到5亿元。吉林欧亚置业主要经营范围为房地产开发及百货零售等业务。
目前在建吉林欧亚城市商业综合体项目。2013年,实现营业收入0万元,实现净利润-139.13万元。" for x, w in jieba.analyse.extract_tags(s, withWeight=True): print('%s %s' % (x, w)) for x, w in jieba.analyse.textrank(s, withWeight=True): print('%s %s' % (x, w))

---------------------------------------
TF-IDF
----------------------------------------

欧亚 0.7300142700289363
吉林 0.659038184373617
置业 0.4887134522112766
万元 0.3392722481859574
增资 0.33582401985234045
4.3 0.25435675538085106
7000 0.25435675538085106
2013 0.25435675538085106
139.13 0.25435675538085106
实现 0.19900979900382978
综合体 0.19480309624702127
经营范围 0.19389757253595744
亿元 0.1914421623587234
在建 0.17541884768425534
全资 0.17180164988510638
注册资本 0.1712441526
百货 0.16734460041382979
零售 0.1475057117057447
子公司 0.14596045237787234
营业 0.13920178509021275

----------------------------------------
TextRank
----------------------------------------
吉林 1.0
欧亚 0.9966893354178172
置业 0.6434360313092776
实现 0.5898606692859626
收入 0.43677859947991454
增资 0.4099900531283276
子公司 0.35678295947672795
城市 0.34971383667403655
商业 0.34817220716026936
业务 0.3092230992619838
在建 0.3077929164033088
营业 0.3035777049319588
全资 0.303540981053475
综合体 0.29580869172394825
注册资本 0.29000519464085045
有限公司 0.2807830798576574
零售 0.27883620861218145
百货 0.2781657628445476
开发 0.2693488779295851

4. 词性标注
jieba.posseg.POSTokenizer(tokenizer=None) 新建自定义分词器,tokenizer 参数可指定内部使用的 jieba.Tokenizer 分词器。jieba.posseg.dt 为默认词性标注分词器。
标注句子分词后每个词的词性,采用和 ictclas 兼容的标记法。
用法示例

import jieba.posseg as pseg
words = pseg.cut("我爱北京天安门")
for word, flag in words:
    print('%s %s' % (word, flag))
...
我 r
爱 v
北京 ns
天安门 ns

5. 并行分词
原理:将目标文本按行分隔后,把各行文本分配到多个 Python 进程并行分词,然后归并结果,从而获得分词速度的可观提升
基于 python 自带的 multiprocessing 模块,目前暂不支持 Windows
用法:
jieba.enable_parallel(4) # 开启并行分词模式,参数为并行进程数
jieba.disable_parallel() # 关闭并行分词模式
例子:https://github.com/fxsjy/jieba/blob/master/test/parallel/test_file.py
 
实验结果:在 4 核 3.4GHz Linux 机器上,对金庸全集进行精确分词,获得了 1MB/s 的速度,是单进程版的 3.3 倍。
 
注意:并行分词仅支持默认分词器 jieba.dt 和 jieba.posseg.dt。

中文文本分析

gensim

What is Gensim?
Gensim是一款开源的第三方Python工具包,用于从原始的非结构化的文本中,无监督地学习到文本隐层的主题向量表达。它支持包括TF-IDF,LSA,LDA,和word2vec在内的多种主题模型算法,支持流式训练,并提供了诸如相似度计算,信息检索等一些常用任务的API接口。
基本概念
语料(Corpus):一组原始文本的集合,这个集合是gensim的输入,gensim会从这个语料中推断出它的结构,主题等。从语料中推断出的隐含结构,可以用来对一个新的文档指定一个主题。我们把这个集合叫做训练语料。这个训练过程不需要人工标注的附加信息,所以主题分类是无监督的。在Gensim中,Corpus通常是一个可迭代的对象(比如列表)。每一次迭代返回一个可用于表达文本对象的稀疏向量。
向量(Vector):由一组文本特征构成的列表。是一段文本在Gensim中的内部表达。
稀疏向量(Sparse Vector):通常,可以略去向量中多余的0元素。此时,向量中的每一个元素是一个(key, value)的tuple。
模型(Model):是一个抽象的术语。定义了两个向量空间的变换(即从文本的一种向量表达变换为另一种向量表达)。

Step 1. 训练语料的预处理
训练语料的预处理指的是将文档中原始的字符文本转换成Gensim模型所能理解的稀疏向量的过程。
通常,我们要处理的原生语料是一堆文档的集合,每一篇文档又是一些原生字符的集合。在交给Gensim的模型训练之前,我们需要将这些原生字符解析成Gensim能处理的稀疏向量的格式。
由于语言和应用的多样性,Gensim没有对预处理的接口做出任何强制性的限定。通常,我们需要先对原始的文本进行分词、去除停用词等操作,得到每一篇文档的特征列表。例如,在词袋模型中,文档的特征就是其包含的word:

texts = [['human', 'interface', 'computer'],

['survey', 'user', 'computer', 'system', 'response', 'time'],
['eps', 'user', 'interface', 'system'],
['system', 'human', 'system', 'eps'],
['user', 'response', 'time'],
['trees'],
['graph', 'trees'],
['graph', 'minors', 'trees'],
['graph', 'minors', 'survey']]

其中,corpus的每一个元素对应一篇文档。

接下来,我们可以调用Gensim提供的API建立语料特征(此处即是word)的索引字典,并将文本特征的原始表达转化成词袋模型对应的稀疏向量的表达。依然以词袋模型为例:

 

from gensim import corpora 
dictionary = corpora.Dictionary(texts) 
corpus = [dictionary.doc2bow(text) for text in texts] 
print(corpus[0]) # [(0, 1), (1, 1), (2, 1)]

其中,corpus的每一个元素对应一篇文档。
最后,出于内存优化的考虑,Gensim支持文档的流式处理。我们需要做的,只是将上面的列表封装成一个Python迭代器;每一次迭代都返回一个稀疏向量即可。

class MyCorpus(object): 
       def __iter__(self):
              for line in open('mycorpus.txt'): 
               # 假设每行有一个文档,tokens以空格隔开
                      yield dictionary.doc2bow(line.lower().split()

Step 2. 主题向量的变换
对文本向量的变换是Gensim的核心。通过挖掘语料中隐藏的语义结构特征,最终可以变换出简洁高效的文本向量。
在Gensim中,每一个向量变换的操作都对应着一个主题模型,例如上一小节提到的对应着词袋模型的doc2bow变换。每一个模型又都是一个标准的Python对象。下面以TF-IDF模型为例,介绍Gensim模型的一般使用方法。
首先是模型对象的初始化。通常,Gensim模型都接受一段训练语料(注意在Gensim中,语料对应着一个稀疏向量的迭代器)作为初始化的参数。显然,越复杂的模型需要配置的参数越多。

 

from gensim import models
tfidf = models.TfidfModel(corpus)
print(tfidf[corpus[0]])  #[(0, 0.5773502691896257), (1, 0.5773502691896257), (2, 0.5773502691896257)]

其中,corpus是一个返回bow向量的迭代器。这两行代码将完成对corpus中出现的每一个特征的IDF值的计算。接下来,可以调用这个模型将任意一段语料(依然是bow向量的迭代器)转化成TFIDF向量(的迭代器)。注意,这里的bow向量必须与训练语料的bow向量共享同一个特征字典(即共享同一个向量空间)。
注意,同样是出于内存的考虑,model[corpus]方法返回的是一个迭代器。如果要多次访问model[corpus]的返回结果,可以先讲结果向量序列化到磁盘上。也可以将训练好的模型持久化到磁盘上,以便下一次使用:

tfidf.save("./model.tfidf") 
tfidf = models.TfidfModel.load("./model.tfidf")

 

转载于:https://www.cnblogs.com/TimVerion/p/11260972.html

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Natural Language Processing Recipes: Unlocking Text Data with Machine Learning and Deep Learning using Python(2019) (自然语言处理秘诀:使用Python通过机器学习和深度学习解锁文本数据) Natural Language Processing Recipes - Unlocking Text Data with Machine Learning and Deep Learning using Python[2019].pdf 253页 3.8 MB 使用Python使用问题解决方法实现自然语言处理应用程序。这本书有许多编码练习,将帮助您快速部署自然语言处理技术,如文本分类、部分语音识别、主题建模、文本摘要、文本生成、实体提取和情感分析。 自然语言处理配方首先提供清洗和预处理文本数据的解决方案,以及使用高级算法分析文本数据的方法。您将看到文本语义和句法分析的实际应用,以及涉及文本规范化、高级预处理、pos标记和情感分析的复杂自然语言处理方法。您还将学习机器学习和自然语言处理中的深度学习的各种应用。 通过使用本书中的配方,您将拥有一个解决方案工具箱,可以应用于现实世界中您自己的项目,使您的开发时间更快、更高效。 你将学到什么 •使用python(如nltk、textblob、spacy、斯坦福corenlp等)应用nlp技术 •实施信息检索、文本总结、情感分析和其他高级自然语言处理技术的概念。 •识别自然语言处理和自然语言生成问题的机器学习和深度学习技术 这本书是给谁的 希望通过编码练习刷新和学习自然语言处理的各种概念的数据科学家。
Python语料清洗练习是一种通过使用Python编程语言对文本数据进行处理和清理的练习。在实际应用中,数据通常需要进行清洗和预处理,以便于后续的分析和建模工作。Python语料清洗练习通常包括以下几个步骤: 1. 导入文本数据:使用Python的文件操作功能,将需要清洗的文本数据导入到Python环境中。 2. 数据清洗:根据具体需求,使用Python的字符串处理和正则表达式等功能,对文本数据进行清洗。这包括去除无关字符、标点符号和特殊符号,统一大小写,去除停用词等。 3. 分词:使用Python的自然语言处理工具,对文本数据进行分词处理。这可以将文本数据切割成一个个独立的词语或短语,方便后续的处理和分析。 4. 去除停用词:使用Python的停用词,去除文本中的常用词语,如“的”、“是”等。这些常用词语对文本的分析和建模没有太大的帮助,可以在清洗过程中将它们去除。 5. 词性标注:使用Python的自然语言处理工具,对分词后的文本数据进行词性标注。这可以为每个词语添加它们在语法和语义上的词性,方便后续的分析和处理。 6. 数据处理:根据具体需求,对清洗后的文本数据进行进一步的处理。这包括统计词频、计算语义相似度、构建词向量等。 通过进行Python语料清洗练习,我们可以熟悉Python文本处理功能,提高对文本数据的理解和分析能力。同时,清洗后的数据可以为后续的机器学习和自然语言处理任务提供更好的数据基础。<span class="em">1</span><span class="em">2</span><span class="em">3</span>

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值