在前一节,(一)利用Wikipedia中文语料训练词向量word2vec——获取Wikipedia简体中文语料库
我们学习到了如何下载Wiki中文语料库,并且学会了如何将繁体转换为简体。在这一节中,我们将学习如何训练word2vec,包括分词以及训练两个步骤。所有的处理过程都是在jupyter notebook中进行的。
第一步 jieba分词
import pandas as pd
import codecs
import jieba, re
其中codecs
模块用于打开数据量大的文本文件。
%%time # 统计代码的运行时间
# 利用codecs模块打开大容量文本,wiki_text.txt是简体文件
f = codecs.open('wiki_text.txt', 'r', encoding='utf-8')
# 将分词后的文件存入target
target = codecs.open('wiki.zh.jianti.cut.words.txt', 'w', encoding='utf-8')
line_num = 1
line = f.readline() # 按行读取
# 匹配中文分词
zhPattern = re.compile(u'[\u4e00-\u9fa5]+')
while line:
print('-'*8 + 'processing ', line_num, ' article' + '-'*8)