(二)利用Wikipedia中文语料训练词向量word2vec——分词、训练word2vec

本节博客介绍了如何利用jieba分词和gensim训练word2vec模型。首先,通过jieba对Wikipedia中文语料进行分词,然后使用gensim设置skip-gram模型、min_count、window大小和词向量维度等参数来训练模型,最终在本地生成训练好的word2vec模型文件。训练过程耗时较长,对于2G左右的语料库可能需要近三小时。
摘要由CSDN通过智能技术生成

在前一节,(一)利用Wikipedia中文语料训练词向量word2vec——获取Wikipedia简体中文语料库
我们学习到了如何下载Wiki中文语料库,并且学会了如何将繁体转换为简体。在这一节中,我们将学习如何训练word2vec,包括分词以及训练两个步骤。所有的处理过程都是在jupyter notebook中进行的。

第一步 jieba分词

import pandas as pd
import codecs
import jieba, re

其中codecs模块用于打开数据量大的文本文件。

%%time # 统计代码的运行时间

# 利用codecs模块打开大容量文本,wiki_text.txt是简体文件
f = codecs.open('wiki_text.txt', 'r', encoding='utf-8')

# 将分词后的文件存入target
target = codecs.open('wiki.zh.jianti.cut.words.txt', 'w', encoding='utf-8')
line_num = 1
line = f.readline()  # 按行读取
# 匹配中文分词
zhPattern = re.compile(u'[\u4e00-\u9fa5]+')
while line:
    print('-'*8 + 'processing ', line_num, ' article' + '-'*8)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值