维基百科文件解析成中文遇到的变量类型、编码问题

为了练习Gensim中文词向量建模,要用到wiki文件做语料库。因为这个文件是xml格式的,需要把它转成文本格式,所以有了下面的Python代码。

1、参考的代码

在某视频教程中看到的代码是这样写的:

运行后报错:

  File "process-xml.py", line 32, in <module>
    s = space.join(text)
TypeError: sequence item 0: expected a bytes-like object, str found

2、做类型转换

既然text是str,那么就将str转成bytes。

修改了代码:

    for text in wiki.get_texts():
        for item in text:
            s = space.join(item.encode(encoding="utf-8"))
        s = space.join(text)+"\n"

还是报错。

  File "process-xml.py", line 30, in <module>
     s = space.join(item.encode(encoding="utf-8"))
TypeError: sequence item 0: expected a bytes-like object, int found

3、网上搜索到说是py版本的原因

觉得可能要解决了,然而仔细一看,他的写法跟第1处的一样。

文章地址:https://www.cnblogs.com/combfish/p/6413553.html

4、那么就试试用老版本的写法

就是第24行space不用b类型。(注意26行,没有写编码)

又报错了:

  File "process-xml2.py", line 30, in <module>
    output.write(s)
UnicodeEncodeError: 'gbk' codec can't encode character '\u0107' in position 200: illegal multibyte sequence

既然是gbk的问题,那么把编码改成u8呢?

于是把chcp 65001试着这样把编程改成u8,不出所料,没有用。

既然是gbk的问题,那就在虚拟机里面跑吧,可想而知,很慢。3G内存的Ubuntu虚拟机,跑1.49G数据,耗时97分钟,Windows跑大概半小时左右。

5、准备到Stack Overflow上提问

为了准备提问内容,就重演一遍灾难过程。

突然发现跑成功了。

仔细一看,这回原来是第26行的原因。output = open(outp,'w',encoding='utf-8'),输出要加上编码。

6、完整代码

因为这个错误地方是在文件全部读完,写到磁盘的时候的代码,需要等一段时间,才会走到这段代码,所以测试时,用的是一个10M的小WIKI文件测试的。

#-*- coding: utf-8 -*-
# @File    : process-xml.py

import logging
import os.path
import sys
from gensim.corpora import WikiCorpus

if __name__ == '__main__':
    program = os.path.basename(sys.argv[0])
    logger = logging.getLogger(program)
    logging.basicConfig(format='%(asctime)s:%(levelname)s:%(message)s')
    logging.root.setLevel(level=logging.INFO)
    logger.info("running %s"% ' '.join(sys.argv))

    if len(sys.argv) > 3:
        print(globals()['__doc__'] % locals())
        sys.exit(1)
    inp,outp = sys.argv[1:3]
    space = ' '
    i = 0
    output = open(outp,'w',encoding='utf-8')
    wiki = WikiCorpus(inp,lemmatize=False,dictionary={ })
    for text in wiki.get_texts():
        s = space.join(text)+"\n"
        output.write(s)
        i = i+1
        if(i% 10000 == 0):
            logger.info("Saved "+str(i) + " articles")
    output.close()
    logger.info("Finished Saved "+ str(i) +" articles")

# python process-xml.py zhwiki-20180620-pages-articles.xml.1.49G.bz2 wiki.zh.1.49G.text

转载于:https://my.oschina.net/datadev/blog/1836529

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python可以使用ElementTree或lxml库来解析维基百科的XML文件。这里以lxml库为例,演示如何解析维基百科的XML文件: 1. 首先,下载维基百科的XML文件,比如英文维基百科的最新版本可以从这里下载:https://dumps.wikimedia.org/enwiki/latest/enwiki-latest-pages-articles.xml.bz2 2. 解压缩下载的XML文件,得到一个XML文件,比如enwiki-latest-pages-articles.xml。 3. 使用lxml库读取XML文件,并解析XML文件中的页面(page)元素: ```python from lxml import etree # 打开XML文件 with open('enwiki-latest-pages-articles.xml', 'rb') as f: # 创建解析器 parser = etree.XMLPullParser(['start', 'end']) # 循环遍历XML文件 for line in f: parser.feed(line) for event, elem in parser.read_events(): if event == 'end' and elem.tag == '{http://www.mediawiki.org/xml/export-0.10/}page': # 输出页面的标题和内容 title = elem.findtext('{http://www.mediawiki.org/xml/export-0.10/}title') text = elem.findtext('{http://www.mediawiki.org/xml/export-0.10/}revision/{http://www.mediawiki.org/xml/export-0.10/}text') print(title, text[:100]) # 清空元素 elem.clear() # 跳过子元素 while elem.getprevious() is not None: del elem.getparent()[0] del elem ``` 这段代码读取XML文件的每一行,将其传递给解析器。当解析遇到页面元素时,提取页面的标题和内容,并输出。 注意,这里使用了XML命名空间来解析维基百科的XML文件维基百科的XML文件使用了命名空间,所以要使用命名空间来访问元素。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值