python抓取并保存html页面的乱码解决办法

       在用python抓取html页面并保存的时候,经常出现抓取下来的网页内容是乱码的问题。出现该问题的原因一方面是自己的代码中编码设置有问题,另一方面是在编码设置正确的情况下,网页的实际编码和标示的编码不符合造成的。html页面标示的编码在这里:<meta http-equiv="Content-Type" content="text/html; charset=utf-8" />。


       这里提供一种简单的办法解决:使用chardet判断网页的真实编码,同时从url请求返回的info判断标示编码。如果两种编码不同,则使用bs模块扩展为GB18030编码;如果相同则直接写入文件(这里设置系统默认编码为utf-8)。

import urllib2
import sys
import bs4
import chardet

reload(sys)
sys.setdefaultencoding('utf-8')

def download(url):
    htmlfile = open('test.html','w')

    try:
        result = urllib2.urlopen(url)
        content = result.read()
        info = result.info()
        result.close()
    except Exception,e:
        print 'download error!!!'
        print e
    else:
        
        if content != None:
            charset1 = (chardet.detect(content))['encoding'] #real encoding type
            charset2 = info.getparam('charset') #declared encoding type
            print charset1,' ', charset2

            # case1: charset is not None.
            if charset1 != None and charset2 != None and charset1.lower() != charset2.lower():
                newcont = bs4.BeautifulSoup(content, from_encoding='GB18030')   #coding: GB18030
                for cont in newcont:
                    htmlfile.write('%s\n'%cont)
            # case2: either charset is None, or charset is the same.
            else:
                #print sys.getdefaultencoding()
                htmlfile.write(content) #default coding: utf-8
    htmlfile.close()

if __name__ == "__main__":
    url = 'http://www.csdn.net'
    download(url)


得到的test.html文件打开如下,可以看到使用的是UTF-8无BOM编码格式存储的,也就是我们设置的默认编码:





评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值