Python抓取中文网页

早就有想法把博客每天的访问流量记下来,刚好现在申请了GAE的应用,又开始学Python,正好拿这个练手。打算先利用Python把访问记录保存在本地,熟悉之后可以部署到GAE,利用GAE提供的cron就可以每天更近访问流量了。OK,开始~

首先是简单的网页抓取程序:

[python]  view plain copy
  1. import sys, urllib2  
  2.   
  3. req = urllib2.Request("http://blog.csdn.net/nevasun")  
  4. fd = urllib2.urlopen(req)  
  5. while True:  
  6.     data = fd.read(1024)  
  7.     if not len(data):  
  8.         break  
  9.     sys.stdout.write(data)  

在终端运行提示urllib2.HTTPError: HTTP Error 403: Forbidden难过,怎么回事呢?

这是由于网站禁止爬虫,可以在请求加上头信息,伪装成浏览器访问。添加和修改:

[python]  view plain copy
  1. headers = {'User-Agent':'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/20091201 Firefox/3.5.6'}  
  2. req = urllib2.Request("http://blog.csdn.net/nevasun", headers=headers)  

再试一下,HTTP Error 403没有了,但是中文全都是乱码快哭了。又是怎么回事?

这是由于网站是utf-8编码的,需要转换成本地系统的编码格式:

[python]  view plain copy
  1. import sys, urllib2  
  2.   
  3.   
  4. headers = {'User-Agent':'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/20091201 Firefox/3.5.6'}  
  5. req = urllib2.Request("http://blog.csdn.net/nevasun", headers=headers)  
  6. content = urllib2.urlopen(req).read()   # UTF-8  
  7.   
  8. type = sys.getfilesystemencoding()      # local encode format  
  9. print content.decode("UTF-8").encode(type)  # convert encode format  

OK,大功告成,可以抓取中文页面了。下一步就是在GAE上做个简单的应用了~

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值