Python爬虫实例——基于urlib、urlib和re实现

爬取的目标网页:http://www.qianlima.com/zb/area_305/


这是一个招投标网站,我们使用python脚本爬取红框中的信息,包括链接网址、链接名称、时间等三项内容。

使用到的Python库:urlib、urlib2、re(正则表达式库)

代码如下:

# -*- coding:utf-8 -*-
import urllib
import urllib2
import re


url = 'http://www.qianlima.com/zb/area_305/'
user_agent = 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/45.0.2454.101 Safari/537.36'
headers = { 'User-Agent' : user_agent}
try:
	request = urllib2.Request(url,headers = headers)
	response = urllib2.urlopen(request)
	content = response.read().decode('gbk')
	pattern = re.compile(u'<span class="shixian_biao">招标公告</span>(.*?)<span class="shixian_biao">招标预告</span>',re.S)
	items = re.findall(pattern,content)
	item = items[0]
	pattern = re.compile('<dt><a href="(.*?)" target="_blank">(.*?)</a></dt><dd>(.*?)</dd>',re.S)
	items = re.findall(pattern,item)
	for m in items:
		print '%s\t%s\t%s' % (m[0],m[1],m[2])

except urllib2.URLError, e:
	if hasattr(e,"code"):
		print e.code
	if hasattr(e,"reason"):
		print e.reason
这里使用到了两次正则表达式匹配

运行结果如下


  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值