Python带你轻松进行网页爬虫

1.准备工作:

工欲善其事必先利其器,因此我们有必要在进行Coding前先配置一个适合我们自己的开发环境,我搭建的开发环境是:

操作系统:Ubuntu 14.04 LTS

Python版本:2.7.6

代码编辑器:Sublime Text 3.0

2.实战网页爬虫:

2.1.获取城市列表:

首先,我们需要获取到湖北省所有城市的网页,然后进行网页解析。网络地址为:http://www.tianqihoubao.com/weather/province.aspx?id=420000

我们查看该网页的源码可以发现所有的城市列表都是以,因此,我们可以封装一个函数来通过使用正则表达式获取我们想要的数据,示例代码如下所示:

抓取的结果如下所示:

top/anlu.html" title="安陆历史天气查询

topong.html" title="巴东历史天气查询

top/baokang.html" title="保康历史天气查询

top/caidian.html" title="蔡甸历史天气查询

topangyang.html" title="长阳历史天气查询

......

2.2.获取对应城市的所有天气信息:

然后我们需要根据抓取到的城市链接去抓取对应城市的天气情况,这里我们再封装一个函数用于显示对应城市的所有天气状况:

这样以来,我们就可以获取到了对应城市的天气情况了!!

完整代码:

3.知识总结: 

3.1.编码问题: 

#在ubuntu上,由于编码问题,我们需要在代码的开始位置添加一行注释,告诉Pyhton解释器我们指定的编码格式:

#此外,我们还需要设置默认的编码格式,否则Sublime Text会无法识别中文,报告一个错误:“UnicodeEncodeError: 'ascii' codec can't encode characters in position”

#-*-coding:utf8-*-

import sys

reload(sys)

sys.setdefaultencoding('UTF-8')


3.2.正则表达式:

导入正则表达式库:import re

匹配任意字符:.

匹配前一个字符0次或无限次:*

匹配前一个字符0次或一次:?

贪心算法:.*

非贪心算法:.*?

匹配数字:(\d+)

常用函数:

re.findall(pattern, string)

re.search(pattern, string)

re.sub(pattern, repl, string)

最后的最后,如果你尝试过运行我贴出来的完整代码,或许你会遇到和我一样的瓶颈,就是运行的速度不够快(尤其像我这种机器配置不是很好的电脑)。在我的机器上运行这段脚本总共花费了 371.8s。我运行过多次,每次都是在350+。因此,如果你的程序不在乎运行速度,那么可能Python还是挺适合的,毕竟可以通过它写更少的代码去做更多的事情!!!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值