python简单爬虫(下):实战应用——抓取豆瓣同城、登陆图书馆查询图书归还

在掌握了urllib几个模块的相关用法后,接下来就是进入实战步骤了~


(一)抓取豆瓣网站同城活动


 豆瓣北京同城活动  该链接指向豆瓣同城活动的列表,向该链接发起request:

# encoding=utf-8
import urllib
import urllib2
import cookielib
import re



cj=cookielib.CookieJar()
opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cj))


url="http://beijing.douban.com/events/future-all?start=0"
req=urllib2.Request(url)
event=urllib2.urlopen(req)
str1=event.read()

我们会发现返回的html代码中,除了我们需要的信息之外,还夹杂了大量的页面布局代码:





如上图所示,我们只需要中间那些关于活动的信息。而为了提取信息,我们就需要正则表达式了~

正则表达式是一种跨平台的字符串处理工具/方法,通过正则表达式,我们可以比较轻松的提取字符串中我们想要的内容~

这里不做详细介绍了,个人推荐余晟老师的正则指引,挺适合新手入门的。下面给出正则表达式的大致语法:




  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值