python爬虫使用模块_Python中使用urllib2模块编写爬虫的简单上手示例

提起python做网络爬虫就不得不说到强大的组件urllib2。在python中正是使用urllib2这个组件来抓取网页的。urllib2是Python的一个获取URLs(Uniform Resource Locators)的组件。它以urlopen函数的形式提供了一个非常简单的接口。通过下面的代码简单感受一下urllib2的功能;

import urllib2

response = urllib2.urlopen('http://www.baidu.com/')

html = response.read()

print html

运行结果如下;

14840392341.jpg?2016020192810

查看http://www.baidu.com/源代码发现跟以上运行结果完全一样。这里的URL除了http:还可以是ftp:或file:

urllib2用一个Request对象来映射提出的HTTP请求。你可以创建一个Request对象,通过调用urlopen并传入Request对象,将返回一个相关请求response对象,这个应答对象如同一个文件对象,所以你可以在Response中调用.read()。修改代码如下;

import urllib2

req = urllib2.Request('http://www.baidu.com')

response = urllib2.urlopen(req)

page = response.read()

print page

发现运行结果跟修改前一样。同时在http请求前你还需要做以下事1、发送表单数据。2、设置headers信息。

1、发送表单数据;常见于模拟登录时,一般的在登录操作时需要发送数据到服务器。这里主要用到post方法,一般的HTML表单,data需要编码成标准形式。然后做为data参数传到Request对象。编码工作使用urllib的函数而非urllib2。测试代码如下

import urllib

import urllib2

url = 'http://www.server.com/register.php'

postData = {'useid' : 'user','pwd' : '***','language' : 'Python' }

data = urllib.urlencode(postData) # 编码工作

req = urllib2.Request(url,data) # 发送请求同时传data

response = urllib2.urlopen(req) #接受反馈的信息

page = response.read() #读取反馈的内容

同时urllib2还可以使用get方法传送数据。代码如下;

import urllib2

import urllib

data = {}

data['useid'] = 'user'

data['pwd'] = '***'

data['language'] = 'Python'

values = urllib.urlencode(data)

print values

name=Somebody+Here&language=Python&location=Northampton

url = 'http://www.example.com/example.php'

full_url = url + '?' + url_values

data = urllib2.open(full_url)

2、设置headers信息;有些站点对访问来源做了限制,所以这里模拟User-Agent头,代码如下;

import urllib

import urllib2

url = 'http://www.server.com/register.php'

user_agent = 'Mozilla/5.0 (Windows NT 6.1; rv:33.0) Gecko/20100101 Firefox/33.0'

values = {'useid' : 'user','language' : 'Python' }

headers = { 'User-Agent' : user_agent }

data = urllib.urlencode(values)

req = urllib2.Request(url,data,headers)

response = urllib2.urlopen(req)

page = response.read()

urllib2就介绍到这里啦!

异常处理通常URLError在没有网络连接时或者服务器地址不可达时产生,在这种情况下异常会带有resaon属性包含了错误号和错误信息。如下代码测试效果;

import urllib

import urllib2

url = 'http://www.server.com/register.php'

user_agent = 'Mozilla/5.0 (Windows NT 6.1; rv:33.0) Gecko/20100101 Firefox/33.0'

values = {'useid' : 'user',headers)

response = urllib2.urlopen(req)

page = response.read()

14840392352.png?2016020192919

查阅相关资料后显示Errno 10061表示服务器端主动拒绝。

除此之外还有HTTPError,当客户端与服务器之间建立正常连接时,urllib2将开始处理相关数据。如果遇到不能处理的情况就会产生相应的HTTPError,如网站访问常见的错误码”404″(页面无法找到),”403″(请求禁止),和”401″(带验证请求)等……HTTP状态码表示HTTP协议的响应情况,常见的状态码见HTTP状态码详解。

HTTPError会带有一个'code'属性,是服务器发送的错误号。当一个HTTPError产生后服务器会返回一个相关的错误号和错误页面。如下代码验证;

import urllib2

req = urllib2.Request('http://www.python.org/callmewhy')

try:

urllib2.urlopen(req)

except urllib2.URLError,e:

print e.code

14840392353.png?201602019308

输出404代码,说明找不到页面。

捕捉异常并处理……实现代码如下;

#-*- coding:utf-8 -*-

from urllib2 import Request,urlopen,URLError,HTTPError

req = Request('http://www.python.org/callmewhy')

try:

response = urlopen(req)

except URLError,e:

if hasattr(e,'code'):

print '服务器不能正常响应这个请求!'

print 'Error code: ',e.code

elif hasattr(e,'reason'):

print '无法与服务器建立连接'

print 'Reason: ',e.reason

else:

print '没有出现异常'

14840392364.png?2016020193037

成功捕捉到异常!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
毕业设计,基于SpringBoot+Vue+MySQL开发的公寓报修管理系统,源码+数据库+毕业论文+视频演示 现代经济快节奏发展以及不断完善升级的信息化技术,让传统数据信息的管理升级为软件存储,归纳,集处理数据信息的管理方式。本公寓报修管理系统就是在这样的大环境下诞生,其可以帮助管理者在短时间内处理完毕庞大的数据信息,使用这种软件工具可以帮助管理人员提高事务处理效率,达到事半功倍的效果。此公寓报修管理系统利用当下成熟完善的Spring Boot框架,使用跨平台的可开发大型商业网站的Java语言,以及最受欢迎的RDBMS应用软件之一的MySQL数据库进行程序开发。公寓报修管理系统有管理员,住户,维修人员。管理员可以管理住户信息和维修人员信息,可以审核维修人员的请假信息,住户可以申请维修,可以对维修结果评价,维修人员负责住户提交的维修信息,也可以请假。公寓报修管理系统的开发根据操作人员需要设计的界面简洁美观,在功能模块布局上跟同类型网站保持一致,程序在实现基本要求功能时,也为数据信息面临的安全问题提供了一些实用的解决方案。可以说该程序在帮助管理者高效率地处理工作事务的同时,也实现了数据信息的整体化,规范化与自动化。 关键词:公寓报修管理系统;Spring Boot框架;MySQL;自动化;VUE
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值