Python之路:爬虫之urllib库的基本使用和高级使用

关于爬虫自己一直在看,所以时间太慢,这才第二更,有等不及的小伙伴可以慢慢的品尝了,在看下面的之前,建议先把上一章看一下。以下是关于python的Urllib的基础和高级用法。

1、如何扒下一个网站,用最短的时间

每一个网站都是根据url获取页面信息,页面信息就是通过一段html代码,加js、css。html是骨架,js是肌肉,css是衣服,一下写一个简单的实例:

wolf@ubuntu-python:~/python$ sudo vi demo.py 
#!/usr/bin/python
#coding:utf-8
import urllib2  #导入urllib2库

response = urllib2.urlopen("http://www.baidu.com")  #获取百度url    
print response.read()   #读取url函数

这就是一个简单的爬虫,保存运行一下看看都爬取了什么。

 1 wolf@ubuntu-python:~/python$ python demo.py 
 2 <html>
 3 <head>
 4 <meta http-equiv="Content-Type" content="text/html; charset=utf-8" />
 5 <META HTTP-EQUIV="Pragma" CONTENT="no-cache">
 6 <META HTTP-EQUIV="Cache-Control" CONTENT="no-cache">
 7 <META HTTP-EQUIV="Expires" CONTENT="0">
 8 <title>百度一下,你就知道</title>
 9 </head>
10 <body>
11 <script>
12 (function(d){
13 function isCkie(){
14     var isSupport=false;
15     if(typeof(navigator.cookieEnabled)!='undefined'){
16         isSupport=navigator.cookieEnabled;
17         }
18         return isSupport;
19 }
20 
21 //Cookie相关函数
22 var sCkie=new function(){
23 //过期时间
24 this.expTime=function(millisecond){if(millisecond.length==0){millisecond=0};var exp=new Date();exp.setTime(exp.getTime()+parseInt(millisecond));return exp.toGMTString();};
25 //创建cookie
26 this.add=function(name,value,expires,path,domain,secure){d.cookie=name+"="+encodeURI(value)+(expires?(';expires='+expires):'')+(path?(';path='+path):'')+(domain?(';domain='+domain):'')+((secure)?';secure':'');};
27 //删除cookie
28 //this.del=function(name,path,domain){if(getCookie(name)){document.cookie=name+"="+((path)?(";path="+path):'')+((domain)?(";domain="+domain):'')+";expires=Mon,01-Jan-2006 00:00:01 GMT";}};
29 //获取cookie
30 this.get=function(name){var arg=name+"=";var alen=arg.length;var theCookie=''+d.cookie;var inCookieSite=theCookie.indexOf(arg);if(inCookieSite==-1||name==""){return '';}var begin=inCookieSite+alen;var end=theCookie.indexOf(';',begin);if(end==-1){end=theCookie.length;}return decodeURI(theCookie.substring(begin,end));};
31 };
32 var gUrl;
33 if(isCkie()){
34         var ckie=0;
35         var sid='lpvt_f6461a705844d7177814f8a1aa45aaa5';
36         var skie=sCkie.get(sid);
37         if (skie!='')
38         {
39                 ckie=parseInt(skie);
40         }
41 
42         if(ckie<1){
43                 var rand=Math.random();
44                 if(rand<1.8){
45                         gUrl="https://www.baidu.com/index.php?tn=01025065_7_pg";
46                 }else{
47                         gUrl="https://www.baidu.com/";
48                 }
49                 sCkie.add(sid,'1',sCkie.expTime(30*60*1000),0,0,0);
50         }else{
51                 gUrl="https://www.baidu.com/";
52         }
53 }else{
54         gUrl="https://www.baidu.com/";
55 }
56 (function(u){if(window.navigate&&typeof navigate=='function')navigate(u);var ua=navigator.userAgent;if(ua.match(/applewebkit/i)){var h = document.createElement('a');h.rel='noreferrer';h.href=u;document.body.appendChild(h);var evt=document.createEvent('MouseEvents');evt.initEvent('click', true,true);h.dispatchEvent(evt);}else{document.write('<meta http-equiv="Refresh" Content="0; Url='+u+'" >');}})(gUrl);
57 })(document);
58 </script>
59 </body>
60 </html>
61 
62 wolf@ubuntu-python:~/python$ 
demo

没错,你没看错,这个就是简单的百度页面源码,是不是很简单。

2、解析上例

先看第一行导入库

import urllib2  #导入urllib2库

urllib2是python的一个获取urls的组件它以urlopen函数的形式提供了一个非常简单的接口,也会根据urls的协议获取能力,提供比较复杂的接口,例如:基础验证、cookies、代理和其它。更多详情

第二行代码获取url

response = urllib2.urlopen("http://www.baidu.com")  #获取百度url  

调用了urllib2库里的urlopen方法,传入一个url,协议是http协议,也可以换做ftp、file、https等等,只是代表了一种控制协议,urlopen一般接受三个参数,参数如下:

urlopen(url, data, timeout)

第一个参数是url即为URL,第二个参数data是访问URL时要传送的数据,第三个timeout是超时时间。

后边的两个参数data、timeout是可以不传送的,data默认是空的,timeout默认为socket._GLOBAL_DEFAULT_TIMEOUT所以第一个参数是必须要传送的,上面的例子里传送里百度的url,执行urlopen方法之后,返回一个response对象,返回信息便保存在这里。

print response.read()   #读取url函数

response对象有一个read方法,可以获取页面的内容。

如果不加read直接打印会是什么?答案如下:

wolf@ubuntu-python:~/python$ python demo.py 
<addinfourl at 139701058454736 whose fp = <socket._fileobject object at 0x7f0eb1e7b7d0>>

直接打印出的是对象的描述,所以一顶要加read方法,否则打印的就不是网页的内容了。

3、构造Requset

其实上面的urlopen参数可以传入一个request请求,它其实就是一个Requset类的实例,构造时需要传入url、Data等等等内容。所以上面的代码也可以这样写。

wolf@ubuntu-python:~/python$ sudo vi demo.py 
#!/usr/bin/python
#coding:utf-8
import urllib2

request = urllib2.Request("http://www.baidu.com")  #构建一个request对象
response = urllib2.urlopen(request)  #请求request对象的url
print response.read() #读取request对象的url的函数

两者的运行结果是一样的,只是中间多了一个request对象,因为在构建请求时还需要加入好多内容,所以推荐大家这样写。通过构建一个request,服务器响应请求得到应答,这样显得逻辑清晰明确。

4、POST和GET数据传送

上面是最基本的网页抓取,不多对于大多数的动态网页,需要动态的传递参数给它,它做出对应的响应。所以,在访问时,需要传递数据给它。最常见的就是注册登录。

把数据用户名和密码传送到一个url,服务器得到处理之后到响应,后面如何处理,请继续往下看。

数据的传输分为POST和GET两个方式,至于两个方式的区别呢?下面为您揭晓。

最重要的是GET的方式是直接以链接的形式访问,链接  

  

 

  

wolf@ubuntu-python:~/python$ sudo vi demo.py 
#!/usr/bin/python
#coding:utf-8
import urllib2  #导入urllib2库

response = urllib2.urlopen("http://www.baidu.com")  #获取百度url    
print response.read()   #读取url函数

 

 

 

 

 

  

 

 

 

 

  

 

 

 

 

 

 

 

 

 

 

 

  

  

  

转载于:https://www.cnblogs.com/wulaoer/p/5705716.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值