python 处理html文件

利用Python抓取和解析网页(二)

时间:2011-02-06 17:30:02 来源: 网络整理  作者:未知  点击: 0
  对搜索引擎、文件索引、文档转换、数据检索、站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理。事实上,通过Python语言提供的各种模块,我们无需借助Web服务器或者Web浏览器就能够解析和处理HTML
  对搜索引擎、文件索引、文档转换、数据检索、站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理。事实上,通过Python语言提供的各种模块,我们无需借助Web服务器或者Web浏览器就能够解析和处理HTML文档。本文上篇中,我们介绍了一个可以帮助简化打开位于本地和Web上的HTML文档的Python模块。在本文中,我们将论述如何使用Python模块来迅速解析在HTML文件中的数据,从而处理特定的内容,如链接、图像和Cookie等。同时还会介绍如何规范HTML文件的格式标签。

  一、从HTML文档中提取链接

  Python语言还有一个非常有用的模块HTMLParser,该模块使我们能够根据HTML文档中的标签来简洁、高效地解析HTML文档。所以,在处理HTML文档的时候,HTMLParser是最常用的模块之一。

   import  HTMLParser

import  urllib

class  parseLinks(HTMLParser.HTMLParser):

def  handle_starttag(self, tag, attrs):

if  tag  ==   ' a ' :

for  name,value  in  attrs:

if  name  ==   ' href ' :

print  value

print  self.get_starttag_text()

lParser  =  parseLinks()

lParser.feed(urllib.urlopen( " http://www.python.org/index.html " ).read())

  处理HTML文档的时候,我们常常需要从其中提取出所有的链接。使用HTMLParser模块后,这项任务将变得易如反掌。首先,我们需要定义一个新的HTMLParser类,以覆盖handle_starttag()方法,我们将使用这个方法来显示所有标签的HRef属性值。

  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

  为了解析HTML文件的内容并显示包含其中的链接,可以使用read()函数将数据传递给HTMLParser对象。HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。需要注意,如果传给HTMLParser的feed()函数的数据不完整的话,那么不完整的标签会保存下来,并在下一次调用feed()函数时进行解析。当HTML文件很大,需要分段发送给解析器的时候,这个功能就会有用武之地了。下面是一个具体的例子

   import  HTMLParser

import  urllib

import  sys

# 定义HTML解析器

class  parseLinks(HTMLParser.HTMLParser):

def  handle_starttag(self, tag, attrs):

if  tag  ==   ' a ' :

for  name,value  in  attrs:

if  name  ==   ' href ' :

print  value

print  self.get_starttag_text()

# 创建HTML解析器的实例

lParser  =  parseLinks()

# 打开HTML文件

lParser.feed(urllib.urlopen( /

" http://www.python.org/index.html " ).read())

lParser.close()

  上述代码的运行结果太长,在此省略,您可以自己运行代码试试。

 

 二、从HTML文档中提取图像

  处理HTML文档的时候,我们常常需要从其中提取出所有的图像。使用HTMLParser模块后,这项任务将变得易如反掌。首先,我们需要定义一个新的HTMLParser类,以覆盖handle_starttag()方法,该方法的作用是查找img标签,并保存src属性值所指的文件。

   import  HTMLParser

import  urllib

def  getImage(addr):

u  =  urllib.urlopen(addr)

data  =  u.read()

class  parseImages(HTMLParser.HTMLParser):

def  handle_starttag(self, tag, attrs):

if  tag  ==   ' img ' :

for  name,value  in  attrs:

if  name  ==   ' src ' :

getImage(urlString  +   " / "   +  value)

u  =  urllib.urlopen(urlString)

lParser.feed(u.read())

  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

  为了解析HTML文件的内容并显示包含其中的图像,可以使用feed(data)函数将数据发送至HTMLParser对象。HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。下面是一个具体的示例:

   import  HTMLParser

import  urllib

import  sys

urlString  =   " http://www.python.org "

# 把图像文件保存至硬盘

def  getImage(addr):

u  =  urllib.urlopen(addr)

data  =  u.read()

splitPath  =  addr.split( ' / ' )

fName  =  splitPath.pop()

print   " Saving %s "   %  fName

f  =  open(fName,  ' wb ' )

f.write(data)

f.close()

# 定义HTML解析器

class  parseImages(HTMLParser.HTMLParser):

def  handle_starttag(self, tag, attrs):

if  tag  ==   ' img ' :

for  name,value  in  attrs:

if  name  ==   ' src ' :

getImage(urlString  +   " / "   +  value)

# 创建HTML解析器的实例

lParser  =  parseImages()

# 打开HTML文件

u  =  urllib.urlopen(urlString)

print   " Opening URL ==================== "

print  u.info()

# 把HTML文件传给解析器

lParser.feed(u.read())

lParser.close()

  上述代码的运行结果如下所示:

  Opening URL

====================

Date: Fri,  26  Jun  2009   10 : 54 : 49  GMT

Server: Apache / 2.2 . 9  (Debian) DAV / 2  SVN / 1.5 . 1  mod_ssl / 2.2 . 9  OpenSSL / 0.9 .8g mod_wsgi / 2.3  Python / 2.5 . 2

Last - Modified: Thu,  25  Jun  2009  0 9 : 44 : 54  GMT

ETag:  " 105800d-46e7-46d29136f7180 "

Accept - Ranges: bytes

Content - Length:  18151

Connection: close

Content - Type: text / html

Saving python - logo.gif

Saving trans.gif

Saving trans.gif

Saving afnic.fr.png

  三、从HTML文档中提取文本

  处理HTML文档的时候,我们常常需要从其中提取出所有的文本。使用HTMLParser模块后,这项任务将变得非常简单了。首先,我们需要定义一个新的HTMLParser类,以覆盖handle_data()方法,该方法是用来解析并文本数据的。

   import  HTMLParser

import  urllib

class  parseText(HTMLParser.HTMLParser):

def  handle_data(self, data):

if  data  !=   '   ' :

urlText.append(data)

lParser  =  parseText()

lParser.feed(urllib.urlopen( /

http: // docs.python.org / lib / module - HTMLParser.html).read())

  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

  为了解析HTML文件的内容并显示包含其中的文本,我们可以使用feed(data)函数将数据传递给HTMLParser对象。HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。要注意的是,如果传给HTMLParser的feed()函数的数据不完整的话,那么不完整的标签会保存下来,并在下一次调用feed()函数时进行解析。当HTML文件很大,需要分段发送给解析器的时候,这个功能就会有用武之地了。下面是一个具体的代码示例:

   import  HTMLParser

import  urllib

urlText  =  []

# 定义HTML解析器

class  parseText(HTMLParser.HTMLParser):

def  handle_data(self, data):

if  data  !=   '   ' :

urlText.append(data)

# 创建HTML解析器的实例

lParser  =  parseText()

# 把HTML文件传给解析器

lParser.feed(urllib.urlopen( /

“http: // docs.python.org / lib / module - HTMLParser.html” /

).read())

lParser.close()

for  item  in  urlText:

print  item

  上面代码的运行输出过长,在此略过

 

四、从HTML文档中提取Cookies

  很多时候,我们都需要处理Cookie,幸运的是Python语言的cookielib模块为我们提供了许多自动处理在HTML中的HTTP Cookie的类。当处理要求为客户端设置Cookie的HTML文档的时候,这些类对我们非常有用。

   import  urllib2

import  cookielib

from  urllib2  import  urlopen, Request

cJar  =  cookielib.LWPCookieJar()

opener = urllib2.build_opener( /

urllib2.HTTPCookieProcessor(cJar))

urllib2.install_opener(opener)

r  =  Request(testURL)

h  =  urlopen(r)

for  ind, cookie  in  enumerate(cJar):

print   " %d - %s "   %  (ind, cookie)

cJar.save(cookieFile)

  为了从HTML文档提取cookies,首先得使用cookielib模块的LWPCookieJar()函数创建一个cookie jar的实例。LWPCookieJar()函数将返回一个对象,该对象可以从硬盘加载Cookie,同时还能向硬盘存放Cookie。

  接下来,使用urllib2模块的build_opener([handler, . . .])函数创建一个opener对象,当HTML文件打开时该对象将处理cookies。函数build_opener可以接收零个或多个处理程序(这些程序将按照它们被指定的顺序连接在一起)作为参数并返回一个。

  注意,如果想让urlopen()使用opener对象来打开HTML文件的话,可以调用install_opener(opener)函数,并将opener对象传给它。否则,请使用opener对象的open(url)函数来打开HTML文件。

  一旦已经创建并安装了opener对象,就可以使用urllib2模块中的Request(url)函数来创建一个Request对象,然后就能使用urlopen(Request)函数来打开HTML文件了。

  打开HTML页面后,该页面的所有Cookie将被存放到LWPCookieJar对象中,之后,您可以使用LWPCookieJar对象的save(filename)函数了。

   import  os

import  urllib2

import  cookielib

from  urllib2  import  urlopen, Request

cookieFile  =   " cookies.dat "

testURL  =   ' http://maps.google.com/ '

# 为cookie jar 创建实例

cJar  =  cookielib.LWPCookieJar()

# 创建HTTPCookieProcessor的opener对象

opener  =  urllib2.build_opener( /

urllib2.HTTPCookieProcessor(cJar))

# 安装HTTPCookieProcessor的opener

urllib2.install_opener(opener)

# 创建一个Request对象

r  =  Request(testURL)

# 打开HTML文件

h  =  urlopen(r)

print   " 页面的头部 ====================== "

print  h.info()

print   " 页面的Cookies ====================== "

for  ind, cookie  in  enumerate(cJar):

print   " %d - %s "   %  (ind, cookie)

# 保存cookies

cJar.save(cookieFile)

  上述代码的运行结果如下所示:

  页面的头部

======================

Cache - Control: private

Content - Type: text / html; charset = ISO - 8859 - 1

Set - Cookie: PREF = ID = 5d9692b55f029733:NW = 1 :TM = 1246015608 :LM = 1246015608 :S = frfx -- b3xt73TaEA; expires = Sun,  26 - Jun - 2011   11 : 26 : 48  GMT; path =/ ; domain = .google.com

Date: Fri,  26  Jun  2009   11 : 26 : 48  GMT

Server: mfe

Expires: Fri,  26  Jun  2009   11 : 26 : 48  GMT

Transfer - Encoding: chunked

Connection: close

页面的Cookies

======================

0  -

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值