python 网页抓取_利用Python抓取和解析网页(转载)

本文介绍了如何使用Python的HTMLParser模块解析HTML文档,包括提取链接、文本、图像URL以及处理Cookie。通过创建自定义的HTMLParser子类,实现了对HTML元素的处理,例如获取网页中的所有链接、提取纯文本内容、保存图片到本地以及读取和保存网页中的Cookie信息。这些技术在网页抓取、数据提取和网站备份等领域非常实用。
摘要由CSDN通过智能技术生成

这是我写爬虫的时候搜到的一篇比较不错的文章

讲的还是比较详细 虽然代码有部分缩进错误 稍微修改下就可以有很好的效果了 于是我就脸皮厚的贴了过来 收藏吧算是

对搜索引擎、文件索引、文档转换、数据检索、站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理。事实上,通过Python语言提供的各种模块,我们无需借助Web服务器或者Web浏览器就能够解析和处理HTML文档。本文上篇中,我们介绍了一个可以帮助简化打开位于本地和Web上的HTML文档的Python模块。在本文中,我们将论述如何使用Python模块来迅速解析在HTML文件中的数据,从而处理特定的内容,如链接、图像和Cookie等。同时还会介绍如何规范HTML文件的格式标签。

一、(1)从HTML文档中提取链接

Python语言还有一个非常有用的模块HTMLParser,该模块使我们能够根据HTML文档中的标签来简洁、高效地解析HTML文档。所以,在处理HTML文档的时候,HTMLParser是最常用的模块之一。

import HTMLParser

import urllib

import sys

url =

"https://bug.oraclecorp.com/"

class

parseLinks(HTMLParser.HTMLParser):

def handle_starttag(self,

tag, attrs):

if tag == 'a':

for name,value in

attrs:

if name == 'href':

print value

print

self.get_starttag_text()

lParser =

parseLinks()

lParser.feed(urllib.urlopen(url).read())

(2)从网页中提取文本

import HTMLParser

import urllib

import sys

url = "https://bug.oraclecorp.com/"

urlText = []

class parseText(HTMLParser.HTMLParser):

def handle_data(self, data):

if data != '\n':

urlText.append(data)

lParser = parseText()

lParser.feed(urllib.urlopen(url).read())

lParser.close()

fp = open("/home/zhou/web text.txt","w")

for item in urlText:

print item

fp.write(item)

fp.close()

(3)将网页保存下来

urlText = urllib.urlopen(url)

content = urlText.read()

fp = open("/home/zhou/web.html","w")

fp.write(content)

fp.close()

二、从HTML文档中提取图像

处理HTML文档的时候,我们常常需要从其中提取出所有的图像。使用HTMLParser模块后,这项任务将变得易如反掌。首先,我们需要定义一个新的HTMLParser类,以覆盖handle_starttag()方法,该方法的作用是查找img标签,并保存src属性值所指的文件。

importHTMLParserimporturllibdefgetImage(addr):

u=urllib.urlopen(addr)

data=u.read()classparseImages(HTMLParser.HTMLParser):defhandle_starttag(self,

tag, attrs):iftag=='img':forname,valueinattrs:ifname=='src':

getImage(urlString+"/"+value)

u=urllib.urlopen(urlString)

lParser.feed(u.read())

定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

为了解析HTML文件的内容并显示包含其中的图像,可以使用feed(data)函数将数据发送至HTMLParser对象。HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。下面是一个具体的示例:

importHTMLParserimporturllibimportsys

urlString="http://www.python.org"#把图像文件保存至硬盘defgetImage(addr):

u=urllib.urlopen(addr)

data=u.read()

splitPath=addr.split('/')

fName=splitPath.pop()print"Saving

%s"%fName

f=open(fName,'wb')

f.write(data)

f.close()#定义HTML解析器classparseImages(HTMLParser.HTMLParser):defhandle_starttag(self,

tag, attrs):iftag=='img':forname,valueinattrs:ifname=='src':

getImage(urlString+"/"+value)#创建HTML解析器的实例lParser=parseImages()#打开HTML文件u=urllib.urlopen(urlString)print"Opening

URL\n===================="printu.info()#把HTML文件传给解析器lParser.feed(u.read())

lParser.close()

上述代码的运行结果如下所示:

Opening URL====================Date: Fri,26Jun200910:54:49GMT

Server: Apache/2.2.9(Debian)

DAV/2SVN/1.5.1mod_ssl/2.2.9OpenSSL/0.9.8g

mod_wsgi/2.3Python/2.5.2Last-Modified:

Thu,25Jun200909:44:54GMT

ETag:"105800d-46e7-46d29136f7180"Accept-Ranges: bytes

Content-Length:18151Connection: close

Content-Type: text/html

Saving python-logo.gif

Saving trans.gif

Saving trans.gif

Saving afnic.fr.png

三、从HTML文档中提取文本

处理HTML文档的时候,我们常常需要从其中提取出所有的文本。使用HTMLParser模块后,这项任务将变得非常简单了。首先,我们需要定义一个新的HTMLParser类,以覆盖handle_data()方法,该方法是用来解析并文本数据的。

importHTMLParserimporturllibclassparseText(HTMLParser.HTMLParser):defhandle_data(self,

data):ifdata!='\n':

urlText.append(data)

lParser=parseText()

lParser.feed(urllib.urlopen( \

http://docs.python.org/lib/module-HTMLParser.html).read())

定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

为了解析HTML文件的内容并显示包含其中的文本,我们可以使用feed(data)函数将数据传递给HTMLParser对象。HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。要注意的是,如果传给HTMLParser的feed()函数的数据不完整的话,那么不完整的标签会保存下来,并在下一次调用feed()函数时进行解析。当HTML文件很大,需要分段发送给解析器的时候,这个功能就会有用武之地了。下面是一个具体的代码示例:

importHTMLParserimporturllib

urlText=[]#定义HTML解析器classparseText(HTMLParser.HTMLParser):defhandle_data(self,

data):ifdata!='\n':

urlText.append(data)#创建HTML解析器的实例lParser=parseText()#把HTML文件传给解析器lParser.feed(urllib.urlopen( \

“http://docs.python.org/lib/module-HTMLParser.html” \

).read())

lParser.close()foriteminurlText:printitem

上面代码的运行输出过长,在此略过

四、从HTML文档中提取Cookies

很多时候,我们都需要处理Cookie,幸运的是Python语言的cookielib模块为我们提供了许多自动处理在HTML中的HTTP

Cookie的类。当处理要求为客户端设置Cookie的HTML文档的时候,这些类对我们非常有用。

importurllib2importcookielibfromurllib2importurlopen,

Request

cJar=cookielib.LWPCookieJar()

opener=urllib2.build_opener( \

urllib2.HTTPCookieProcessor(cJar))

urllib2.install_opener(opener)

r=Request(testURL)

h=urlopen(r)forind,

cookieinenumerate(cJar):print"%d

- %s"%(ind,

cookie)

cJar.save(cookieFile)

为了从HTML文档提取cookies,首先得使用cookielib模块的LWPCookieJar()函数创建一个cookie

jar的实例。LWPCookieJar()函数将返回一个对象,该对象可以从硬盘加载Cookie,同时还能向硬盘存放Cookie。

接下来,使用urllib2模块的build_opener([handler, . .

.])函数创建一个opener对象,当HTML文件打开时该对象将处理cookies。函数build_opener可以接收零个或多个处理程序(这些程序将按照它们被指定的顺序连接在一起)作为参数并返回一个。

注意,如果想让urlopen()使用opener对象来打开HTML文件的话,可以调用install_opener(opener)函数,并将opener对象传给它。否则,请使用opener对象的open(url)函数来打开HTML文件。

一旦已经创建并安装了opener对象,就可以使用urllib2模块中的Request(url)函数来创建一个Request对象,然后就能使用urlopen(Request)函数来打开HTML文件了。

打开HTML页面后,该页面的所有Cookie将被存放到LWPCookieJar对象中,之后,您可以使用LWPCookieJar对象的save(filename)函数了。

importosimporturllib2importcookielibfromurllib2importurlopen,

Request

cookieFile="cookies.dat"testURL='http://maps.google.com/'#为cookie

jar 创建实例cJar=cookielib.LWPCookieJar()#创建HTTPCookieProcessor的opener对象opener=urllib2.build_opener(

\

urllib2.HTTPCookieProcessor(cJar))#安装HTTPCookieProcessor的openerurllib2.install_opener(opener)#创建一个Request对象r=Request(testURL)#打开HTML文件h=urlopen(r)print"页面的头部\n======================"printh.info()print"页面的Cookies\n======================"forind,

cookieinenumerate(cJar):print"%d

- %s"%(ind,

cookie)#保存cookiescJar.save(cookieFile)

上述代码的运行结果如下所示:

页面的头部======================Cache-Control: private

Content-Type: text/html; charset=ISO-8859-1Set-Cookie: PREF=ID=5d9692b55f029733:NW=1:TM=1246015608:LM=1246015608:S=frfx--b3xt73TaEA; expires=Sun,26-Jun-201111:26:48GMT;

path=/; domain=.google.com

Date: Fri,26Jun200911:26:48GMT

Server: mfe

Expires: Fri,26Jun200911:26:48GMT

Transfer-Encoding: chunked

Connection: close

页面的Cookies======================0-

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值