基于python文本挖掘实战_Python 网络抓取和文本挖掘-1 H

偶然在图书馆看到《基于R语言的自动数据收集:网络抓取和文本挖掘实用指南》,被第一章概述所吸引,迫不及待地借回来,下载代码在RStuido里进行实验。然后断断续续,囫囵吞枣式地翻了一遍,增长了知识,但没有如预期提升技能。决定换一种方式,照着书里的内容,用Python实现一遍,作为读书笔记。 结果第一章就遇到困难了,要实现第一章的例子需安装basemap、geos等一系列包,还要实现对表格数据的提取。那就从第二章开始吧,直到第八章,然后再回过头来完成第一章的例子。

1. HTML

1) HTML一个纯文本文件。

2) HTML的标记能够定义文档的某些部分为标题、某些部分为链接、某些部分为表格,还有其它多种形式。

3) 标记定义依赖于预先定义好的字符序列(即标签,如 、

等)来封装文本部分。

4) 用浏览器打开一个html文件,看到的是浏览器对这个hrml文件的解释和展现。

5) 起始标签(如

)、内容和终止标签(如)组合起来称为元素。First HTML

6) HTML文件是一个树形结构。

2. HTMLParser

HTMLParser是python 自带的一个解析html的类,通过重载它的方法,解析出所需要的数据。查看帮助文档:https://docs.python.org/2/library/htmlparser.html

直接拷贝帮助文档的例子稍作修改,就可以用作提取数据。

1)常用的属性属性:lasttag

2) 常用的可重载的方法:

handle_starttag(self, tag, attrs):

handle_endtag(self, tag):

handle_data(self, data):

handle_comment(self, data):

3)实例

从 http://www.r-datacollection.com/materials/html/fortunes.html 网页中提取用标签标记的内容

只要了解了urllib2和HTMLParser的使用,实现很简单,在MyHTMLParser类中定义了一个属性 data存放读取到的数据。源码如下:# -*- coding:utf-8 -*-

import urllib2

from HTMLParser import HTMLParser

class MyHTMLParser(HTMLParser):

def __init__(self):

HTMLParser.__init__(self)

self.data = []

def get_data(self):

return self.data

def handle_data(self, data):

if self.lasttag == 'i':

if data != None and len(data.strip()) > 0:

s = data.strip("'")

self.data.append(s)

def get_html(url = 'http://www.r-datacollection.com/materials/html/fortunes.html'):

request = urllib2.Request(url)

response = urllib2.urlopen(request)

page = response.read()

parser = MyHTMLParser()

parser.feed(page)

parser.close()

for line in parser.get_data():

print line

if __name__ == '__main__':

get_html()

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值