爬虫总结
正则表达式
1.Python的re模块
在Python中,我们可以使用内置的re模块来使用正则表达式.
注意:正则表达式使用对特殊字符进行转义,所以如果我们要使用原始字符串,只需要加一个r前缀,示例:
r'hello\tworld'
2.re模块的一般使用步骤
1.使用compile()函数将正则表达式的字符串形式编译为一个Pattern对象
2.通过Pattern对象提供的一系列方法对文本进行匹配查找,获得匹配结果,一个Match对象
3.最后使用Match对象提供的属性和方法获得信息,根据需要进行其他的操作
compile函数:compile函数用于编译正则表达式,生成一个Pattern对象
Pattern对象的一些常用方法主要有:
match方法:从起始位置开始查找,一次匹配
search方法:从任何位置开始查找,一次匹配
findall方法:全部匹配,返回列表
finditer方法:全部匹配,返回迭代器
split方法:分割字符串,返回列表
sub方法:替换
Xpath
表达式 | 描述 |
---|---|
/ | 从根节点选取 |
// | 从匹配选择的当前节点选择文档中的节点,而不考虑他们的位置 |
. | 选取当前节点 |
.. | 选取当前节点的父节点 |
@ | 选取属性 |
bookstore | 选取bookstore元素的所有子节点 |
/bookstore | 选取根元素bookstore.注释:假如路径起始于正斜杠,则此路径始终代表到某元素的绝对路径 |
//book | 选取所有book子元素,而不管他们在文档中的位置 |
bookstore//book | 选取属于bookstore元素的后代的所有book元素,而不管他们位于bookstore之下的什么位置 |
//@lang | 选取名为lang的所有属性 |
/bookstore/book[1] | 选取属于bookstore子元素的第一个book元素 |
/bookstore/book[last()] | 选取属于bookstore子元素的最后一个book元素 |
/bookstore/book[last()-1] | 选取属于bookstore子元素的倒数第二个book元素 |
/bookstore/book[position()<3] | 选取最前面的两个属于bookstore元素的子元素的book元素 |
//title[@lang] | 选取所有拥有名为lang的属性title元素 |
//title[@lang=’eng’] | 选取所有title元素,且这些元素拥有值为eng的lang属性 |
/bookstore/book[price>35.00] | 选取bookstore元素的所有book元素,且其中的price元素的值需要大于35.00 |
/bookstore/book[price>35.00]/title | 选取bookstore元素中的book元素的所有title元素,其中的price元素的值必须大于35.00 |
* | 匹配任何元素节点 |
@* | 匹配任何属性节点 |
node() | 匹配任何类型的节点 |
/bookstore/* | 选取bookstore元素的所有子元素 |
//* | 选取文档中的所有元素 |
//title[@*] | 选取所有带有属性的title元素 |
lxml库
可以使用pip安装:pip install lxml
#初步使用
#利用etree.HTML,将字符串解析为HTML文档
html = etree.HTML(text)
#按字符串序列化为HTML文档
result = etree.toString(html)
print(result)
CSS选择器:BeautifulSoup4
和lxml一样,BeautifulSoup也是一个HTML/XML的解析器,主要的功能也是如何解析和提取HTML/XML数据
lxml只会局部遍历,而BeautifulSoup是基于HTML DOM的,会载入整个文档,解析整个DOM树,因此时间和内存开销都会大很多,所以性能要低于lxml
BeautifulSoup用来解析HTML比较简单,API非常人性化,支持CSS选择器,Python标准库中的HTML解析器,也支持lxml的XML解析器
BeautifulSoup3目前已经停止开发,推荐现在的项目使用BeautifulSoup4.使用pip命令安装即可
抓取工具 | 速度 | 使用难度 | 安装难度 |
---|---|---|---|
正则 | 最快 | 困难 | 无(内置) |
BeautifulSoup | 慢 | 最简单 | 简单 |
lxml | 快 | 简单 | 一般 |
JSON
json简单来说就是javascript中的对象和数组,所以这两种结构就是对象和数组两种结构,通过这两种结构可以表示各种复杂的结构
1.对象:对象在js中表示为{}括起来的内容,数据结构为{key : value , key : value , …}的键值对的结构,在面向对象的语言中,key为对象的属性,value为对应的属性值,所以很容易理解,取值方法为对象key获取属性值,这个属性值得类型可以是数字,字符串,数组,对象这几种
2.数组:数组在js中是中括号[]括起来的内容,数据结构为[“Python”,”javascript”,”c++”,….],取值方式和所有语言中的一样,使用索引获取,字段值得类型可以是数字,字符串,数组,对象几种.
1.json.loads():把Json格式字符串解码为Python对象,从json到python的类型转化对照如下:
import json
strList = '[1, 2, 3, 4]'
strDict = '{"city": "北京", "name": "大猫"}'
json.loads(strList)
# [1, 2, 3, 4]
json.loads(strDict) # json数据自动按Unicode存储
# {u'city': u'\u5317\u4eac', u'name': u'\u5927\u732b'}
2.json.dumps():实现python类型转换为json字符串,返回一个str对象.
import json
import chardet
listStr = [1, 2, 3, 4]
tupleStr = (1, 2, 3, 4)
dictStr = {"city": "北京", "name": "大猫"}
json.dumps(listStr)
# '[1, 2, 3, 4]'
json.dumps(tupleStr)
# '[1, 2, 3, 4]'
# 注意:json.dumps() 序列化时默认使用的ascii编码
# 添加参数 ensure_ascii=False 禁用ascii编码,按utf-8编码
# chardet.detect()返回字典, 其中confidence是检测精确度
json.dumps(dictStr)
# '{"city": "\\u5317\\u4eac", "name": "\\u5927\\u5218"}'
chardet.detect(json.dumps(dictStr))
# {'confidence': 1.0, 'encoding': 'ascii'}
print json.dumps(dictStr, ensure_ascii=False)
# {"city": "北京", "name": "大刘"}
chardet.detect(json.dumps(dictStr, ensure_ascii=False))
# {'confidence': 0.99, 'encoding': 'utf-8'}
3.json.dump():将python内置类型序列化为json对象后写入文件
import json
listStr = [{"city": "北京"}, {"name": "大刘"}]
json.dump(listStr, open("listStr.json","w"), ensure_ascii=False)
dictStr = {"city": "北京", "name": "大刘"}
json.dump(dictStr, open("dictStr.json","w"), ensure_ascii=False)
4.json.load():读取文件中json形式的字符串元素转化为python类型
import json
strList = json.load(open("listStr.json"))
print strList
# [{u'city': u'\u5317\u4eac'}, {u'name': u'\u5927\u5218'}]
strDict = json.load(open("dictStr.json"))
print strDict
# {u'city': u'\u5317\u4eac', u'name': u'\u5927\u5218'}
4.JsonPath
JsonPath是一种信息抽取类库,使用JSON文档中抽取指定信息的工具,提供多种语言实现版本,包括:Javascript,Python,PHP和Java
JsonPath对于JSON来说,相当于XPATH对于XML
#以拉钩网城市JSON文件为例,获取所有城市
import urllib2
import jsonpath
import json
import chardet
url = 'http://www.lagou.com/lbs/getAllCitySearchLabels.json'
request = urllib2.Request(url)
response = urllib2.urlopen(request)
html = response.read()
#把json格式字符串转换为python对象
jsonobj = json.loads(html)
#从根节点开始,匹配name节点
citylist = jsonpath.jsonpath(jsonobj , '$..name')
print citylist
print type(citylist)
fp = open('city.json' , 'w')
content = json.dumps(citylist , ensure_ascii = False)
print content
fp.write(content.encode('utf-8'))
fp.close()
注意事项:
json.loads()是把Json格式字符串解码转换成Python对象,如果在json.loads的时候出错,要注意被解码的Json字符的编码.如果传入的字符串的编码不是UTF-8的话,需要指定字符编码的参数,encoding
dataDict = json.loads(jsonStrGBK)
jsonStrGBK是JSON字符串,假设其编码本身是非UTF-8,而是GBK,那么上述代码会导致出错,改为对应的:
dataDict = json.loads(jsonStrGBK , encoding = “GBK”)
#字符串编码转换,这是中国程序员最苦逼的地方,什么乱码之类的几乎都是由汉子引起的.其实编码问题很好搞定,只要记住一点:任何平台的任何编码,都能和Unicode互相转换
#UTF-8与GBK互相转换,那就先把UTF-8转换成Unicode,在从Unicode转换为GBK
#这是一个UTF-8编码的字符串
utf8Str = "你好地球"
#1.将UTF-8编码的字符串转换为Unicode编码
unicodeStr = utf8Str.decode("UTF-8")
#2.再将Unicode编码格式字符串转换为GBK编码
gbkData = unicodeStr.encode("gbk")
#decode的作用是将其他编码的字符串转换为Unicode编码
#encode的作用是将Unicode编码转换成其他编码的字符串
#一句话:UTF-8是对Unicode字符集进行编码的一种编码方式