初识爬虫
- from import是引入库
例如打印当前时间
from datetime import datetime
print(datetime.now())
或者
import datetime
print(datetime.datetime.now())
urlopen 用来打开并读取一个从网络获取的远程对象。因为它是一个非常通用的库(它可以轻松读取 HTML 文件、 图像文件,或其他任何文件流),包含了从网络请求数据, 处理 cookie,甚至改变像请求头和用户代理这些元数据的函数。
安装pip
https://pypi.python.org/pypi/pip/9.0.1#downloads
下载.gz文件解压,运行里面的setup.pywarning
No parser(解释器) was explicitly specified, so I’m using the best available HTML parser for this system (“html.parser”). This usually isn’t a problem, but if you run this code on another system, or in a different virtual environment, it may use a different parser and behave differently.
这里执行用的是python 1.py已经指定了用python来执行,没有任何问题。但是比如在linux下面希望直接用./xxx.py执行可以在.py文件第一行加上#!/usr/bin/pythonBeautifulSoup 库,需要额外安装
安装指令:pip install beautifulsoup4
作用:结合正则表达式提取html/xml文件中的信息
********html结构********
html → <html><head>...</head><body>...</body></html>
— head → <head><title>A Useful Page<title></head>
— title → <title>A Useful Page</title>
— body → <body><h1>An Int...</h1><div>Lorem ip...</div></body>
— h1 → <h1>An Interesting Title</h1>
— div → <div>Lorem Ipsum dolor...</div>
我们从网页中提取的 <h1> 标签被嵌在 BeautifulSoup 对象 bsObj 结构的第二层(html → body → h1)。但是,当我们从对象里提取 h1 标签的时候,可以直接调用它:bsObj.h1
其实,下面的所有函数调用都可以产生同样的结果:
bsObj.html.body.h1
bsObj.body.h1
bsObj.html.h1
- 示例程序
from urllib.request import urlopen
from urllib.error import HTTPError
from bs4 import BeautifulSoup
def getTitle(url):
try:
html = urlopen(url)
except HTTPError as e: #网页在服务器上不存在(或者获取页面的时候出现错误)
return None
#服务器不存在的情况,抛出 AttributeErro,html 也是一个 None 对象
try:
bsObj = BeautifulSoup(html.read(),"html.parser")
title = bsObj.body.h1
except AttributeError as e: #网页上没有该项内容
return None
return title
title = getTitle("http://www.pythonscraping.com/pages/page1.html")
if title == None:
print("Title could not be found")
else:
print(title)
html格式
- 基本上,你见过的每个网站都会有层叠样式表(Cascading Style Sheet, CSS)
nameList = bsObj.findAll("span", {"class":"green"})
for name in nameList:
print(name.get_text())
#之前,我们调用 bsObj.tagName 只能获取页面中的第一个指定的标签。现在,我们调用 bsObj.findAll(tagName, tagAttributes) 可以获取页面中所有指定的标签,不再只是第一个了
.get_text() 会把你正在处理的 HTML 文档中所有的标签都清除,然后返回一个只包含文字的字符串。 假如你正在处理一个包含许多超链接、段落和标签的大段源代码, 那么 .get_text() 会把这些超链接、段落和标签都清除掉,只剩下一串不带标签的文字。
用 BeautifulSoup 对象查找你想要的信息,比直接在 HTML 文本里查找信息要简单得多。 通常在你准备打印、存储和操作数据时,应该最后才使用 .get_text()。一般情况下,你应该尽可能地保留 HTML 文档的标签结构。BeautifulSoup的find()和findAll()
findAll(tag, attributes, recursive, text, limit, keywords)
find(tag, attributes, recursive, text, keywords)- 标签参数 tag 前面已经介绍过——你可以传一个标签的名称或多个标签名称组成的 Python列表做标签参数。
例如,下面的代码将返回一个包含 HTML 文档中所有标题标签的列表:.findAll({“h1”,”h2”,”h3”,”h4”,”h5”,”h6”}) - 属性参数 attributes 是用一个 Python 字典封装一个标签的若干属性和对应的属性值。例如,下面这个函数会返回 HTML 文档里红色与绿色两种颜色的 span 标签:.findAll(“span”, {“class”:{“green”, “red”}})
- 递归参数 recursive 是一个布尔变量。你想抓取 HTML 文档标签结构里多少层的信息?如果recursive 设置为 True, findAll 就会根据你的要求去查找标签参数的所有子标签,以及子标签的子标签。如果 recursive 设置为 False, findAll 就只查找文档的一级标签。 findAll默认是支持递归查找的(recursive 默认值是 True);一般情况下这个参数不需要设置,除非你真正了解自己需要哪些信息,而且抓取速度非常重要,那时你可以设置递归参数
- 文本参数 text 有点不同,它是用标签的文本内容去匹配,而不是用标签的属性。假如我们
想查找前面网页中包含“the prince” 内容的标签数量,我们可以把之前的 findAll 方法换
成下面的代码:
nameList = bsObj.findAll(text=”the prince”)
print(len(nameList)) - 范围限制参数 limit,显然只用于 findAll 方法。 find 其实等价于 findAll 的 limit 等于1 时的情形。如果你只对网页中获取的前 x 项结果感兴趣,就可以设置它。但是要注意,这个参数设置之后,获得的前几项结果是按照网页上的顺序排序的,未必是你想要的那
前几项。 - 还有一个关键词参数 keyword,可以让你选择那些具有指定属性的标签。例如:
allText = bsObj.findAll(id=”text”)
print(allText[0].get_text()) - 注意:class在python中是保留字——bsObj.findAll(class_=”green”)
- 标签参数 tag 前面已经介绍过——你可以传一个标签的名称或多个标签名称组成的 Python列表做标签参数。
正则表达式
当我们动手开始写正则表达式的时候,最好先写一个步骤列表描述出你的目标字符串结构。
还要注意一些细节的处理。比如,当你识别电话号码的时候,会考虑国家代码和分机号吗?