说到爬虫,大家可能都知道requests、re、scrapy、selenium等等一些工具库。虽然它低调,但功能非常强大,用于抓取Table表格型数据时,简直是个神器,没有必要去F12研究HTML页面结构甚至写正则表达式解析字段。
1. pandas.read_html爬虫的步骤:
读取网页: 使用pandas的read_html函数读取网页。read_html函数可以从网页中读取多个表格,并将它们存储为DataFrame对象的列表。
解析表格: 使用pandas的read_html函数解析表格数据。
2.适用范围: 只能爬取,特定含有 Table 结构的网页数据,如下所示。
<table class="..." id="...">
<thead>
<tr>
<th>...</th>
</tr>
</thead>
<tbody>
<tr>
<td>...</td>
</tr>
<tr>...</tr>
<tr>...</tr>
...
<tr>...</tr>
<tr>...</tr>
</tbody>
</table>
3.pandas.read_html()函数是一个非常方便的函数,可以用于从HTML文件中提取表格数据。常用的参数用法:
-
io:url、html文本、本地文件等
-
header:标题行
-
flavor:解析器
-
skiprows:跳过的行
-
attrs:属性,例如:attrs = {‘id’:‘table’}
-
parse_dates:解析日期
需要注意的是,该函数返回的结果是DataFrame组成的list,需要最后加上一个索引。当网页中含有多个表格时,可以通过指定header参数来选择需要提取的表格。
4.示例源码1: 选取百度百科中的世界500强企业表格
import pandas as pd
url = 'https://baike.baidu.com/item/%E4%B8%96%E7%95%8C500%E5%BC%BA?fromModule=lemma_search-box'
df = pd.read_html(io=url, header=0)[1]
print(df)
示例源码2: 爬取2023年杭州空气质量数据
http://www.tianqihoubao.com/aqi/hangzhou-202301.html
import pandas as pd
time_lists = pd.date_range('20230101', '20231101', freq='MS').strftime('%Y%m') # 构造出日期序列 便于之后构造url
print(time_lists, len(time_lists))
for i in range(len(time_lists)):
url = f'http://www.tianqihoubao.com/aqi/hangzhou-{time_lists[i]}.html'
print(f'正在下载第{i+1}页数据,{url}'.center(80, '-'))
tables = pd.read_html(url, encoding='gbk', header=0)[0]
print(tables)
# 保存数据,多页数据,避免重复写入header=False
if i == 0:
tables.to_csv('2023年杭州空气质量数据.csv', mode='a+', index=False)
else:
tables.to_csv('2023年杭州空气质量数据.csv', mode='a+', index=False, header=False)
感兴趣的小伙伴,赠送全套Python学习资料,包含面试题、简历资料等具体看下方。
一、Python所有方向的学习路线
Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。
二、Python必备开发工具
工具都帮大家整理好了,安装就可直接上手!
三、最新Python学习笔记
当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
四、Python视频合集
观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
五、实战案例
纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
六、面试宝典