天秀!Pandas还能用来写爬虫?

copy 公众号:python读财
链接:https://mp.weixin.qq.com/s/Oyv0-tRMs1VZbpaXDVvscw

谈及Pandas的read.xxx系列的函数,大家的第一反应会想到比较常用的***pd.read_csv()***和***pd.read_excel()***,大多数人估计没用过***pd.read_html()***这个函数。

虽然它低调,但功能非常强大,用于抓取Table表格型数据时,简直是个神器。下面来详细介绍一下。

大家逛网页时,经常会看到这样一些数据表格,比如:

在这里插入图片描述

如果查看一下网页的HTML结构(Chrome浏览器F12),会发现它们有个共同的特点,不仅是表格,还是以Table结构展示的表格数据,大致的网页结构如下
在这里插入图片描述

针对网页结构类似的表格类型数据,pd.read_html()就派上了大用场了,它可以将网页上的表格都抓取下来,并以DataFrame的形式装在一个列表中返回。具体是这么个流程:

在这里插入图片描述

先介绍一下read_html的一些主要的参数
在这里插入图片描述

接下来以爬取新浪财经的基金重仓股为例演示一下,URL为:http://vip.stock.finance.sina.com.cn/q/go.php/vComStockHold/kind/jjzc/index.phtml?p=1
这部分有6页,点击不同的页数可以发现,请求URL主要是p参数在变动,p=n代表了第n页,所以一个for循环就可以遍历所有网址啦。URL的变动规律了解之后,就可以愉快的爬数据了,上代码

import pandas as pd
df = pd.DataFrame()
for i in range(6):
    url = 'http://vip.stock.finance.sina.com.cn/q/go.php/vComStockHold/kind/jjzc/index.phtml?p={page}'.format(page=i+1)
    df = pd.concat([df,pd.read_html(url)[0]])
    print("第{page}页完成~".format(page=i+1))
df.to_csv('./data.csv',encoding='utf-8',index=0)

在这里插入图片描述

菜鸡的我涨知识了

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值