python分析基金数据,Python 爬取基金数据案例

爬取基金数据案例

爬虫常规思路:

1.分析网页

2.对网页发送请求,获取响应

3.提取解析数据

4.保存数据

本案例所用到的模块:

import requests

import time

import csv

import re

网址链接:http://fund.eastmoney.com/Data/Fund_JJJZ_Data.aspx

一、分析网页

其实这个网站的网页数据没有太多的反爬,就是网页需要构建一个params的参数,该参数里面包含了网页翻页的数据,时间戳的数据,这些是动态的,需要怎么自己指定一下,如图所示:

12a932c2a7aba7b7fa22b78ae02d9353.png

如上分析后,就可以对该链接发送请求了,但是这个网站还有一个和别的地方不一样的,他给你返回的不是html源码,也不是json数据,而是字符数据,如图:

1885b411f4c3fcd99471222301f077bf.png

我们可以看到这些不同html和json数据,所以就需要用到正则表达式老进行过滤提取了。

经过以上分析,我的大体思路就是,先爬取一页的数据,利用正则提取,能成功爬取到一页的数据后,只用做一个循环遍历,就可以爬取多页的数据了。

二、先构建需要请求网页所需的params参数

代码如下:

def get_params(self):

"""

构建params参数的方法

:return:

"""

params = {

"t": "1",

"lx": "1",

"letter": "",

"gsid": "",

"text": "",

"sort": "zdf,desc",

"page": f"{str(self.page)},200",

"dt": str(self.TIMESTRF),

"atfc": "",

"onlySale": "0",

}

return params

dt这个参数上面说了,是一个不正规的时间戳,那么我们怎么办,思路是,用time模块先提取出真正的当前时间戳,然后用int()把它强制转换成整数,然后乘以1000,就可以得到这个不正规的时间戳了,在构建的时候,在把这个时间戳转换成str()就可以了。

int(time.time()) * 1000

三、对网页发送请求,获取响应

def parse_url(self, url):

"""

发送请求,获取响应数据的方法

:param url:

:return:

"""

params = self.get_params()

response = requests.get(url, headers=self.headers, params=params)

if response.status_code == 200:

return response.content.decode()

四、提取解析数据

def get_data(self, data_str):

"""

提取基金数据的方法

:param data_str:

:return:

"""

str_data = re.findall('var db=.*,datas:(.*),count:.*}', data_str, re.S)[0]

data_list = eval(str_data)

for data in data_list:

yield {

'基金代码': data[0],

'基金简称': data[1],

'单位净值': data[3],

'累计净值': data[4],

'日增长值': data[6],

'日增长率': data[7],

'手续费': data[17]

}

这一步就是提取数据的时候,先把这些请求到的字符数据,使用正则表达式,提取出像列表一样的字符数据,然后转换成真正的列表数据,遍历这个列表数据,这个列表数据是一个,大列表里面包含了很多小列表,每一个小列表里面就是我们需要爬取的数据,我们通过索引取值的方法,把我们需要的数据给提取出来。

五、完整思路和保存数据

def run(self):

"""

实现主要逻辑思路

:return:

"""

with open('./jjData.csv', 'a', encoding='utf-8-sig', newline="") as csvfile:

fieldnames = ['基金代码', '基金简称', '单位净值', '累计净值', '日增长值', '日增长率', '手续费']

write_dict = csv.DictWriter(csvfile, fieldnames=fieldnames)

write_dict.writeheader()

# 1,发送请求,获取响应数据

data_str = self.parse_url(self.API_URL)

# 2,提取数据

fund_data_list = self.get_data(data_str)

for fund_data in fund_data_list:

print(fund_data)

# 3,保存数据

write_dict.writerow(fund_data)

保存后的数据效果:

61310f101378276a99edbcd8c7c62e13.png

标签:网页,Python,数据,self,爬取,案例,params,str,data

来源: https://blog.csdn.net/weixin_46913162/article/details/113557368

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值