2024年Python最新【Python】抓取基金数据,这简直太爱了_如何爬取基金数据

1.分析网页
2.对网页发送请求,获取响应
3.提取解析数据
4.保存数据

Python版本:3.6.5
import requests
import time
import csv
import re

分析网页

其实这个网站的网页数据没有太多的反爬,就是网页需要构建一个params的参数,该参数里面包含了网页翻页的数据,时间戳的数据,这些是动态的,需要怎么自己指定一下,如图所示:

在这里插入图片描述

如上分析后,就可以对该链接发送请求了,但是这个网站还有一个和别的地方不一样的,他给你返回的不是html源码,也不是json数据,而是字符数据,如图:
在这里插入图片描述

我们可以看到这些不同html和json数据,所以就需要用到正则表达式老进行过滤提取了。经过以上分析,我的大体思路就是,先爬取一页的数据,利用正则提取,能成功爬取到一页的数据后,只用做一个循环遍历,就可以爬取多页的数据了。

在这里插入图片描述

代码部分:

构建请求需要的参数

###
###Python学习交流Q群:906715085####
 def get\_params(self):   
      """ 
 构建params参数的方法 
 :return: 
学好 Python 不论是就业还是做副业赚钱都不错,但要学会 Python 还是要有一个学习规划。最后大家分享一份全套的 Python 学习资料,给那些想学习 Python 的小伙伴们一点帮助!



### 一、Python所有方向的学习路线



Python所有方向路线就是把Python常用的技术点做整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。



![](https://img-blog.csdnimg.cn/img_convert/9f49b566129f47b8a67243c1008edf79.png)



### 二、学习软件

工欲善其事必先利其器。学习Python常用的开发软件都在这里了,给大家节省了很多时间。



![](https://img-blog.csdnimg.cn/img_convert/8c4513c1a906b72cbf93031e6781512b.png)



### 三、全套PDF电子书



书籍的好处就在于权威和体系健全,刚开始学习的时候你可以只看视频或者听某个人讲课,但等你学完之后,你觉得你掌握了,这时候建议还是得去看一下书籍,看权威技术书籍也是每个程序员必经之路。

![](https://img-blog.csdnimg.cn/img_convert/46506ae54be168b93cf63939786134ca.png)



### 四、入门学习视频

我们在看视频学习的时候,不能光动眼动脑不动手,比较科学的学习方法是在理解之后运用它们,这时候练手项目就很适合了。



![](https://img-blog.csdnimg.cn/afc935d834c5452090670f48eda180e0.png?x-oss-process=image/watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA56iL5bqP5aqb56eD56eD,size_20,color_FFFFFF,t_70,g_se,x_16#pic_center)



### 五、实战案例



光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。



![](https://img-blog.csdnimg.cn/img_convert/252731a671c1fb70aad5355a2c5eeff0.png)



### 六、面试资料

我们学习Python必然是为了找到高薪的工作,下面这些面试题是来自阿里、腾讯、字节等一线互联网大厂最新的面试资料,并且有阿里大佬给出了权威的解答,刷完这一套面试资料相信大家都能找到满意的工作。



![](https://img-blog.csdnimg.cn/img_convert/6c361282296f86381401c05e862fe4e9.png)  

![](https://img-blog.csdnimg.cn/img_convert/d2d978bb523c810abca3abe69e09bc1a.png)




**网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**

**[需要这份系统化学习资料的朋友,可以戳这里无偿获取](https://bbs.csdn.net/topics/618317507)**

**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**
  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
使用 Python 和 Beautiful Soup 进行多页数据爬取的一般步骤如下: 1. 导入所需的库: ```python import requests from bs4 import BeautifulSoup ``` 2. 构造爬取多个页面的 URL 列表: ```python url_list = ['http://example.com/page1', 'http://example.com/page2', 'http://example.com/page3'] ``` 3. 循环遍历 URL 列表,逐个请求页面并解析数据: ```python for url in url_list: # 发送 GET 请求并获取响应内容 response = requests.get(url) # 创建 Beautiful Soup 对象并指定解析器 soup = BeautifulSoup(response.content, 'html.parser') # 解析数据 # ... ``` 4. 在循环中解析数据,可以使用 Beautiful Soup 提供的方法,例如 find_all() 和 select()。下面是一个示例代码: ```python for url in url_list: # 发送 GET 请求并获取响应内容 response = requests.get(url) # 创建 Beautiful Soup 对象并指定解析器 soup = BeautifulSoup(response.content, 'html.parser') # 解析数据 items = soup.select('.item') for item in items: title = item.select_one('.title').text.strip() price = item.select_one('.price').text.strip() # 处理数据 # ... ``` 这里使用了 CSS 选择器来定位需要的元素,具体可以参考 Beautiful Soup 的文档。 5. 处理数据。在循环中处理数据的方法取决于具体情况,可以将数据保存到文件或数据库中,也可以将数据放入列表或字典中进行进一步处理。 完整的代码示例: ```python import requests from bs4 import BeautifulSoup url_list = ['http://example.com/page1', 'http://example.com/page2', 'http://example.com/page3'] for url in url_list: # 发送 GET 请求并获取响应内容 response = requests.get(url) # 创建 Beautiful Soup 对象并指定解析器 soup = BeautifulSoup(response.content, 'html.parser') # 解析数据 items = soup.select('.item') for item in items: title = item.select_one('.title').text.strip() price = item.select_one('.price').text.strip() # 处理数据 # ... ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值