Python爬虫实战项目------爬取天天基金

本文介绍了一个使用Python爬虫技术抓取天天基金数据的实战项目,涉及Beautifulsoup解析HTML、js2py处理JavaScript、正则表达式提取数据以及PyQt5界面设计。通过伪装头获取排行榜数据,实现搜索功能,将数据以颜色区分正负并在QTableWidget中展示。项目总结强调实践对于编程学习的重要性。
摘要由CSDN通过智能技术生成

爬虫实战项目------爬取天天基金

功能展示请添加图片描述

请添加图片描述

技术

  • 语言:python

  • Beautifulsoup解析html

  • js2py解析JavaScript

  • python 爬虫

  • 正则表达式提取数据

  • 界面设计用的PyQt5

功能片段

伪装头
# headers
headers = {
   
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.79 Safari/537.36',
    'Referer': 'http://fund.eastmoney.com/data/fundranking.html',
}

爬取天天基金排行榜数据
# 爬取排行榜基金数据
def getRankDatas():
    url = "http://fund.eastmoney.com/data/rankhandler.aspx?op=ph&dt=kf&ft=all&rs=&gs=0&sc=6yzf&st=desc&sd=2020-08-15&ed=2021-08-15&qdii=&tabSubtype=,,,,,&pi=1&pn=50&dx=1&v=0.6075346553325671"
    req = requests.get(url=url, headers=headers)
    datas = req.text
    db = js2py.eval_js(datas)#数据是JavaScript,要用js2py解析器解析
    data = db['datas']
    return data
搜索功能实现
# 搜索基金数据
def searchData(text):
    url = "http://fund.eastmoney.com/" + str(text) + ".html"
    req = urllib.request.Request(url=url, headers=headers)
    response = urllib.request.urlopen(req)
    bs = BeautifulSoup(response, "html.parser")#数据是HTML,要用BeautifulSoup解析器解析
    return bs

根据文本框内容爬取相应的基金信息页面,提取的是html中的数据

界面设计
class Table(QWidget):
    def __init__(self):
        super(Table, self).__init__()
        self.i
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

独一无二的VV

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值