Python爬虫入门实例八之股票数据定向爬取并保存(优化版)

写在前面

  昨天在学习中国MOOC嵩天老师的课程时,到了股票信息的定向爬取实例,但是因为视频是两年前的了,而且例子中的很多网站也都不能再用了。所有今天写这篇文章分享一下我的采坑经历,并且为大家提供完整的代码供小伙伴们参考,下图是我爬取数据并保存在txt文件中的截图。

在这里插入图片描述

一、准备工作

  这一部分嵩天老师在课程中给出了详细的介绍,我整理并分享给大家。

1.功能描述

目标:获取上交所和深交所所有股票的名称和交易信息

输出:保存到文件中

技术路线:requests ­bs4­ re

2.候选数据网站的选择

新浪股票:http://finance.sina.com.cn/stock/(由于数据保存在js中,目前技术无法爬取)

百度股票:https://gupiao.baidu.com/stock/(网站已停止维护,链接不存在)

选取原则:股票信息静态存在于HTML页面中,而不是通过js代码生成,没有Robots协议限制。

选取方法:浏览器F12,源代码查看等。

选取心态:不要纠结于某个网站,多找信息源尝试。

3.程序的结构设计

步骤1:从东方财富网获取股票列表

步骤2:根据股票列表逐个到百度股票获取个股信息

步骤3:将结果存储到文件

4.本篇选取的数据网站

  经过我多次查找,反复比较,最终选定了股城网。股城网的页面结构和之前的百度股票很相似,所以在源代码上也更贴近嵩天老师的内容。

(1)网站链接

链接:https://hq.gucheng.com/gpdmylb.html

(2)网站内容

网站截图:

在这里插入图片描述

二、数据网站分析

  为了能够编写相应代码解析数据网站内容,我们必须要对数据网站的布局进行分析,去查看它的源代码。

1.股票列表的分析

在这里插入图片描述
  通过对股票列表源代码的分析,我们发现所有的股票代码都存放在a标签内的href当中,我们只要把他解析出来就可以获得相应的股票代码。

2.个股信息的分析

在这里插入图片描述
  这里我选取了平安银行(000001)股票进行其源代码的查看。通过对股票个股信息的分析,我们发现一只股票的全部信息封装在一个div标签下,它的属性名是stock_top clearfix。股票的名称封装在header 标签下,它的属性名是stock_title。再通过观察我们发现,所有的股票信息都存在dt和dd标签下,其中dt存储的是信息键的部分,dd存储的是信息值的部分,所以我们可以先用find_all()方法找到所有的键和值,然后构建键值对来表示并存储在字典中。

三、编程过程

1.使用到的库

import requests
from bs4 import BeautifulSoup
import  traceback
import re

2.获取页面(编写getHTMLText()函数)

def getHTMLText(url,code='UTF-8'):
    try:
        r = requests.get(url,headers=kv,timeout = 30)
        r.raise_for_status()
        #r.encoding = r.apparent_encoding
        r.encoding = code
        return r.text
    except:
        return ""

3.获取股票的信息列表(编写getStockList()函数)

def getStockList(lst,stockURL):#获得股票的信息列表
#第一个参数表示列表保存的列表类型,存储了所有股票的信息,第二个参数是获得股票列表的URL网站
    html = getHTMLText(stockURL,'UTF-8')
    soup = BeautifulSoup(html,'html.parser')#解析页面
    a = soup.find_all('a')#找到所有的a标签
    for i in a:
        try:
            href = i.attrs[
淘宝商品信息定向爬虫是一种用于获取淘宝网站上商品信息的程序。它可以通过编写代码来自动访问淘宝网站,登录用户账号,爬取商品的价格和名称等相关信息。这个爬虫可以根据用户的需求进行定制,例如可以指定要爬取的商品类别或关键词。为了实现这个爬虫,可以使用浏览器工具(如Google浏览器)来访问淘宝网站,编写代码来提取所需的数据。在爬取过程中,需要注意淘宝商品的排名是实时更新的,所以爬取结果的顺序可能与网站上的顺序不完全一致。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [《Python网络爬虫与信息提取》第三周 网络爬虫之实战 学习笔记(二)“淘宝商品信息定向爬虫实例](https://blog.csdn.net/wyatt007/article/details/105433009)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *3* [Python爬虫入门实例五之淘宝商品信息定向爬取(优化)](https://blog.csdn.net/weixin_44578172/article/details/109356900)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

我敲的贼快

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值