《Python网络爬虫与信息提取》第三周 网络爬虫之实战 学习笔记(三)“股票数据定向爬虫”实例

本文介绍了使用Python进行股票数据定向爬虫的实践,包括从东方财富网获取股票列表,再到百度股票抓取个股信息,最终将数据保存到文件。优化方面,通过编码识别优化提高了爬取速度,并添加了动态进度显示提升用户体验。
摘要由CSDN通过智能技术生成

目录

三、“股票数据定向爬虫”实例

1、“股票数据定向爬虫”实例介绍

(1)功能描述

(2)候选数据网站的选择

(3)程序的结构设计

2、“股票数据定向爬虫”实例编写

3、“股票数据定向爬虫”实例优化

(1)速度提高:编码识别的优化

(2)体验提高:增加动态进度显示


三、“股票数据定向爬虫”实例

1、“股票数据定向爬虫”实例介绍

(1)功能描述

目标:获取上交所和深交所所有股票的名称和交易信息。

输出:保存到文件中。

技术路线:requests­-bs4-­re。

(2)候选数据网站的选择

①新浪股票:http://finance.sina.com.cn/stock/

②百度股票:https://gupiao.baidu.com/stock/

备注:原来的百度股票网页链接已失效;故更改为https://so.cfi.cn/so.aspx?txquery=。原来的东方财富网网页链接已无法爬取数据;故更改为http://quote.eastmoney.com/stock_list.html#sh

选取原则:股票信息静态存在于HTML页面中,非js代码生成,没有Robots协议限制。

选取方法:浏览器F12,源代码查看等。

选取心态:不要纠结于某个网站,多找信息源尝试。

(3)程序的结构设计

步骤1:从东方财富网获取股票列表。

步骤2:根据股票列表逐个到百度股票获取个股信息。

步骤3:将结果存储到文件。

2、“股票数据定向爬虫”实例编写

# “股票数据定向爬虫”实例编写
# 错误
import requests
from bs4 import BeautifulSoup
import traceback
import re

def getHTMLText(url):
    try:
        r = requests.get(url, timeout=30)
        r.raise_for_status()
        r.encoding = r.apparent_encoding
        return r.text
    except:
        return ""


def getStockList(lst, stockURL):
    html = getHTMLText(stockURL)
   
  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值