Python爬虫,A股上市公司爬虫,爬取A股上市公司股票信息、公司信息、公司高管信息、相关股票信息

A股上市公司爬虫

项目介绍

主要爬取A股上市公司股票信息、公司信息、公司高管信息、相关股票信息,

环境:
python  2.7.16
Scrapy  1.7.2
mysql   5.7.25

数据来源

  • 新浪财经
项目结构
├── README.md
├── scrapy.cfg
└── zju_spider
    ├── DBUtil.py                   //数据库工具类
    ├── __init__.py                 //可用于启动各个爬虫脚本
    ├── items.py                    //scrapy 数据载体
    ├── middlewares.py              //scrapy 组件
    ├── pipelines.py                //scrapy 管道持久化文件
    ├── schedule.py                 //定时器
    ├── settings.py                 //scrapy 项目设置文件
    ├── spiders
    │   ├── CorpSpider.py           //公司爬虫
    │   ├── ManagerSpider.py        //高管爬虫
    │   ├── NewsSpider.py           //新闻爬虫
    │   ├── StockSpider.py          //股票爬虫
    │   ├── __init__.py
    └── 数据对比-证监会.xlsx

使用说明
  • scrapy 方式依次单独启动各个爬虫
scrapy crawl StockSpider
scrapy crawl ...
  • 脚本方式依次单独启动各个爬虫
python zju_spider/__init__.py
//此方式适合idea配置运行项目

在这里插入图片描述

  • 启动定时任务
    (这里的定时任务是工作日9:30-11:30 13:00-15:00爬取股票股价总市值增长率等信息)
python zju_spider/schedule.py

在这里插入图片描述
StockSpider.py


# -*- coding: utf-8 -*-
import demjson
from zju_spider.items import *
from bs4 import BeautifulSoup
import requests
import re
import time


# 股票爬虫
class StockSpider(scrapy.Spider):
	name = 'StockSpider'
	allowed_domains = ['vip.stock.finance.sina.com.cn']
	start_urls = ['http://vip.stock.finance.sina.com.cn/quotes_service/api/json_v2.php/Market_Center.getHQNodeData?page=1&num=40&sort=symbol&asc=1&node=hs_a&symbol=&_s_r_a=sort']
	page = 1
	custom_settings = {
		'ITEM_PIPELINES': {
			'zju_spider.pipelines.ZjuSpiderPipeline': 300
		}
	}

	def parse(self, response):
		print('page = ' + str(self.page))
		result = response.text
		if result != 'null' and result is not None:
			result = demjson.decode(result)
			# result = [result[1]]
			for index, i in enumerate(result):
				# if (self.page == 7 and index > 8) or self.page > 7:
				if self.page >= 1:
					stock_item = StockItem()
					stock_item['symbol'] = i['symbol']
					stock_item['code'] = i['code']
					stock_item['stock_name'] = i['name']
					stock_item['share_price'] = i['trade']
					capital = self.stock_parse(i['symbol'])
					if capital:
						stock_item['capital'] = capital
						stock_item['market_cap'] = float(i['trade']) * capital
					else:
						stock_item['capital'] = None
						stock_item['market_cap'] = None
					growth_rate = self.financial_parse(i['code'])
					if growth_rate:
						stock_item['growth_rate'] = growth_rate
					else:
						stock_item['growth_rate'] = None
					yield stock_item
			self.page += 1
			next_page_url = 'http://vip.stock.finance.sina.com.cn/quotes_service/api/json_v2.php/Market_Center.getHQNodeData?page=' + str(self.page) + '&num=40&sort=changepercent&asc=0&node=hs_a&symbol=&_s_r_a=page'
			yield scrapy.Request(next_page_url, callback=self.parse)

	# 获取总股本/万股
	def stock_parse(self, symbol):
		time.sleep(1.4)
		url = 'https://finance.sina.com.cn/realstock/company/' + symbol + '/nc.shtml'
		html = requests.get(url)
		soup = BeautifulSoup(html.content, features='html.parser')
		p_selector = soup.find('div', {'class': 'com_overview blue_d'}).find_all('p')
		if len(p_selector) > 13:
			return float(re.search(r'\d+\.?\d+', p_selector[12].get_text()).group(0))

	# 获取增长率
	def financial_parse(self, code):
		time.sleep(1.6)
		url = 'http://vip.stock.finance.sina.com.cn/corp/go.php/vFD_FinancialGuideLine/stockid/' + code + '/displaytype/4.phtml'
		html = requests.get(url)
		soup = BeautifulSoup(html.content, features='html.parser')
		table = soup.find('table', id='BalanceSheetNewTable0')
		pcp = table.find('td', text='总资产增长率(%)')
		if pcp is not None:
			if pcp.next_sibling.text != '--':
				return float(pcp.next_sibling.text)
			if pcp.next_sibling.next_sibling.text != '--':
				return float(pcp.next_sibling.next_sibling.text)
			if pcp.next_sibling.next_sibling.next_sibling.text != '--':
				return float(pcp.next_sibling.next_sibling.next_sibling.text)
			if pcp.next_sibling.next_sibling.next_sibling.next_sibling.text != '--':
				return float(pcp.next_sibling.next_sibling.next_sibling.next_sibling.text)


完整代码下载地址:Python爬虫,A股上市公司爬虫

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序员柳

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值