用Python来爬取股票数据进行分析,冲一波!

最近手头有点紧,但是作为一个男人,身上怎么能够没有大把钞票呢?

于是我决定用Python来获取股票数据分析一波,赢了会所嫩,输了下海干活!

图片

好了,上面是我吹牛逼的,不过确实有小伙伴看了爬股票数据进行分析的教程中过,但是我还是不建议各位去碰这玩意,今天咱们就是纯纯的分享技术哈~

图片

准备工作

既然要去赚马内,咱们首先要获取往期的数据来进行分析,通过往期的规律来对当前进行预测,准不准我不知道,反正比人预测的准,不准也不要喷我,咱们是来交流技术的,不是来炒股的。

我们需要使用这些模块,通过pip安装即可。

后续使用的其它的模块都是Python自带的,不需要安装,直接导入使用即可。

requests:      爬虫数据请求模块pyecharts:     数据分析 可视化模块pandas:        数据分析 可视化模块里面的设置模块(图表样式)

获取数据部分

爬虫的基本流程

思路分析

采集什么数据?怎么采集?

首先我们找到数据来源,从network当中去找到数据所在的位置,这一步就不详细讲了。可以看我往期文章:https://blog.csdn.net/fei347795790/article/details/126528162

代码实现

我们想要实现通过爬虫获取到数据,正常情况下有几个步骤:

  1. 发送请求
  2. 获取数据
  3. 解析数据
  4. 保存数据

接下来我们来看代码

代码展示

导入需要使用的模块

import requests     # 数据请求模块import csv          # 表格模块

1、发送请求

通过response模块来访问需要获取数据的地址

url = 'https://stock.xueqiu.com/v5/stock/screener/quote/list.json?page={page}&size=30&order=desc&orderby=percent&order_by=percent&market=CN&type=sh_sz'requests.get(url=url)

假设目标网址是你刚认识的妹子家,你能穿的破破烂烂,脏不溜秋的就进去吗?肯定得打扮一番,把自己伪装的人模狗样的才让你进去对不对,不然就被赶出来了。

同理,直接这么进去是不一定能获取到数据,所以需要使用 cookie 来伪装一下,cookie代表着用户身份信息。

当然光cookie是不够的,咱们再加上当前网页的 user-agent

伪装加好之后,咱们就能得到一个相应结果,先打印出来看看。

import requests  # 第三方模块import csv# 伪装headers = {    # 用户身份信息    'cookie': 's=bq119wflib; device_id=90ec0683f24e4d1dd28a383d87fa03c5; xq_a_token=df4b782b118f7f9cabab6989b39a24cb04685f95; xqat=df4b782b118f7f9cabab6989b39a24cb04685f95; xq_r_token=3ae1ada2a33de0f698daa53fb4e1b61edf335952; xq_id_token=eyJ0eXAiOiJKV1QiLCJhbGciOiJSUzI1NiJ9.eyJ1aWQiOi0xLCJpc3MiOiJ1YyIsImV4cCI6MTY3MjE4Njc1MSwiY3RtIjoxNjcwNTAxMjA5MTEyLCJjaWQiOiJkOWQwbjRBWnVwIn0.iuLASkwB6LkAYhG8X8HE-M7AM0n0QUULimW1C4bmkko-wwnPv8YgdakTC1Ju6TPQLjGhMqHuSXqiWdOqVIjy_OMEj9L_HScDot-7kn63uc2lZbEdGnjyF3sDrqGBCpocuxTTwuSFuQoQ1lL7ZWLYOcvz2pRgCw64I0zLZ9LogQU8rNP-a_1Nc91V8moONFqPWD5Lt3JxqcuyJbmb86OpfJZRycnh1Gjnl0Aj1ltGa4sNGSMXoY2iNM8NB56LLIp9dztEwExiRSWlWZifpl9ERTIIpHFBq6L2lSTRKqXKb0V3McmgwQ1X0_MdNdLAZaLZjSIIcQgBU26T8Z4YBZ39dA; u=511670501221348; Hm_lvt_1db88642e346389874251b5a1eded6e3=1667994737,1670480781,1670501222; Hm_lpvt_1db88642e346389874251b5a1eded6e3=1670501922',    # 浏览器的基本信息    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/108.0.0.0 Safari/537.36'}url = 'https://stock.xueqiu.com/v5/stock/screener/quote/list.json?page={page}&size=30&order=desc&orderby=percent&order_by=percent&market=CN&type=sh_sz'    # 1. 发送请求response = requests.get(url=url, headers=headers)print(response)

图片

运行后出现 <Response [200]>求请求成功,出现404就是访问不到资源,一般是被反爬了。

所以这时候我们需要加一个 referer 防盗链参数进去

'referer: https://xueqiu.com/hq'

如果加了还不行,就是自己链接有问题了。

取数据的话 .json 就好了

import requests  # 第三方模块import csv# 伪装headers = {    # 用户身份信息    'cookie': 's=bq119wflib; device_id=90ec0683f24e4d1dd28a383d87fa03c5; xq_a_token=df4b782b118f7f9cabab6989b39a24cb04685f95; xqat=df4b782b118f7f9cabab6989b39a24cb04685f95; xq_r_token=3ae1ada2a33de0f698daa53fb4e1b61edf335952; xq_id_token=eyJ0eXAiOiJKV1QiLCJhbGciOiJSUzI1NiJ9.eyJ1aWQiOi0xLCJpc3MiOiJ1YyIsImV4cCI6MTY3MjE4Njc1MSwiY3RtIjoxNjcwNTAxMjA5MTEyLCJjaWQiOiJkOWQwbjRBWnVwIn0.iuLASkwB6LkAYhG8X8HE-M7AM0n0QUULimW1C4bmkko-wwnPv8YgdakTC1Ju6TPQLjGhMqHuSXqiWdOqVIjy_OMEj9L_HScDot-7kn63uc2lZbEdGnjyF3sDrqGBCpocuxTTwuSFuQoQ1lL7ZWLYOcvz2pRgCw64I0zLZ9LogQU8rNP-a_1Nc91V8moONFqPWD5Lt3JxqcuyJbmb86OpfJZRycnh1Gjnl0Aj1ltGa4sNGSMXoY2iNM8NB56LLIp9dztEwExiRSWlWZifpl9ERTIIpHFBq6L2lSTRKqXKb0V3McmgwQ1X0_MdNdLAZaLZjSIIcQgBU26T8Z4YBZ39dA; u=511670501221348; Hm_lvt_1db88642e346389874251b5a1eded6e3=1667994737,1670480781,1670501222; Hm_lpvt_1db88642e346389874251b5a1eded6e3=1670501922',    # 防盗链    'referer: https://xueqiu.com/hq'    # 浏览器的基本信息    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/108.0.0.0 Safari/537.36'}url = 'https://stock.xueqiu.com/v5/stock/screener/quote/list.json?page={page}&size=30&order=desc&orderby=percent&order_by=percent&market=CN&type=sh_sz'    # 1. 发送请求response = requests.get(url=url, headers=headers)print(response.json())

图片

2、获取数据

什么是json数据?

以 {}/[] 所包裹起来的数据 {“”:“”, “”:“”}

除了 .json 还可以通过 .text 和 .content 来拿到数据,但是它们获取到的数据是一样。

.text 获取到的是字符串,文本内容。
.content 取到的是二进制数据,一般是图片/音频/视频内容。

json_data = response.json()

3、解析数据

解析数据就是提取数据,把我们想要的数据提取出来。

没学过字典的小伙伴,可以先学一下字典。

data_list = json_data['data']['list']# 源码以及视频讲解领取群:708525271for i in range(0, len(data_list)):    symbol = data_list[i]['symbol']    name = data_list[i]['name']    current = data_list[i]['current']    chg = data_list[i]['chg']    percent = data_list[i]['percent']    current_year_percent = data_list[i]['current_year_percent']    volume = data_list[i]['volume']    amount = data_list[i]['amount']    turnover_rate = data_list[i]['turnover_rate']    pe_ttm = data_list[i]['pe_ttm']    dividend_yield = data_list[i]['dividend_yield']    market_capital = data_list[i]['market_capital']    print(symbol, name, current, chg, percent, current_year_percent, volume, amount, turnover_rate, pe_ttm, dividend_yield, market_capital)

4、保存数据

csv_writer.writerow([symbol, name, current, chg, percent, current_year_percent, volume, amount, turnover_rate, pe_ttm, dividend_yield, market_capital])

数据可视化分析

导入需要使用的模块

import pandas as pd         # 做表格数据处理模块 from pyecharts.charts import Bar    # 可视化模块 from pyecharts import options as opts   # 可视化模块里面的设置模块(图表样式)

读取数据

df = pd.read_csv('股票.csv')x = list(df['股票名称'].values)y = list(df['成交量'].values) c = (    Bar()    .add_xaxis(x[:10])    .add_yaxis("成交额", y[:10])    .set_global_opts(        xaxis_opts=opts.AxisOpts(axislabel_opts=opts.LabelOpts(rotate=-15)),        title_opts=opts.TitleOpts(title="Bar-旋转X轴标签", subtitle="解决标签名字过长的问题"),    )    .render("成交量图表.html")

-END-


学好 Python 不论是就业还是做副业赚钱都不错,但要学会 Python 还是要有一个学习规划。最后给大家分享一份全套的 Python 学习资料,给那些想学习 Python 的小伙伴们一点帮助!

包括:Python激活码+安装包、Python web开发,Python爬虫,Python数据分析,人工智能、机器学习、自动化测试带你从零基础系统性的学好Python!

👉[CSDN大礼包:《python安装工具&全套学习资料》免费分享]安全链接,放心点击

👉Python学习大礼包👈

在这里插入图片描述

👉Python学习路线汇总👈

Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。(全套教程文末领取哈)
在这里插入图片描述

👉Python必备开发工具👈

在这里插入图片描述

温馨提示:篇幅有限,已打包文件夹,获取方式在:文末

👉Python实战案例👈

光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

在这里插入图片描述

👉Python书籍和视频合集👈

观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

👉Python面试刷题👈

👉Python副业兼职路线👈

在这里插入图片描述
在这里插入图片描述
这份完整版的Python全套学习资料已经上传CSDN,朋友们如果需要可以点击链接免费领取或者保存图片到wx扫描二v码免费领取保证100%免费

👉[CSDN大礼包:《python安装工具&全套学习资料》免费分享]安全链接,放心点击

  • 0
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
数据实训是一门综合性实训课程,主要涉及到大数据爬取、存储、分析和可视化。其中,Python是一种高级编程语言,被广泛应用于数据爬取、处理和分析的领域。 在课程中,我们会使用Python来编写爬虫程序,从股票相关的网站或API中获取股票数据。通过分析网站结构和数据接口,我们可以使用Python的各种库和框架来获取股票历史交易数据、实时行情数据等。 一旦我们成功获取了股票数据,我们可以使用Hive这个大数据存储和分析工具来存储和处理这些数据。Hive是基于Hadoop平台的数据仓库工具,可以将结构化和半结构化的数据存储在分布式文件系统中,并使用类SQL语言进行查询和分析。 通过Hive,我们可以对爬取到的股票数据进行各种数据处理和分析操作,例如计算股价涨跌幅、交易量统计、计算股票均线指标等。Hive的强大功能和灵活性使得我们可以根据自己的需求和兴趣来进行数据分析,并从中发现有价值的股票市场信息。 为了更好地展示和传达我们的数据分析结果,课程中还会涉及到可视化工具。可视化是将数据以图表、图形等形式呈现出来,使得数据更具有直观性和易懂性。Python中有很多强大的可视化库和工具,例如Matplotlib、Seaborn和Plotly等,可以帮助我们将股票数据进行可视化展示。 总而言之,大数据实训课程中通过使用Python进行股票数据爬取、使用Hive进行数据分析和使用可视化工具展示结果,帮助我们掌握大数据处理和分析的技能,同时也使我们能够更好地理解和利用股票市场的信息。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值