自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(33)
  • 收藏
  • 关注

原创 统计学基础1:描述性统计(数据的离散度、极差、方差、标准差)

统计学基础,数据的离散度,方差,标准方差

2022-06-13 02:37:18 3005 1

原创 天勤量化常用知识点(附示例,不定期更新中......)

天勤量化交易常知识。

2022-06-05 19:31:16 3310

原创 上期所API头文件四、ThostFtdcTraderApi.h--交易相关组件的定义(源代码6.3.19版)

////////////////////////////////////////////////////////////////////////////@system 新一代交易所系统///@company 上海期货信息技术有限公司///@file ThostFtdcTraderApi.h///@brief 定义了客户端接口///@history ///20060106 赵鸿昊 创建该文件////////////////////////////////////////////////////

2021-10-29 19:01:55 882

原创 上期所API头文件三、ThostFtdcMdApi.h---行情相关组件的定义(源代码6.3.19版)

////////////////////////////////////////////////////////////////////////////@system 新一代交易所系统///@company 上海期货信息技术有限公司///@file ThostFtdcMdApi.h///@brief 定义了客户端接口///@history ///20060106 赵鸿昊 创建该文件////////////////////////////////////////////////////////

2021-10-29 19:01:00 878 1

原创 上期所API头文件一、ThostFtdcUserApiStruct.h---API结构体的定义及工作流程(源代码6.3.19版)

////////////////////////////////////////////////////////////////////////////@system 新一代交易所系统///@company 上海期货信息技术有限公司///@file ThostFtdcUserApiStruct.h///@brief 定义了客户端接口使用的业务数据结构///@history ///20060106 赵鸿昊 创建该文件///////////////////////////////////////

2021-10-29 18:59:56 1332

原创 上期所API头文件二、ThostFtdcUserApiDataType.h---API常量及类型的定义(源代码6.3.19版)

上期所官网上工作日白天可以下////////////////////////////////////////////////////////////////////////////@system 新一代交易所系统///@company 上海期货信息技术有限公司///@file ThostFtdcUserApiDataType.h///@brief 定义了客户端接口使用的业务数据类型///@history ///20060106 赵鸿昊 创建该文件//////////////////////

2021-10-29 18:57:19 1945

原创 pandas库相关函数及一般用法

概述:pandas 库提供了两种数据结构:Series 和 DataFrameimport pandas as pd #导入 pandas 库 简化为 pd函数 、 音标(读法)–单词中文意思 、 用法或示例、 说明1、pd.Series()、 [ˈsɪəriːz] --系列、示例1: surname = pd.Series([‘赵’, ‘钱’, ‘孙’, ‘李’])借助列表来创建 Series 对象的方法,也就是:pd.Series(data)示例2:# 创建两

2021-10-17 15:09:51 835

转载 python基础之二、基础知识扩展

python基础之super().init()用法—类的继承super().init()用法—类的继承

2021-10-16 22:39:57 99

原创 数据分析六、案例实战---Apr 算法之公众号关联分析

案例实战---Apr 算法之关联分析一、案例背景二、明确目标三、数据处理四、数据分析五、数据展现二级目录三级目录一、案例背景二、明确目标三、数据处理四、数据分析五、数据展现二级目录三级目录...

2021-10-02 17:16:22 1202 1

原创 数据分析五、Apriori 算法之关联分析

agg方法与Apriori 算法一、agg()方法二级目录三级目录二、Apriori 算法一、agg()方法二级目录三级目录二、Apriori 算法

2021-09-12 23:31:03 7922 4

原创 数据分析四、数据展现---用matplotlib 库绘制图形

数据展现matplotlib库1.1、概述:1.2、pyplot模块1.3、matplotlib 库绘图1.3.1、画布的生成与保存:plt.figure()1.3.2、 设置 x/y 坐标值1.3.3、绘制折线图和柱状图1.3.3.1绘制折线图:plt.plot()1.3.3.2绘制 柱壮图:plt.bar()1.3.3.3绘制饼图1.4、设置图表标题:plt.title(label,fontsize)1.5、设置坐标轴1.6、设置图例1.7、设置数据标签三级目录matplotlib库1.1、概述:

2021-08-20 21:51:26 2131

原创 数据分析三、pandas库 分组聚合与数据可视化

分组聚合与数据可视化一、分组聚合1.1、单层分组聚合:df.groupby(by)['列索引'].mean()。1.1.1单层分组:df.groupby(by)1.1.2聚合操作:['列索引'].mean()1.2、 多层分组聚合:df.groupby(by)['列索引'].mean()。三级目录二、数据可视化一级目录二级目录一、分组聚合1.1分组聚合操作的定义分组聚合操作指的是按照某项规则对数据进行分组,接着对分完组的数据执行总结性统计的操作(比如求和、求均值)。根据其分组方式的不同可以分为单层分组

2021-08-17 23:17:34 1755

原创 数据分析二、pandas库数据处理

数据处理指的是根据数据分析的目的,将收集到的数据进行加工、整理,形成适合数据分析的样式。主要分三个步骤来处理我们的数据,它们分别是:数据清洗、数据整理以及数据写入。一、数据清洗以下表数据为例:这份数据索引为 1、3、4 的行完全重复。有一些数据的值为 NaN ,在 pandas 库中,NaN 代表缺失值,意思是这里的数据是空的。在订单量、单价和销售额列中,我们能明显看到 0 和 999999999.0 的数值。首先,订单量如果为 0,那么这样的订单根本就不应该出现,这些数据也完整存在异常。综上所

2021-08-13 00:55:46 2592

原创 数据分析一、 pandas库基础知识

一、jupyter 代码编辑器Cell [sel] 细胞jupyter 代码编辑器的一个代码单元,一般叫它 Cell。Cell 是这款 jupyter 代码编辑器的主要构成要素。代码的输入以及代码结果的输出都是在 Cell 中实现的。Cell 一共由两个部分组成:In[] 和 Out[],即输入框和输出框。Cell 在使用时有两个很重要的特点,第一点体现在查看变量的时候,第二点体现在变量值的传递上。查看变量值的时候,只要输入变量名就可以了。jupyter 代码编辑器第二个特点:当前的 Ce

2021-08-01 18:11:05 5394

原创 Python自动化办公二、Excel工作簿样式的设置

设置Excel样式1、调整列宽Sheet.column_dimensions[‘列位置’].width例:from openpyxl import load_workbook# 打开工作表file_path = './material/事业01部_副本.xlsx'wb = load_workbook(file_path)ws = wb.active# 调整工作表ws.column_dimensions['A'].width = 20# 保存wb.save(file_path)

2021-05-29 18:41:37 730

原创 Python自动化办公一、OS库与openpyxl库

1、获取所有文件名称os.listdir() 以列表形式获取文件夹名和文件名,()中参数为文件、文件夹路径,须为英文小写。例:import ospath='/home/python-class/lesson1-2/work/参考资料'#获取文件路径,赋值给变量pathfilenames=os.listdir(path) #将参考资料某文件夹中,所有文件夹名和文件名获取到print(filenames)#第2,3行或合并写为:filenames=os.listdir('/home/pytho

2021-05-16 00:10:47 514

原创 爬虫项目实操五、用Scrapy爬取当当图书榜单

目标:使用Scrapy,爬取当当网2018年图书销售榜单前3页的数据(图书名、作者和书的价格)。URL:http://bang.dangdang.com/books/bestsellers/01.00.00.00.00.00-year-2018-0-1-1 (最后一个数字1代表第1页,每页20种)网页源码:展开后源码:代码示例:items.py文件参考代码# #-*- coding: utf-8 -*-# Define here the models for your scraped i

2021-04-28 00:27:33 697

原创 爬虫项目实操四、用Scrapy爬取招聘网站的招聘信息

项目目标:用Scrapy爬取招聘网站的招聘信息目标网站:职友集,url:https://www.jobui.com/rank/company/先爬取企业排行榜四个榜单里的公司,再接着爬取这些公司的招聘信息,爬取公司名称、职位、工作地点和招聘要求。一、创建项目电脑终端跳转到你想要保存项目的目录下输入创建Scrapy项目的命令:scrapy startproject jobui(jobui为项目名字可自取)start- [stɑːt]–开始 project-[ˈprɔdʒekt] —n,计划,

2021-04-17 16:16:44 3184 1

原创 爬虫项目实操三、用scrapy框架爬取豆瓣读书Top250的书名,出版信息和评分

安装方法:Windows:在终端输入命令:pip install scrapy;mac:在终端输入命令:pip3 install scrapy,按下enter键,再输入cd Python,就能跳转到Python文件夹。接着输入cd Pythoncode,就能跳转到Python文件夹里的Pythoncode子文件夹。最后输入一行能帮我们创建Scrapy项目的命令:scrapy startproject douban,douban就是Scrapy项目的名字。按下enter键,一个Scrapy项目就创建成功了。

2021-04-14 18:12:18 1917

原创 爬虫六、gevent协程与queue模块

gevent库与协程安装方法:window电脑:在终端输入命令:pip install gevent;mac电脑:在终端输入命令:pip3 install gevent.在导入其他库和模块前,先把monkey模块导入进来,并运行monkey.patch_all()。这样,才能先给程序打上补丁。from gevent import monkey#从gevent库里导入monkey模块。monkey.patch_all()#monkey.patch_all()能把程序变成协作式运行,就是可以帮助程序

2021-04-06 18:11:40 294 1

原创 爬虫五、定时与邮件

功能:定时爬取天气预报并把爬取到的内容以邮件的形式发送给你爬取天气预报示例代码:import requestsfrom bs4 import BeautifulSoupheaders={'user-agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36'}url='http://www.weathe

2021-04-05 19:08:48 541 1

原创 爬虫三、cookies---自动登录并发表评论

打开网址:https://wordpress-edu-3autumn.localprod.oc.forchange.cn/wp-login.php右击打开“检查”工具,点击【network】,勾选【preserve log】(持续显示请求记录,防止请求记录被刷新)。展开第0个请求【wp-login.php】,浏览一下【headers】。在【General】键里,我们可以先只看前两个参数【Request URL】(请求网址)和【Request Method】(请求方式)。get请求是明文显示,应用于获

2021-04-05 17:18:36 472 3

原创 爬虫二、Network---爬虫必备知识

Network读: [ˈnetwɜːk] n.网络;网状系统;关系网;v.将…连接成网络;联播;建立工作关系Network能够记录当前浏览器的所有请求,它记录的是实时网络请求,刷新,浏览器会重新访问网络,这样就会有记录1、ALL:查看全部。2、XHR(或Fetch):仅查看XHR,下拉可自动加载网页。XHR的功能是传输数据,其中有非常重要的一种数据是用json格式写成的,和html一样,这种数据能够有组织地存储大量内容。json的数据类型是“文本”,在Python语言当中,我们把它称为字符串。我们

2021-04-03 23:32:20 1491 1

原创 爬虫项目实操二、爬取“下厨房”网站的菜名、所需材料、和菜名所对应的详情页URL

项目—爬取“下厨房”网站的菜名、所需材料、和菜名所对应的详情页URL。它有一个固定栏目,叫做“本周最受欢迎”,收集了当周最招人喜欢的菜谱。地址如下:http://www.xiachufang.com/explore/在进行爬取之前,我们先去看看它的robots协议。网址在此:http://www.xiachufang.com/robots.txt因为这个页面挺长的,所以我不再为你放截图。阅读这个robots协议,你会发现:我们要爬取的/explore/不在禁止爬取的列表内,但如果你要爬取/reci

2021-04-03 18:43:18 1310

原创 爬虫一 requests库与BeautifulSoup库、HTML

安装requests库方法是:在Mac电脑里打开终端软件(terminal),输入pip3 install requests,然后点击enter即可;Windows电脑里叫命令提示符(cmd),输入pip install requests 即可。requests.get()方法import requests #引入requests库。res = requests.get(‘URL’) #requests.get是在调用requests库中的get()方法,它向服务器发送了一个请求,括号里的参数是

2021-04-02 17:43:18 759 4

原创 Python常用模块一、random(随机模块)openpyxl模块CSV模块

CSV模块读CSV文件示例:import csvwith open("test.csv",newline = '') as f: #test.csv 为要读取的文件 reader = csv.reader(f) #使用csv的reader()方法,创建一个reader对象 for row in reader: #遍历reader对象的每一行 print(row)终端输出的每一行信息都是一个列表,按行显示。写CSV文件示例:import

2021-04-01 18:01:51 452

原创 Python常用函数---持续更新中....

dir()可以查看一个模块,看看它里面有什么变量、函数、类、类方法 例:import random # 调用random模块print(dir(random)) 可显示模块中的所有变量、函数、类、类方法dir(x),可以查询到x相关的函数,x可以是模块,也可以是任意一种对象。示例:a = ‘’ # 设置一个字符串print(‘字符串:’)print(dir(a)) # 把字符串相关的函数展示出来a = [] # 设置一个列表print(‘列表:’)print(dir(a)

2021-04-01 17:58:11 92

原创 Python基础详解

Python函数及用法函数的创建和调用方法:函数创建: def 函数名(参数): 下面的语句要缩进调用1、函数名() 括号里可传参也可不传参数,后面不用加:2、 变量=函数名()类的创建和调用创建示例;: class 类名: 类名第一个字母要大写,有两点def start(self): 有两点,要缩进,定义方法时要带self 默认参数使用: 先实例化: 实例名=类名()调用:调用的语法是实例名.属性名 和实例名.方法名() 括号后不用加:可以不传参内的类部调

2021-04-01 17:46:01 566 3

原创 Python爬虫及其它函数知识读记及简单用法,持续更新中...

Python爬虫及其它函数知识读记及简单用法,持续更新中…

2021-03-31 12:12:38 191

原创 Python基础函数知识读记及简单用法,持续更新中

Python基础函数知识读记及简单用法

2021-03-31 12:01:51 177

原创 把Python代码封装成exe(windows的可执行程序)

文章来源于风变编程学习班分享的超级干货我们有专门的模块,把python文件件打包成exe格式文件!这个模块的名字叫:pyinstaller 不能拼错哦。py是python的py,installer是安装器的意思。安装这个模块的方法:在cmd命令窗口中输入pip install pyinstaller注意哈:exe是windows的程序,不适⽤于MacOS系统。新建一个文件夹,把写好的python文件放进去,下图:我以level_18_excerise_my_answer.py这个文件为例然后点

2021-03-31 11:51:32 7461 3

原创 爬虫项目实操一、selenium爬取QQ音乐《甜甜的》的歌曲评论

url:https://y.qq.com/n/yqq/song/000xdZuV2LcQ19.html第一种解决思路是使用selenium提取数据的方法。第二种解决思路是,先获取到完整网页源代码,然后用BeautifulSoup抓取。这两种方法都能完成解析提取的工作。# 教学系统的浏览器设置方法from selenium.webdriver.chrome.webdriver import RemoteWebDriver # 从selenium库中调用RemoteWebDriver模块from se

2021-03-29 18:13:26 352

原创 爬虫四 selenium 自动操作浏览器爬取内容

selenium 自动操作浏览器爬取内容代码示例:#本地Chrome浏览器设置方法from selenium import webdriver # 从selenium库中调用webdriver模块import time # 调用time模块driver = webdriver.Chrome() # 设置引擎为Chrome,真实地打开一个Chrome浏览器driver.get(‘https://localprod.pandateacher.com/python-manuscript/hello-s

2021-03-29 00:11:44 1619 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除