自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(20)
  • 收藏
  • 关注

原创 交易思想——孙子兵法

1.昔日善战者,先为不可胜,以待敌之可胜。不可胜在己,可胜在敌。交易之道,先为不可胜,1.不犯错,2.风险可控,3.2.善战者,能为不可胜,不能使敌之必可胜,故曰:胜可知,而不可为。没有行情是创造不出行情的,当你想挖掘行情时,一定是风险很大的时候。行情如四季一般循环,春生夏长,秋收冬藏。春天不是创造出来的,春天是时节的周期,不要总想着在冬天播种,冬天要做的是休息。行情和时节一样,都有内在的规律,观察,等待,总结,遵守规律。成功的农夫绝不会种下庄稼后,每隔几分钟就把它挖出来,看看长得怎么样。他们会让庄稼

2021-05-12 08:59:50 252

原创 2021-05-12

第一章 为短线乱象理出头绪如果这是最容易亏损的方式,那它应该也很容易赚钱,不是吗?我每晚要花5、6个小时,甚至连周末都在想办法打败华尔街、赚大钱,以至险些失去一段婚姻。这些人搜集各种制图方法,寻找价格变动形态,并冠名为楔型、头肩型、三角旗型、旗型、三角形、W底、M头,以及1—2—3波段等等。这些型态试图反映出供需双方的交战状况,有些型态显示的是卖出,有些则是专业性的吃货。这些图表虽然很有意思,却不免误导。同样的型态也可能出现在没有供需因素影响的图表中。掷150次铜板的统计图,看起来很像猪肉期货的线图

2021-05-12 08:59:10 161

原创 横盘段走势总结

上涨横盘走势总结走势总结这个图在两个红色箭头时间区间内有明显的上涨五浪和下跌三浪,重点关注点:上涨五浪之后是一个横盘,横盘之后走势总结:1,上涨后突破

2021-05-12 08:50:54 164

原创 通向财务自由之路-笔记总结

引言本文的直接目的是为了自己的策略研究打基础,想把市面上经典的书籍介绍的系统的各个方面纳入本文章,为策略研究做个参考,感觉网上介绍的都不太全面。文章第一版为阅读通向财务自由之路[1]的总结,介绍了系统开发的各个步骤(会适当加上自己的理解,理解不当请指正),以后阅读的书籍和资料希望能够以此为框架添加进去,并做出适当修改。参阅的书籍和资料可以参考本文末尾的参考资料。一、列出清单了解你自己对目标设定起到关键作用,目标设定应该成为交易系统开发的重要环节。你的资本情况: 生活成本多少,风险资本有多少你的

2021-05-12 08:47:46 490

原创 Python爬虫、数据清洗与可视化-8 -pandas——爬虫

pandas爬虫pandas中的pd.read_html()这个函数,功能非常强大,可以轻松实现抓取Table表格型数据。Table表格型数据网页结构pandas适合抓取Table表格型数据,以Table结构展示的表格数据,大致的网页结构如下:<table class="..." id="..."> <thead> <tr> <th>...</th> </tr> </th

2021-04-04 18:00:42 461

原创 Python爬虫、数据清洗与可视化-2 -request-练习-2-——豆瓣读书

面向过程是分析出解决问题所需要的步骤,然后用函数把这些步骤一步一步实现,使用的时候一个一个依次调用就可以了。面向对象是把构成问题事务分解成各个对象,建立对象的目的不是为了完成一个步骤,而是为了描叙某个事物在整个解决问题的步骤中的行为。例如五子棋,面向过程的设计思路:分析问题的步骤,解决问题:1、开始游戏,2、黑子先走,3、绘制画面,4、判断输赢,5、轮到白子,6、绘制画面,7、判断输赢,8、返回步骤2,9、输出最后结果。把上面每个步骤用分别的函数来实现,问题就解决了。面向对象的设计思路:问题分解分

2021-04-04 13:57:09 285 2

原创 Python爬虫、数据清洗与可视化-1 -python基础——openpyxl-——excel文件操作

python-openpyxl常用方法1.新建保存import openpyxl#导入模块wb = openpyxl.Workbook()# 新建一个Excel文档wb.save('case2.xlsx')# 保存文件至当前目录2…打开读取文件import openpyxl#导入模块wb = openpyxl.load_workbook('case2.xlsx')#打开文件读取(r'e:\python\case1.xlsx')绝对路径sheet = wb.active# 选择默认的工作

2021-04-04 12:31:22 577 2

原创 Python爬虫、数据清洗与可视化-1 -python基础——csv文件读写

csv模块中的函数1.reader(csvfile, dialect=‘excel’, **fmtparams)csvfile,必须是支持迭代(Iterator)的对象,可以是文件(file)对象或者列表(list)对象,如果是文件对象,打开时需要加"b"标志参数。dialect,编码风格fmtparam,格式化参数,2.writer(csvfile, dialect=‘excel’, **fmtparams)注意:如果文件’t.csv’事先存在,调用writer函数会先清空原文件中的文本,再执

2021-04-02 09:53:09 673 1

原创 Python爬虫、数据清洗与可视化-2 -request-练习-1-——爬baidu首页热点

练习:爬百度实时热点top10的排序,标题内容,链接# -*- coding: UTF-8 -*-import requestsfrom lxml import etreeheaders={ 'User-Agent':'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36'}urls='http://top.baidu.com/b

2021-03-31 18:33:32 344

原创 Python爬虫、数据清洗与可视化-10- mysql

mysql

2021-03-24 20:36:25 327

原创 Python爬虫、数据清洗与可视化-9 - mongo

mongo

2021-03-24 20:20:01 258

原创 Python爬虫、数据清洗与可视化-8 -pandas

一、介绍pandas是专门为处理表格和混杂数据设计的,而NumPy更适合处理统一的数值数组数据。使用下面格式约定,引入pandas包:二、数据结构pandas有两个主要数据结构:Series和DataFrame。2-1 . SeriesSeries是一种类似于一维数组的对象,由一组数据及一组与之相关的即索引组成,即index和values两部分,可以通过索引的方式选取Series中的单个或一组值。Series的创建pd.Series(list,index=[ ]),第二个参数是Series中

2021-03-24 19:54:58 541

原创 Python爬虫、数据清洗与可视化-7 -numpy

一、简介使用NumPy,开发人员可以执行以下操作:1.数组的算数和逻辑运算。2.傅立叶变换和用于图形操作的例程。3.与线性代数有关的操作。 NumPy 拥有线性代数和随机数生成的内置函数。NumPy 通常与 SciPy(Scientific Python)和 Matplotlib(绘图库)一起使用。 这种组合广泛用于替代 MatLab,是一个流行的技术计算平台。 但是,Python 作为 MatLab 的替代方案,现在被视为一种更加现代和完整的编程语言。二、创建ndarray数组ndarray

2021-03-24 19:29:43 156

原创 Python爬虫、数据清洗与可视化-2 -requests

一、认识网页结构网页一般由三部分组成,分别是:HTML(超文本标记语言);CSS(层叠样式表);JScript(活动脚本语言)。1.HTMLHTML 是整个网页的结构,相当于整个网站的框架。带“<”、“>”符号的都是属于 HTML 的标签,并且标签都是成对出现的。常见的标签如下:.. 表示标记中间的元素是网页 .. 表示用户可见的内容 ..表示框架 .. 表示段落 ..表示列表 ..表示图片 ..表示标题..表示超链接CSSCSS 表示样式,图 1 中第 13 行<style

2021-03-24 18:31:56 820

原创 Python爬虫、数据清洗与可视化-1 -python基础

1.数据类型2.语句与函数3.条件与循环4.类

2021-03-24 18:05:10 624 1

原创 Python爬虫、数据清洗与可视化-11 - matplotlib

python-matplotlib一、matplotlib绘图要点:plt.figure(1) ## 初始化一张画布,可以自定义图像plt.subplot(211) #创建单个子图,subplots创建多个子图plt.plot(A,B) #直接在一张大的画布中画图plt.show() #显示绘画的图像figure(num=None, figsize=None, dpi=None, facecolor=None, edgecolor=None, frameon=True)#num

2021-03-24 17:23:00 1783 1

原创 Python爬虫、数据清洗与可视化-5 - selenium

python-selenium一、安装1-1.安装seleniumpip install selenium1-2安装webdriverwebdriver需要和对应的浏览器版本以及selenium版本对应,selenium3.141.0=chrom84.0.4147.89http://chromedriver.storage.googleapis.com/index.html查看selenium版本cmd>>python >>> import selenium&g

2021-03-20 17:34:55 396

原创 Python爬虫、数据清洗与可视化-4 - scrapy-练习-1-——爬baidu首页热点

新手学习日记1-练习爬baidu首页热点一、创建工程用scrapy创建个新项目爬baidu首页热点。命令行下输入命令,命令会在当前目录下创建baiduscrapy项目。scrapy startproject baiduscrapycd baiduscrapyscrapy genspider baidu "www.baidu.com"二、修改parse命令已经帮我们自动创建了爬虫代码,打开spiders文件夹下baidu.py修改如下。import scrapyfrom baiduscr

2021-03-20 15:53:04 437

原创 Python爬虫、数据清洗与可视化-4 - scrapy

1-1创建工程scrapy startproject projectName1-2进入工程目录:这里一定要进入到刚才创建好的目录中cd projectName1-3创建爬虫文件:创建的爬虫文件会出现在之前创建好的spiders文件夹下scrapy genspider spiderName www.xxx.com1-4执行爬虫文件scrapy crawl spiderName1-5保存数据:scrapy crawl *** -o xx.json #输出json格式文件scrapy

2021-03-18 20:34:45 770

转载 Python爬虫、数据清洗与可视化-4-1 -post

pwZw =30x30)居中的图片: 居中并且带尺寸的图片: 当然,我们为了让用户更加便捷,我们增加了图片拖拽功能。如何插入一段漂亮的代码片去博客设置页面,选择一款你喜欢的代码片高亮样式,下面展示同样高亮的 代码片.// An highlighted blockvar foo = 'bar';生成一个适合你的列表项目项目项目项目1项目2项目3 计划任务 完成任务创建一个表格一个简单的表格是这么创建的:项目Value电脑$1

2021-03-18 20:27:21 228

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除