Python
hyfound
这个作者很懒,什么都没留下…
展开
-
用python计算复利和年化收益率
投资股市多年,常常用python来计算复利和年化收益率,给自己打气,也看看自己过往的成绩如何。本文介绍如何进行这样的计算。基本上计算复利和计算年化收益率的方法是一样的,前者是计算多次方,后者是开多次根。复利比如:初始市值100万,按照每年15%收益增长,10年,20年,30年后,分别对应的市值是多少。代码如下:>>> 100*(1+0.15)**10404.555...原创 2020-04-20 16:59:34 · 8610 阅读 · 0 评论 -
常用python爬虫框架
https://www.imooc.com/article/44716Python中好用的爬虫框架一般比价小型的爬虫需求,我是直接使用requests库 + bs4就解决了,再麻烦点就使用selenium解决js的异步 加载问题。相对比较大型的需求才使用框架,主要是便于管理以及扩展等。1.ScrapyScrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。 可以应...转载 2020-04-08 09:11:19 · 1621 阅读 · 0 评论 -
python 关于Max retries exceeded with url 的错误
在爬取boss直聘时出现这种错误,于是搜索了网上很多文章,总结如下: 1.http连接太多没有关闭导致的,解决方法:import requestsrequests.adapters.DEFAULT_RETRIES = 5 # 增加重连次数s = requests.session()s.keep_alive = False # 关闭多余连接s.get(url) # 你需要的网址1...转载 2018-08-29 15:30:57 · 9630 阅读 · 0 评论 -
微信群发消息
准备工作需要安装itchat APIeasy_install itchat1向所有的好友发送不同的祝福消息#coding=utf8import itchat, timeitchat.auto_login(True)SINCERE_WISH = u'祝%s新年快乐!'friendList = itchat.get_friends(update=True)[1:]fo...转载 2018-09-10 11:00:27 · 523 阅读 · 0 评论 -
Python 自然语言处理 入门—关于jieba库的使用
1. 什么是jiaba库jieba 是一个python实现的分词库,对中文有着很强大的分词能力。git链接:https://github.com/fxsjy/jieba2. jieba库的优点1 支持三种分词模式:a. 精确模式,试图将句子最精确地切开,适合文本分析;b. 全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;c. 搜索引擎模式,在...转载 2018-09-14 11:38:00 · 1718 阅读 · 0 评论 -
jieba分词词性说明
jieba(结巴)是一个强大的分词库,完美支持中文分词,本文对其基本用法做一个简要总结。安装jiebapip install jieba简单用法结巴分词分为三种模式:精确模式(默认)、全模式和搜索引擎模式,下面对这三种模式分别举例介绍:精确模式import jiebas = u'我想和女朋友一起去北京故宫博物院参观和闲逛。'cut = jieba.cut(s)...转载 2018-09-14 11:39:06 · 6231 阅读 · 0 评论 -
词云python中WordCloud包的用法
基本参数class wordcloud.WordCloud(font_path=None, width=400, height=200, margin=2, ranks_only=None, prefer_horizontal=0.9,mask=None, scale=1, color_func=None, max_words=200, min_font_size=4, ...转载 2018-10-11 14:47:16 · 519 阅读 · 0 评论 -
windows+phpstudy(apache) 以cgi方式支持python
笔者用的是phpstudy(Apache)+ windos ,一开始不理解Apache各个配置的含义(网上很多配置文章都没提到),导致配置老是出错,特总结一下。Apache配置在httpd.conf中查找DocumentRoot:允许目录可以执行cgi:# 查找一下自己的DocumentRoot DocumentRoot "E:\Environment\phpstudy\PH...转载 2018-09-30 15:20:57 · 813 阅读 · 0 评论 -
Python数据库连接池DBUtils.PooledDB
DBUtils 是一套用于管理数据库连接池的包,为高频度高并发的数据库访问提供更好的性能,可以自动管理连接对象的创建和释放。最常用的两个外部接口是 PersistentDB 和 PooledDB,前者提供了单个线程专用的数据库连接池,后者则是进程内所有线程共享的数据库连接池。###简介DBUtils是一套Python数据库连接池包,并允许对非线程安全的数据库接口进行线程安全包装。DBUtil...转载 2018-11-20 16:26:05 · 1182 阅读 · 1 评论 -
flask扩展模块flask-sqlachemy 的使用---mysql数据库
该篇博客配置环境为:python版本3.5,flask2.0,python3中已经不再支持MySQLdb模块,所有这里我用了pymysql,所有使用前应该安装pymysql:pip install pymysql在网上的好多资料都给的是使用sqlite的例子,由于很不喜欢所以今天分享一下flask-sqlalchemy操作mysql的方法.以前习惯使用sqlalchemy,后来发...转载 2018-11-20 16:30:21 · 311 阅读 · 0 评论 -
python对json的操作总结
Json简介:Json,全名 JavaScript Object Notation,是一种轻量级的数据交换格式。Json最广泛的应用是作为AJAX中web服务器和客户端的通讯的数据格式。现在也常用于http请求中,所以对json的各种学习,是自然而然的事情。Python的官网网址:https://docs.python.org/2/library/json.html?highlight=json...转载 2018-12-09 23:46:58 · 132 阅读 · 0 评论 -
为何大量网站不能抓取?爬虫突破封禁的6种常见方法
在互联网上进行自动数据采集(抓取)这件事和互联网存在的时间差不多一样长。今天大众好像更倾向于用“网络数据采集”,有时会把网络数据采集程序称为网络机器人(bots)。最常用的方法是写一个自动化程序向网络服务器请求数据(通常是用 HTML 表单或其他网页文件),然后对数据进行解析,提取需要的信息。 本文假定读者已经了解如何用代码来抓取一个远程的 URL,并具备表单如何提交及 JavaScri...转载 2018-08-28 11:59:28 · 2878 阅读 · 0 评论 -
基于小波变换的时间序列预测,Python实现,来自雪球,
作者:量化哥-优矿Uqer链接:https://xueqiu.com/4105947155/67920429?page=1来源:雪球基于小波变换的时间序列预测本文的主题是考察小波变换在预测方面的应用。 思路将数据序列进行小波分解,每一层分解的结果是上次分解得到的低频信号再分解成低频和高频两个部分。如此进过N层分解后源信号X被分解为:X = D1 + D2 + ... + DN ...转载 2018-08-28 11:58:11 · 15568 阅读 · 14 评论 -
列表、元组、字典、集合
1. 列表序列是Python中最基本的数据结构。序列中的每个元素都分配一个数字- 它的位置,或索引,第一个索引是0,第二个索引是1,依此类推。 Python有6个序列的内置类型,但最常见的是列表和元组。 序列都可以进行的操作包括索引,切片,加,乘,检查成员。 此外,Python已经内置确定序列的长度以及确定最大和最小的元素的方法。 列表是最常用的Python数据类型,它可以作为一个方...转载 2018-08-23 16:42:41 · 210 阅读 · 0 评论 -
常用Python第三方库 简介
如果说强大的标准库奠定了python发展的基石,丰富的第三方库则是python不断发展的保证,随着python的发展一些稳定的第三库被加入到了标准库里面,这里有6000多个第三方库的介绍:点这里或者访问:http://pypi.python.org/pypi?%3Aaction=index。下表中加粗并且标红的都是我平时使用较多的一些第三方库。(P.S.CSDN的这个表格功能太难用了,改HTML代转载 2015-09-08 17:21:19 · 548 阅读 · 0 评论 -
python 详解re模块
正则表达式的元字符有. ^ $ * ? { [ ] | ( ).表示任意字符[]用来匹配一个指定的字符类别,所谓的字符类别就是你想匹配的一个字符集,对于字符集中的字符可以理解成或的关系。^ 如果放在字符串的开头,则表示取非的意思。[^5]表示除了5之外的其他字符。而如果^不在字符串的开头,则表示它本身。具有重复功能的元字符:* 对于前一个字符重复0到无穷次对于前一个字符转载 2016-01-18 11:13:14 · 236 阅读 · 0 评论 -
HTMLParser使用
from @汀芷, 感谢作者!HTMLParser具有小巧,快速的优点,缺点是相关文档比较少(英文的也少),很多功能需要自己摸索。对于初学者还是要费一些功夫的,而一旦上手以后,会发现HTMLParser的结构设计很巧妙,非常实用,基本你的各种需求都可以满足。 这里我根据自己这几个月来的经验,写了一点入门的东西,希望能对新学习HTMLParser的朋友们有所帮助。(不过当年高考本转载 2016-01-18 16:49:57 · 230 阅读 · 0 评论 -
理解 Python 中的线程
我们将会看到一些在Python中使用线程的实例和如何避免线程之间的竞争。你应当将下边的例子运行多次,以便可以注意到线程是不可预测的和线程每次运行出的不同结果。声明:从这里开始忘掉你听到过的关于GIL的东西,因为GIL不会影响到我想要展示的东西。示例1我们将要请求五个不同的url:单线程123456转载 2016-01-26 09:35:53 · 350 阅读 · 0 评论 -
python 多线程就这么简单
多线程和多进程是什么自行google补脑 对于python 多线程的理解,我花了很长时间,搜索的大部份文章都不够通俗易懂。所以,这里力图用简单的例子,让你对多线程有个初步的认识。 单线程 在好些年前的MS-DOS时代,操作系统处理问题都是单任务的,我想做听音乐和看电影两件事儿,那么一定要先排一下顺序。(好吧!我们不纠结在DOS时代是否有听音乐和转载 2016-01-26 12:29:38 · 299 阅读 · 0 评论 -
python 多线程就这么简单(续)
之前讲了多线程的一篇博客,感觉讲的意犹未尽,其实,多线程非常有意思。因为我们在使用电脑的过程中无时无刻都在多进程和多线程。我们可以接着之前的例子继续讲。请先看我的上一篇博客。python 多线程就这么简单 从上面例子中发现线程的创建是颇为麻烦的,每创建一个线程都需要创建一个tx(t1、t2、...),如果创建的线程多时候这样极其不方便。下面对通过例子进行继续改进:play转载 2016-01-26 12:30:07 · 486 阅读 · 0 评论 -
Python 字符串操作方法大全
1、去空格及特殊符号复制代码 代码如下:s.strip().lstrip().rstrip(',')2、复制字符串复制代码 代码如下:#strcpy(sStr1,sStr2)sStr1 = 'strcpy'sStr2 = sStr1sStr1 = 'strcpy2'print sStr23、连接字符串复制代码 代码如下:#strcat(s转载 2016-02-01 09:15:16 · 244 阅读 · 0 评论 -
Django在Window下的部署
前言本文主要介绍利用apache去部署Django项目,所有步骤均在本机Window7和阿里云验证通过。配置本例的基本配置如下:工作目录: C:/virtualenv/zakkabag项目名称: zakkabag 最终的安装版本如下,后面我会一步一步描述如何安装 操作系统 python mysql ...转载 2018-08-22 11:41:00 · 3194 阅读 · 0 评论 -
使用Python快速制作可视化报表
我们可以试用可视化包——Pyechart。Echarts是百度开源的一个数据可视化JS库,主要用于数据可视化。pyecharts是一个用于生成Echarts图标的类库。实际就是Echarts与Python的对接。安装pyecharts兼容Python2和Python3。执行代码:pip install pyecharts(快捷键Windows+R——输入cmd)初级图表...转载 2018-08-22 11:59:26 · 5844 阅读 · 0 评论 -
django queryset values&values_list
values返回是字典列表; values_list返回的是元组列表, values_list加上 flat=True 1 之后返回值列表 #增_obj = {'netStates':HostInfo['NetStates'],'ip':HostInfo['ip'],'mem':HostInfo['memoInfo'],'cpu':HostInfo['cp...转载 2018-08-23 16:39:13 · 2395 阅读 · 0 评论 -
[Python]网络爬虫
一、网络爬虫的定义网络爬虫,即Web Spider,是一个很形象的名字。把互联网比喻成一个蜘蛛网,那么Spider就是在网上爬来爬去的蜘蛛。网络蜘蛛是通过网页的链接地址来寻找网页的。从网站某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其它链接地址,然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到把这个网站所有的网页都抓取完为止。如转载 2015-08-14 15:40:29 · 1190 阅读 · 0 评论