自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(25)
  • 收藏
  • 关注

原创 python全栈开发之迭代器与生成器

列表生成式:使代码更简洁生成器不需要提前准备数据,只有在调用的时候才会生成相应的数据,这样可以节省大量空间函数变成生成器通过yield实现单线程的情况下实现并发效果迭代器小结...

2020-03-14 21:02:38 146

原创 python全栈开发之装饰器

装饰器decorator(语法糖)定义:本质是函数,功能:装饰其他函数,就是为其他函数添加附加功能原则:1.不能修改被装饰函数的源代码2.不能修改被装饰函数的调用方式实现装饰器需要的知识储备:1.函数即变量2.高阶函数:把一个函数名当作实参传给另一个函数(在不修改被修饰函数源代码的情况下为其添加新功能);返回值中包含函数名(不修改函数的调用方式)3.嵌套函数装饰器:高阶函数+...

2020-03-12 15:07:06 139

原创 python全栈开发之函数与函数式编程

python是纯面向对象的语言编程语言中函数的定义:函数是逻辑结构化和过程化的一种编程方法编程方式面向对象 -------->类-------->class面向过程 -------->过程----->def函数式编程------->函数----->def函数的三大优点代码重用使程序变得易维护可扩展性好正常情况下,给函数传参数要按顺序...

2020-03-11 20:26:42 168

原创 python全栈开发之day02基础知识查漏补缺

模块sys.argv使用寻找模块:先从当前路径寻找,找不到再从环境变量里找什么是pyc

2020-03-10 21:31:03 155

原创 python全栈开发之day01基础知识查漏补缺

python是一门什么语言编程语言主要从以下几个角度进行分类,编译型和解释型、静态语言和动态语言、强类型定义语言和弱类型定义语言。解释型语言更容易移植综上所述:python是一门动态解释性的强类型定义语言字符编码python2默认用ASCII进行编码,python3默认用utf-8进行编码。...

2020-03-08 16:45:51 162

原创 python基础之认识python

为什么要学python技术的提高知识量的积累,思想的提升才是质的飞跃

2020-03-07 21:57:14 109

原创 数据分析学习之matplotlib绘制其他图表

绘制散点图练习1from matplotlib import pyplot as pltfrom matplotlib import font_manager#温度数据y_3 = [11,17,16,11,12,11,12,6,6,7,8,9,12,15,14,17,18,21,16,17,20,14,15,15,15,19,21,22,22,22,23]y_10 = [26,26...

2020-02-28 12:55:35 242

原创 数据分析学习之matplotlib折线图

各种统计图的特点和用途什么是matplotlib最流行的python底层绘图库,主要做数据可视化图表,名字取材于MATLAB,模仿MATLIB构建为什么要学习matplotlib能将数据进行可视化,更直观的呈现使数据更加客观、更具说服力matplotlib基本要点安装matplotlib:pip install matplotlibfrom matplotlib...

2020-02-27 22:28:23 271

原创 数据分析学习之基础知识

为什么要学习数据分析有岗位需求是python数据科学的基础是机器学习课程的基础什么是数据分析数据分析使用适当的方法对收集来的大量数据进行分析,帮助人们进行判断,以便采取适当行动。安装jupyter notebook:pip install jupyter打开:cmd命令下jupyter notebook...

2020-02-27 17:27:20 146

原创 十五、学习分布式爬虫之下载器中间件

下载器中间件的介绍方法随机更换请求头中间件代码爬虫代码设置随机代理IP代码实现

2020-02-25 14:10:41 236

原创 十四、学习分布式爬虫之Scrapy

Scrapy框架学习目标理解scrapy框架。学会spider爬虫的编写。学会Crawlspider爬虫编写。学会中间件的编写。学会pipeline保存数据。学会将Scrapy结合selenium一起使用。学会在Scrapy中使用IP代理。Scrapy框架的介绍安装scrapyscrapy框架架构创建scrapy项目创建项目:scrapy startproj...

2020-02-22 21:42:59 347

原创 十三、学习分布式爬虫之字体反爬

字体反爬字体反爬原理网页开发者自己创造一种字体,因为在字体中每个文字都有其代号,那么以后在网页中不会直接显示这个文字的最终的效果,而是显示他的代号,因此即使获取到了网页中的文本内容,也只是获取到文字的代号,而不是文字本身。因为创造字体费时费力,并且如果把中国3000多常用汉字都实现,那么这个字体将达到几十兆,也会影响网页的加载。一般情况下为了反爬虫,仅会针对0-9以及少数汉字进行单独创建,...

2020-02-20 15:56:51 5977

原创 十二、学习分布式爬虫之验证码识别

验证码识别学习使用云打码识别图形验证码。学会把验证码识别技术应用到爬虫中。使用云打码平台from yundama import YDMHttpydm = YDMHttp(username='wuyuli',password='qingyao520yuli')uid = ydm.login()if not uid: print("登录失败")balance = ydm...

2020-02-20 10:36:36 151

原创 十一、学习分布式爬虫之selenium

selenium实战12306购票from selenium import webdriverfrom selenium.webdriver.support.ui import WebDriverWaitfrom selenium.webdriver.support import expected_conditions as ECfrom selenium.webdriver.common...

2020-02-19 15:11:50 448

原创 十、学习分布式爬虫之多线程

多线程的GIL锁python自带的解释器是CPython,CPython解释器的多线程实际上是一个假的多线程(在多核CPU中,只能利用一核,不能利用多核)。同一个时刻只有一个线程在执行,为了保证同一时刻只有一个线程在执行,在CPython解释器中有一个东西叫做GIL(Global Intepreter Lock)全局解释器锁。这个解释器锁是有必要的,因为CPython解释器的内存管理不是线程安全...

2020-02-18 16:44:49 213

原创 九、学习分布式爬虫之多线程

实例:多线程实现爬取王者荣耀高清壁纸import requestsfrom urllib import parsefrom urllib import requestimport osimport threadingfrom queue import Queueheaders = { 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; ...

2020-02-16 10:20:29 162

原创 八、学习分布式爬虫之多线程

多线程爬虫理解多线程掌握threading模块的使用掌握生产者消费者模式理解GIL能用多线程写爬虫什么是多线程理解:默认情况下,一个程序只有一个进程和一个线程,代码是依次线性执行的,而多线程则可以并发执行,一次性多个人做多件事,自然比单线程更快。threading模块threading模块是python中专门提供用来做多线程编程的模块。threading模块中最常用的类是Th...

2020-02-13 22:03:41 275

原创 七、学习分布式爬虫之数据存储

数据存储JSON文件格式处理:网络交互CSV文件格式处理:数据分析Excel文件处理:数据分析和运营MySQL数据库处理:数据分析和网站JSON文件格式处理JSON字符串介绍JSON(JavaScript Object Notation,JS对象标记)是一种轻量级的数据交换格式。它基于ECMAScript(w3c制定的js规范)的一个子集,采用完全独立于编程语言的文本格式来存储...

2020-02-13 14:14:39 335

原创 六、学习分布式爬虫之正则表达式

正则表达式和re模块什么是正则表达式:通俗的理解,就是按照一定的规则,从某个字符串中匹配出想要的数据。这个规则就是正则表达式。正则表达式语法import re# 匹配某个字符串# text = 'abc'# ret = re.match('a',text) #从最开始的位置匹配第一个符合规则的字符或字符串# print(ret) #<re.Match objec...

2020-02-12 15:07:56 244

原创 五、分布式爬虫学习之BeautSoup4

BeautifulSoup4库和lxml一样,BeautifulSoup也是一个HTML/XML的解析器,主要功能也是如何解析和提取HTML/XML数据。区别:lxml只会局部遍历,而BeautifulSoup是基于HTML DOM(Document Object Model)的,会载入整个文档,解析DOM树,因此时间和内存开销都会大很多,所以性能要低于lxml。BeautifulSoup4...

2020-02-11 21:24:52 483

原创 四、学习分布式爬虫之Xpath

数据解析:Xpath语法和lxml库BeautifulSoup4库正则表达式和re模块1.Xpath语法和lxml库什么是Xpathxpath(XML Path HTML)是一门在XML和HTML文档中查找信息的语言,可用来在XML和HTML文档中对元素和属性进行遍历xpath语法:选取多个路径:通过在路径表达式中使用“|”运算符,可以选取若干个路径。示例如下:/...

2020-02-10 22:37:17 429

原创 三、学习分布式爬虫之requests库

requests库基本使用(第三方库)虽然python的标准库中的urllib模块已经包含了平常我们使用的大多数功能,但是它的API使用起来让人感觉不太好,而Requests宣传“HTTP for Humans”,说明使用更简便。Requests使用python语言编写,基于urllib,但是它比urllib更加方便,可以节约我们大量的工作,完全满足HTTP测试需求。安装:pip insta...

2020-02-10 14:19:40 702

原创 二、学习分布式爬虫之urllib库

urllib库(python自带)urllib库是python中一个基本的网络请求库,可以模拟浏览器行为,向指定的服务器发送请求,并可以保存服务器返回的数据。python3的urllib库中所有和网络请求相关的方法,都被集到urllib.request模块中urlopen函数创建一个表示远程url的类文件对象,然后像本地文件一样操作这个类文件对象来获取远程数据。(浏览器打开网址)url...

2020-02-09 22:02:11 269

原创 一、学习分布式python网络爬虫第一天

爬虫基础知识1.什么是爬虫爬虫是一个模拟人类请求网站行为的程序,可以自动请求网页,并把数据爬取下来,然后用一定的规则提取有价值的数据。2.爬虫的应用场景a. 搜索引擎(百度等)b. 数据分析c. 抢票软件等3.为什么要用python写爬虫python语法优美、代码简洁、开发效率高、支持的模块多,相关的HTTP请求模块和HTML解析模块非常丰富,还有scrapy和scrapy_red...

2020-02-08 15:42:55 198

原创 day1(Python爬虫:天气

import requestsfrom bs4 import BeautifulSoup#抓取天气def getHTMLText(url): try: r=requests.get(url) r.raise_for_status() r.encoding=r.apparent_encoding return r.tex...

2018-07-15 21:20:32 515

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除