自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

zupzng的博客

朝菌不知晦朔,蟪蛄不知春秋

  • 博客(17)
  • 资源 (4)
  • 收藏
  • 关注

原创 1.SQL查询:45道经典SQL题

CREATE TABLE STUDENT(SNO VARCHAR(3) NOT NULL, SNAME VARCHAR(4) NOT NULL,SSEX VARCHAR(2) NOT NULL, SBIRTHDAY DATE,SCLASS VARCHAR(5)); CREATE TABLE TEACHER (TNO VARCHAR(3) NOT NULL, TNAME VAR...

2019-01-21 04:14:59 602

原创 Python+Selenium用例模块数据化之4:多账号登录并验证+增加测试报告接口

日志接口:log_module.pyimport timeimport osclass Loginfo(object): def __init__(self, mode='w'): #打开文件 path = os.path.dirname(os.path.abspath('.')) + '/mokuaihua/logs/' # 日志存储路径 file...

2018-06-09 10:30:03 1863

原创 Python+Selenium用例模块数据化之3:数据从文件中导入

webinfo.txt url=http://www.maiziedu.com/text_id=登录userid=id_account_lpwdid=id_password_lloginid=login_btnuserinfo.txtaccount=18665933615 pwd=abc123456account=123 pwd=abc123456account=632345244@q...

2018-06-09 10:18:38 1017 2

原创 Python+Selenium用例模块数据化之2:字典

from selenium import webdriverimport timefrom selenium.webdriver.support.ui import WebDriverWaitdef waituntil_load(driver,times,func): return WebDriverWait(driver,times).until(func)def openB...

2018-06-09 10:09:39 753

原创 Python+Selenium用例模块数据化之1:函数式编程和数据简单集中

以登录麦子学院为例url = 'http://www.maiziedu.com/'link_text = '登录'account = 'maizi_test@139.com'pwd = 'abc123456'def waituntil_load(driver,times,func): return WebDriverWait(driver,times).until(func)...

2018-06-09 10:05:54 342

原创 Python+Selenium基础篇之4:selenium页面设置操作方法

1.常用方法driver = webdriver.chrome()driver.get("http://www.baidu.com/")driver.get_cookies()# 获取当前页面Cookiedriver.page_source# 打印网页渲染后的源代码driver.save_screenshot("长城.png")#截图driver.get_screenshot_as_file...

2018-06-09 09:53:53 915

原创 python3实现mysql导出到excel、txt

import pymysqlimport xlwtdef sql(sql): #定义一个执行SQL的函数 conn = pymysql.connect(host='localhost', port=3306, user='root', passwd='123456', db='lagou', charset='utf8') ...

2018-05-11 15:30:56 3187 3

原创 Python+Selenium基础篇之3:第一个完整的自动化测试脚本

我们的测试用例是:打开百度首页,搜索Selenium,然后检查搜索列表,有没有Selenium这个官网链接选项。      在写自动化脚本之前,需要明确手动脚本的步骤,然后去拆分到具体没一个步骤做什么,考虑好了之后,才开始动手去写脚本。我把这个测试场景分拆如下步骤:1) 启动后浏览器,这里我们用Chrome2) 打开百度首页,https://www.baidu.com3) 定位搜索输入框,记录下输...

2018-05-03 18:45:06 3093

原创 Python+Selenium基础篇之2:selenium介绍

SeleniumSelenium是一个Web的自动化测试工具,最初是为网站自动化测试而开发的,类型像我们玩游戏用的按键精灵,可以按指定的命令自动操作,不同是Selenium 可以直接运行在浏览器上,它支持所有主流的浏览器(包括PhantomJS这些无界面的浏览器)。Selenium 可以根据我们的指令,让浏览器自动加载页面,获取需要的数据,甚至页面截屏,或者判断网站上某些动作是否发生。Seleni...

2018-05-03 17:09:42 1689

原创 Python+Selenium基础篇之1-环境搭建

                        Python + Selenium 自动化环境搭建过程1.  所需组建1.1  Python(勾选add to path)       验证python是否安装完成和path是否添加方法:打开cmd,输入python, 如果能看到python版本号,说明python安装成功并添加到环境变量。1.2  Selenium for python(直接安装:...

2018-05-03 17:01:58 521 1

原创 scrapy爬虫之pipelines图片下载

利用scrapy提供的专门处理下载的Pipeline(文件和图片下载),此原理与抓取页面原理一样,因此下载过程支持异步和多线程,下载十分高效。首先:定义存储文件的路径(settings中定义IMAGES_STORE变量)          如  IMAGES_STORE = './images'  ,也可以用绝对路径from scrapy.pipelines.images import Image...

2018-04-22 16:45:20 565

原创 python3使用pymysql连接Mysql 数据库及 简单的增删改查操作

示例表1查询操作import pymysql #导入 pymysql #打开数据库连接 db= pymysql.connect(host="localhost",user="root", password="123456",db="test",port=3307) # 使用cursor()方法获取操作游标 cur = db.cursor() #1...

2018-04-22 00:52:23 5748

原创 scrapy爬虫之pipelines(数据库和json)

数据存储第一种:本地jsonimport jsonclass JsonPipeline(object): def __init__(self): self.file = open('job.json','w',encoding='utf-8') def process_item(self, item, spider): line = json....

2018-04-22 00:13:44 705

原创 scrapy爬虫之反反爬虫措施

1.禁用Cookie部分网站会通过用户的Cookie信息对用户进行识别与分析,所以要防止目标网站识别我们的会话信息。在Scrapy中,默认是打开cookie的 (#COOKIES_ENABLED = False)设置为:COOKIES_ENABLED = False (cookie启用:no),对于需要cookie的可以在请求头中headers加入cookieclass LagouspiderSp...

2018-04-21 19:02:38 3178

原创 scrapy爬虫之爬取拉勾网职位信息

一.编写Itemimport scrapyclass LagouItem(scrapy.Item): # define the fields for your item here like: # name = scrapy.Field() positionId = scrapy.Field()#职位ID,作为辨识字段插入数据库 city = scrapy.F...

2018-04-21 16:34:17 437

原创 列表,元组,字点,集合,队列

1:在字点、列表、集合中根据条件筛选数据     过滤掉列表 data1 = [1,5,-3,-2,9,0,6] 中的负数,     筛选出字典 data2 = {'LIlei':'79','Jim':'88','Lucy':'92'} 中值高于90的项,     筛出集合 data3 = {77,89,32,20,153}中能背3整除的元素。问题一的三种解法(列表解析式最快,filter其次,第...

2018-04-15 13:58:20 546

原创 正则表达式小记

\w  匹配字母数字及下划线 \W  匹配非字母数字下划线 \s  匹配任意空白字符,等价于 [\t\n\r\f]. \S  匹配任意非空字符 \d  匹配任意数字,等价于 [0-9] \D  匹配任意非数字 \A  匹配字符串开始 \Z  匹配字符串结束,如果是存在换行,只匹配到换行前的结束字符串 \z  匹配字符串结束 \G  匹配最后匹配完成的位置 \n     匹配一个换行符 \t    ...

2018-03-30 08:41:48 363 1

python爬虫实例之拉钩网职位信息(更新日期2018年4月21日,使用scrapy,保存到本地json和mongo、mysql(同步和异步)数据库)

在scrapy框架里爬取拉勾网职位信息,利用抓包工具,构造请求头和formdata,利用cookie,实现资源的爬取(最新拉钩网反爬虫破解) Pipelins中包含写入本地json、mongoDB、mysql(同步)、mysql(异步),可通过settings设置选用

2018-04-22

python爬虫实例之拉钩网职位信息(更新日期2018年4月21日,使用scrapy,保存到本地json和mongo数据库)

在scrapy框架里爬取拉勾网职位信息,利用抓包工具,构造请求头和formdata,利用cookie,实现资源的爬取(最新拉钩网反爬虫破解)

2018-04-21

python爬虫实例之豆瓣电影(使用requests、lxml、xlwt模块,并有详细的注释和讲解)

注释详细,帮助短时间消化学会使用python3爬虫,了解并学习使用requests、lxml、xlwt库。实列中以爬豆瓣电影为例,并下载到表格中。

2018-03-23

python爬虫实例(使用requests、lxml、xlwt模块)

短时间迅速学会使用python3爬虫,了解并学习使用requests、lxml、xlwt库。实列中以爬Q房网为例。

2018-03-22

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除