自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(27)
  • 收藏
  • 关注

转载 系统架构测试

做一个系统的测试,最重要的工作是需求、架构上的了解、分析与测试工作,当一栋大楼连架构都没有大好,不管混凝土做的有多好,都不能挽救大楼的崩溃, 做过一个系统,系统主要是做数据分析方面的工作,这个系统其实才刚刚起步阶段,用户人群、定位其实都还没有到非常复杂的情况,而且系统的整体架构冗余、复杂、web和数据库重复使用分布式计算,前端+nginx搭建,Web Master+Agent+Zook...

2019-05-15 19:10:00 1125

转载 需求测试问题-权限泄露

用户权限需求:1.系统管理员可新增模块A管理员,系统管理员无权限查看模块A的数据-----该需求没有问题,为了实现功能和数据权限的隔离,保证用户数据不泄露 2.模块A管理元可新增A数据,在新增A数据时,可执行该条数据权限的浏览权限人员-------问题出在该条需求上,系统目前功能权限未实现到按钮粒度,当赋予A数据权限浏览的同时,被赋予...

2019-05-15 18:58:00 167

转载 CentOS 7 安装mysql 5.7版本

1.安装包下载 https://dev.mysql.com/downloads/mysql/5.7.html#downloads   选择下面的RPM Bundle这个直接下载(wget有点慢,我直接用迅雷下载的)   wgethttps://cdn.mysql.com//Downloads/MySQL-5.7/mysql-5.7.25-1.el7.x86_64.rpm...

2019-04-05 23:42:00 151

转载 数据导入测试注意点

当我们测试大数据系统时,肯定存在数据的入口,那么针对这个入口有哪些重要的测试点呢: 1.我们需针对文件大小做测试,需测试系统能够处理的最大文件是多大,单个多大,并发多大? 2.其次我们需针对文件内容进行测试,文件内容的格式,还有字段的内容,字段的内容需考虑各种特殊字符,如双引号、空格, 目前已经遇到了含有双引号的数据导入失败,含有空格的文件导入后,空格被处理成了null 转载于:...

2019-03-19 22:27:00 341

转载 大数据性能测试问题

传统的测试是模拟用户并发访问web,通常需要查看系统的吞吐量和响应时间,响应时间要求一般在5s以内。 然而大数据系统的性能测试,更应该着重考虑系统处理数据的能力,一般细化为以下内容: 1.大数据文件上传能力,需测试多大并发量,多大文件,上传时间的基线是多少,是否满足性能基线要求,2h参考 2.大数据文件入hdfs能力,需测试多少并发,多大文件,hdfs写入时间大概是多少,30s参考...

2019-03-19 22:22:00 443

转载 数据库错误

2019.3.19 ---- 新增一条记录,名称输入21个字符,新增报错,原因是数据库中字段长度只有20,当新增21个字符的名称时,数据库报错 转载于:https://www.cnblogs.com/jwr810/p/10561812.html...

2019-03-19 22:11:00 424

转载 文件上传-文件大小

1.针对文件上传,有几点设计必须考虑,文件大小、类型和文件名白名单 其中文件大小应参考浏览器最大支持的文件大小,另外还需考虑文件最终用途,通过最终用户来考虑文件大小是否合适。 一个很搞笑的bug,文件大小限制在几十G,实际上浏览器不过才能支持2G的。 转载于:https://www.cnblogs.com/jwr810/p/10498595.html...

2019-03-08 22:14:00 200

转载 大数据测试经验库-可能被误解成脏数据的,数据格式

当我需要完成大数据测试时,其中有个功能是数据入库,在对数据入库进行分析时,当时主要是考虑数据字段的类型、个数、数据文件的大小,对数据内容的分析较为困难,故数据内容的等价类必须进行严格测试,而且这个测试需要依赖我们的经验库,今天的经验库是双引号: 等价类划分应有:数字、字母、中文、特殊字符、超长字符(正常、异常), 经验库是针对特殊字符:目前发现内容中包含双引号时,数据入库hdfs报失...

2019-03-08 22:08:00 158

转载 隐式BUG一-系统自定义规则,存在高重复,违反了唯一性约束条件

隐式bug指代码内部设定的边界值或规则导致的bug,从纯黑盒分析来看,很难分析到该问题,需要白盒测试或灰盒测试才能发现: 测试点:同步功能,同步时自动创建一个用户名,开发在处理该项功能时,创建的用户名使用的时同步数据名的首字母集合+数据生成的日期(天),由于日期粒度太粗,首字母集合也容易重复,这就导致了当有两类数据,这两项条件都一致时,系统同步失败 转载于:https://www.c...

2019-02-27 21:10:00 132

转载 特权用户-请求头隐藏暗门

安全问题:在请求头中带上X-NON-VALID:True,请求就带有特权,不用经过权限审查 测试方法:前后端代码审查,阅读权限校验代码,发现代码中存在暗门 转载于:https://www.cnblogs.com/jwr810/p/10440191.html...

2019-02-26 21:09:00 188

转载 敏感信息管理

敏感信息泄露: 问题:正常测试环境下,接口返回消息中含有用户名、密码 测试方法:测试时查看接口返回值,验证返回值中是否包含敏感信息 测试难点:系统接口众多,测试执行一次成本较高,应编写自动化脚本进行测试 敏感信息密码管理: 1.密码应加密存储,不使用接口传输 2.不使用MD5等不安全加密方式,至少使用AES128及以上安全加密算法 3.使用Securerandom with...

2019-02-26 20:54:00 276

转载 异常未处理,打印堆栈日志,暴露数据库信息

安全问题:程序遇到异常时未处理,直接打印堆栈 测试难点:不阅读代码,不清楚怎样测试才能获取堆栈日志----这个问题还在深入研究中,一种是白盒测试,一种是靠经验积累,本篇记录就是经验累积的过程 测试方法:人为制造系统异常,想要测试程序异常,那么就不能停止web的部署,那么本次测试关注点在数据库上,且也是想抓取数据库的异常堆栈,故采取的测试手段是更改数据库用户的权限,取消用户的数据查询、...

2019-02-25 20:56:00 276

转载 函数学习知识点补充

1.函数重复定义,执行最后定义的,前面的重复函数都会被当作垃圾函数被回收,举例: def f1(a1,a2):   print(a1+a2) def f1(a1,a2):   print(a1*a2) f1(8,8) ---------64 2.函数传递参数传递的是引用,在函数中对参数操作将彻底变更参数的值 def f1(a1):   a1.append(999) l...

2019-02-23 10:52:00 143

转载 优化开发测试沟通

曾经我们在项目回顾会上发现几乎80%的开发给测试的意见是,硬提单,意思是问题因为双方对需求的理解不同,而认为不是问题: 为解决该问题,我们在项目设计阶段加强与开发头脑风暴,细化探讨每个story的实现,并针对所有探讨的问题进行跟踪记录,由测试发起question,开发负责回复。 刚开始开发觉得有点麻烦,渐渐的开发也意识到了这个办法的优点,因为开发分到的开发任务,很多他在实现的时候也会...

2019-02-22 21:58:00 104

转载 执行数据库初始化脚本时,提示请输入参数

系统数据库安装,执行初始化数据脚本,总是弹出一个弹出框,提示请输入参数值。 这个提示信息在使用不同的数据库客户端软件表现不一致,当使用plsql刷库时,该问题必现。 通过搜索弹出框中需设置参数值的项名称:Chem,发现脚本中存在20多处使用到Chem的,经比对,其中19处使用冒号 “Chem:”,可是提示需要输入参数只弹出一次,所以判断 不是冒号引起的问题,后面看到了还有一处写成:C...

2019-02-22 20:56:00 935

转载 没有测试实践就没有发言权

今天一整天的工作都感觉乱糟糟的,针对系统可安装性测试,事实证明必须自己一步一步测试,千万不能相信开发的,我已经试过了,没问题的。 如果你相信他,你就傻了。今天一整天我经历的各种对开发信任的催残,严重认识到原来在他们眼里那么多的不合理居然都是合理的,如没有提供配置入口,没有提供数据库安装文档等等。 总结经验就是严格按照测试计划一步一步执行。 转载于:https://www.cnblo...

2019-02-21 22:14:00 149

转载 scrapy pipeline导出csv乱码处理,关键点是要把编码格式改为utf-8-sig

from scrapy import signalsfrom scrapy.exporters import CsvItemExporterclass JsgovcspiderPipeline(object): def __init__(self): self.files = {} @classmethod def from_crawler(cls, cr...

2019-02-21 22:10:00 451

转载 典型bug-数据文件大小限制

本文记录一个隐藏较深的上传功能bug,上传功能测试首要考虑文件大小和文件类型限制,如果是没有做大小和类型限制,这不算典型,只能是基本问题,那么现在要讲的典型问题是什么呢: 一是:如果这个文件是要被命令行调用的,那么还需要对文件名进行限制,一些命令行不能允许设置为文件名。 二是:如何界定文件应限制的大小,我们遇到系统犯了一个错误,是没有从全局系统角度来考虑这个文件的大小,而是根据一个经...

2019-02-20 20:41:00 148

转载 项目管理-典型问题解决2019.2.20

经典问题解决,该问题的值得记录的原因并不是问题有多么难,而是测试在解决问题中起到的关键作用, 问题是这样,系统原本有个隐藏问题是sftp连接偶现失败,该问题初步定位时上报PM是由于环境原因引起,但后来事实证明是有bug,sftp一系列操作未将异常处理好,一旦上传失败后,分支未走到sftp断连处理。导致一段时间后sftp连接数达到上限。 问题的引发就是基于上面这个问题引起的,因为有个紧...

2019-02-20 20:03:00 102

转载 Xpath语法笔记

一、选取节点常用的路劲表达式: 表达式 描述 实例 nodename 选取nodename节点的所有子节点 xpath(‘//div’) 选取了div节点的所有子节点 / 从根节点选取 xpath(‘/div’) 从根节点上选取div节点 // 选取所有的当前节点,不考虑他们的位置 xpath(‘//div...

2019-02-18 21:48:00 72

转载 Scrapy-Xpath 实例

Refer to :https://doc.scrapy.org/en/latest/topics/selectors.html#topics-selectors >>> from scrapy import Selector >>> doc = u""" ... <div> ... <ul> ... ...

2019-02-18 21:22:00 161

转载 需求分析典型失败案例

本篇博文记录错误的需求分析对项目的重大影响: 需求:生成年度报表,每个月对报表数据更新,要求历史数据不能丢失 错误的需求分析:按月生成报表,不能在一张报表中看到每个月的数据,而是切割成了12张报表 转载于:https://www.cnblogs.com/jwr810/p/10397818.html...

2019-02-18 20:37:00 1899

转载 记录-Web自动化使用场景

本篇随笔想要记录在什么样的测试场景下,我们应该使用Web自动化用例: 场景一:新增、修改、查询的校验场景用例,每一个应用系统都跟增删改功能脱离不开,那涉及到这部分功能,就必不可少有一堆校验用例,这堆用例又多又琐碎,而当我们需要重复测试这部分功能时,测试人员的心理那是一个烦啊,纯粹的手工测试,你不测吧 担心功能被开发改出问题,你测吧,测几百上千个都不一定能发现一个问题,怎么办怎么办,自动...

2019-02-18 20:32:00 360

转载 成长-论计划的重要性及该如何做计划

听了太多分享要做目标、要做计划,之前做单一项目时计划都其实很敷衍很形式 然而最近手头上项目越来越多时,我渐渐发现一个问题每天都感觉有那么多工作要做,每天都非常非常忙,不过当上级需要了解我的项目进展时,汇报往往不尽如人意,且每项工作都没有忙出个所以然来。 痛定思痛,经验教训总结,其实当手头上有很多工作汇聚时,此时不是应该立即投入工作,而是应该先做计划安排,给有限的精力安排好计划,既可以...

2019-02-17 14:32:00 139

转载 Scrapy的运作流程

1 引擎:Hi!Spider, 你要处理哪一个网站? 2 Spider:老大要我处理xxxx.com。 3 引擎:你把第一个需要处理的URL给我吧。 4 Spider:给你,第一个URL是xxxxxxx.com。 5 引擎:Hi!调度器,我这有request请求你帮我排序入队一下。 6 调度器:好的,正在处理你等一下。 7 引擎:Hi!调度器,把你处理好的request请...

2019-02-16 12:07:00 98

转载 Scrapy架构图

Scrapy Engine(引擎): 负责Spider、ItemPipeline、Downloader、Scheduler中间的通讯,信号、数据传递等。 Scheduler(调度器): 它负责接受引擎发送过来的Request请求,并按照一定的方式进行整理排列,入队,当引擎需要时,交还给引擎。 Downloader(下载器):负责下载Scrapy Engin...

2019-02-16 12:05:00 106

转载 python3.7 Scrapy在Windows平台的安装

1.安装python并配置好环境变量 2.更新pip ,这步操作时遇到了问题,更新超时了,所以加上--default-timeout来解决超时问题:python -m pip--default-timeout=100install --upgrade pip 3.安装lxml :pip intsall lxml 4.安装wheel:pip install wheel 5.在...

2019-02-16 11:31:00 139

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除