测试中常遇到的问题

(1)质量衡量标准 (标尺)

可清晰量化的衡量产品质量

(2)测试覆盖率-代码块覆盖,功能覆盖,用例覆盖.... 这么多覆盖率,每个覆盖率,合理的目标是多少? 50%? 80% 100%

(3)按照找到的缺陷数目,多少是被用户找到的,多少是被内部非测试团队找到的,多少是被测试团队找到的,以此为衡量质量的标尺之一?

(4)重复发生的回归性缺陷数目 

(5)补丁和Service package数量,来衡量质量 

我们有这么多可以用来衡量质量的标准,那么,哪些应该是核心的标准,最重要的普遍标准.怎么把各个标准和质量关联上?

制定发布的质量指标,怎样才是正确的指标,可以指导我们决定发布还是延迟发布产品直到我们达到该指标.

怎么定义测试效率?包括怎么衡量s变化对测试的影响..

怎么定义测试"完成"了?

复杂领域产品测试:

(6)音频和视频质量测试

"看起来效果对吗?"

"听起来效果对吗?"

效果"好"吗?

(7)各种主观类型的测试判断

(8)测试工具对系统本身的影响(测不准原理?):

性能测试工具本身对机器性能的影响所导致的测不准效果.

测试要素的各种组合(测试范围庞大):

测试要素组合, 覆盖各种可能组合,将变得庞大: 操作系统 vs. 调试/发布 vs. 硬件配置 vs. 各种语言 vs. etc. vs. etc.

无穷无尽的用户可能输入.

有时间相关性的产品的测试.各种时间可能的穷举是无限的.

整个产品范围测试中的问题

整个产品的压力测试 

这个产品性能测试 vs. 各个开发组对自己模块所作的性能测试

集成测试.

测试集优选:

由时间和进度影响决定?

由用户影响决定?

由平均测试用例所找到的缺陷数决定? (或者考虑其他投资回报因素而决定)

挑选测试用例覆盖了所更改的代码,依此决定?

由所要测试的代码复杂度决定?

(9)项目计划安排:

(10)准确估计测试所需要的时间.

(11)测试团队如何参与决定项目整体进度计划.

(12)敏捷快速迭代测试的计划安排.

测试对项目的影响:

争取修复缺陷– i.e. 比如要求开发组修复缺陷,而他们回答"没人会这么做!", 这个时候怎么有理有据
的坚持要求修复缺陷.

设计阶段的测试团队参与 – 可测试性的分析/设计.

是否该拥有对发布/不发布的决策的影响.

(13)测试自动化:

自动化测试用例的后期维护梦魇.

怎么模拟人眼人耳来做自动化测试(音频/视频测试)

产品代码中缺乏足够的接口来支持自动化测试(比如开发人员自己画出来的控件)

模拟N用户操作的自动化测试(N非常大)

模拟真实的用户-- [随机的用户行为]

(14)集成测试:

集成测试中的自动化测试

调试的责任,谁做集成测试,谁负责调试整个产品中的问题?

集成测试应该包含哪些测试用例?

其他普遍的难题:

几个版本发布之后,积累的测试代码变得臃肿和难以维护.

设计不好的测试代码,重复的测试代码,各个测试自动化队伍之间缺乏总体的设计和架构避免冗余工作
冗余的测试用例

留住有经验的测试人才


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值