python 埋点 库_测试~python库介绍(一) opencv

本文介绍了如何利用python的opencv库进行视频拆帧,以解决UI响应时间评测的问题。作者分享了过去手动计数帧数的繁琐方法,并展示了现在如何通过opencv自动化拆帧,计算APP首页加载时间,甚至对比竞品。通过记录帧差并乘以每帧时间,可以得到所需结果。此外,还提及了通过OCR识别和RGB色值分析来实现更高级别的自动化评测。
摘要由CSDN通过智能技术生成

前言

从事测试工作已有4年了,期间通过python编写了很多自动化脚本,接下来的日子和大家分享一下测试工作上常用的python库,适合常年从事黑盒测试的同学了解一些入门级技巧。

UI响应时间评测~前身

就在昨天,服务端给测试提了一个评测需求,从APP点击到皮肤商城首页加载完成的时间,并对比竞品。如果只有前者,我们可以通过埋点的形式获取,但涉及竞品就只能通过视频数帧的形式了。

这个需求如果放在4年前,我的做法是这样的

1、取一款60FPS手机(若粒度精细可使用iPhone的慢动作,最高可达240fps),使用支架固定,打开开发者指针位置;

2、取测试机放在镜头前,手动点击app,跳转完成后清除数据重复操作;

3、用KMplayer播放视频,按F键一帧一帧的计算图像变化,算出启用加载的总时长。

过程和结果一般会是这样的o(╥﹏╥)o

4c96ca0b2ca0c398bec770024fb07a45.png

是的,数着数着就瞌睡了,然后从头再来\(^o^)/~

视频自动拆帧~opencv

如今,python可以完美的解决这种问题,今天给大家介绍可以实现拆帧的一个python库:opencv-python,通过视频拆帧的形式解决所有突发的不复用的评测需求。

以python3为例,首先安装python-opencv库:

pip install opencv-python

(注意:安装时的库名称是opencv-python,而不是python-opencv)

通过调用“adb shell screenrecord”录制一段操作视频(目前华为设备屏蔽了screenrecord接口,只能通过其他途径录制),然后调用视频进行拆帧,并将图片保存在本地,代码如下:

import cv2# 打开目标视频video = cv2.VideoCapture("D:\\Test\\MyVideo_1.mp4")# 获取视频的帧率fps = video.get(cv2.CAP_PROP_FPS)fps_id = 1 # 记录帧数timeF = 1 # 隔几帧取一张图片image_id = 0 # 图片编号# rval:是否读取成功,frame:图片的内容rval, frame=video.read()while rval:if (fps_id%timeF == 0):image_id +=1print(image_id)# 保存图片到指定目录cv2.imwrite(r"D:\\Test\\img\%d.jpg"%image_id, frame)fps_id = fps_id+1cv2.waitKey(1)video.release()

结果如下:

b32c760d2b6941a6162f91a44b865bf4.png

文件夹设置超大图标,滚动找到起始点和结束点的图片,算得帧差,并乘以每帧的时间,就是我们要的结果了。

如果是复用性强的需求,还可以通过截取图片的特定部位,计算RGB色值/OCR识别文案,来判断起始位置,实现全自动化评测。

结语

opencv拆帧就介绍到这里,还在做黑盒手工评测的同学可以参考这个方法,并可以学习下RGB/OCR识别来辅助进行评测。

6174ecdf7e38017ef1e93550858c64c8.png

8aa3c25c526f7d0f7dc093faed7256e9.png

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值