UI 测试难题!自动化识别图片的正确率如何达到100%!

文章讲述了如何使用Python和OpenCV在UI自动化测试中比较图片差异,包括RGB转灰度、尺寸调整、特征提取和匹配,以及结构相似性和阈值处理等方法。讨论了可能出现的误差并提出了改进策略。
摘要由CSDN通过智能技术生成

摘要

在ui自动化测试领域,会遇到这样的情形:发布一张图片或上传一个头像,如何通过自动化测试的方式判定发布后的图片是否正确呢?又或者,我们如何通过自动化测试的方式判定某网页的某个logo是否与预期的一致呢?也许,你会想,要是能够自动比对图片,将差异化的点在图片上圈出来就好了。相信我,只要你想,就会有。

试想一下,上述情形,像不像我们常玩的“一起来找茬”呢?让我们以具体案例展示如何以自动化的方式“找茬”。

如下所示,图1、图2是我们两张相似图片(暂定图1名为img1,图2名为img2)。我们以图1、图2为例,使用自动化的方法找出两张图片中差异之处。

图片

图1. img1    

图片

图2. img2

方案设计

对于比较图片差异性,我们经常使用的是图片识别的方法。最基本的方法则是:

图片

  • “RGB转灰”将图片转换为灰度图,去除颜色信息干扰;

  • “切割/缩放至相同尺寸”是为了保持一致性、防止失真,避免图片在尺寸变化时产生失真和形变,从而确保图片的质量和准确性,也避免因为图片的尺寸不同,影响判定结果。

    同时,缩放和切割,也可以减少图片处理过程中的计算量,提高效率;

  • “获取图片之间的差异性”有很多方法,例如特征提取和匹配,使用特征提取算法来提取图片中的特征点,并使用特征匹配算法来匹配两张图片中的特征点。这种方法可以在一定程度上容忍平移、旋转、缩放等变化。

    例如局部比较,将图片分成小块,分别比较每个小块之间的相似性。这种方法可以帮助排除局部变化所引起的影响。

    例如结构化比较,将图片转换为结构化数据(例如直方图、颜色直方图、梯度直方图等),然后比较结构化数据之间的相似性。

    例如深度学习方法,使用深度学习模型来学习图片的表示,并进行图片的比较和匹配;

  • “找到图片之间的差异区域”在获取图片之间的差异性之后,常通过阈值化处理和边界检测等方法,圈出对比图片间差异区域。

    其中,阈值化处理是将差异区域和背景分离开来。而边界检测算法(或者轮廓检测算法),则是圈定差异区域的边界;

  • “标记差异区域”则相对简单,将检测出的差异区域编辑,通过一定的轮廓形状(如矩形)和颜色(如红色)在原图种标记出来。

现在我也找了很多测试的朋友,做了一个分享技术的交流群,共享了很多我们收集的技术文档和视频教程。
如果你不想再体验自学时找不到资源,没人解答问题,坚持几天便放弃的感受
可以加入我们一起交流。而且还有很多在自动化,性能,安全,测试开发等等方面有一定建树的技术大牛
分享他们的经验,还会分享很多直播讲座和技术沙龙
可以免费学习!划重点!开源的!!!
qq群号:691998057【暗号:csdn999】

简单阐述了设计方案,接下来让我们看看具体实现方法。

具体实现

本文中,我们使用python的OpenCv模块来实现我们的需求。

如下图3、图4所示,是我们将图1、图2灰化处理后的图片。将彩色图片转为灰度图,只需一行代码即可:

gray_img1 = cv2.imread(img1, cv2.IMREAD_GRAYSCALE)gray_img2 = cv2.imread(img2, cv2.IMREAD_GRAYSCALE)

即,通过cv2.IMREAD_GRAYSCALE将原始图片作为灰度图读入。

图片

图3.img1灰度图gray_img1

图片

图4.img2灰度图gray_img2

在本文中,通过将gray_img2灰度图调整为gray_img1灰度图大小,保持两张图片的大小一致。

height1, width1 = gray_img1.shape[:2]height2, width2 = gray_img2.shape[:2]gray_img2 = cv2.resize(gray_img1, (width1, height1))

如下图5所示,为gray_img2和gray_img1通过结构相似性计算得到的差异图。

(score, diff) = structural_similarity(gray_img1, gray_img2 , full=True)diff = (diff * 255).astype("uint8")

图片

图5 gray_img1和gray_img2差异图

获取差异图后,再经过阈值处理和边界检测,获得差异性区域。通过矩形圈出原图中,具有差异的区域。具体如下图6、图7所示:

thresh = cv2.threshold(diff, 0, 255,                       cv2.THRESH_BINARY_INV | cv2.THRESH_OTSU)[1]cnts = cv2.findContours(thresh.copy(), cv2.RETR_EXTERNAL,                        cv2.CHAIN_APPROX_SIMPLE)cnts = imutils.grab_contours(cnts)for c in cnts:    # images differ    (x, y, w, h) = cv2.boundingRect(c)    cv2.rectangle(img1, (x, y), (x + w, y + h), (0, 0, 255), 2)    cv2.rectangle(img2, (x, y), (x + w, y + h), (0, 0, 255), 2)

图片

图6.img1差异性区域判定图

图片

图7.img2差异性区域判定图

结果对比

让我们来看看自动化获取图片差异性的结果与真实差异区域结果的对比,即:让我们来看看以上方法的优良。

如下图8所示,为img2原始图,图9为自动化识别差异区域结果图,图10为人工识别的差异区域结果图。

图片

图8.img2原始图

图片

图9.自动化识别结果图

图片

图10.人工识别结果图

不难看出,自动化识别的结果正确性为2/3,其中最右侧绿色球形部分没有正确检测出来。除此之外,图9中还有许多虚假差异性区域被检测出来了。

那,这是不是说,我们自动化识别的效果不理想呢?更或者,有人会跳出来说:你这结果差太远了,还不如不做!

其实,并非如此。绿色球形部分没被检测出来,是因为本文中使用的图片灰化方法,将彩色图片转为灰度图时,会丢失某些色彩信息,导致在灰化后,相同的结构、灰度相近的颜色不会被检测出来。

而其中增加了许多虚假区域的检测结果,是因为本文是直接截取的网站图片,原始大小和边界具有一定差异性(最明显的就是图9中,上下边缘被标记的红色线条区域),导致检测结果有一定误差性。

本文中,只是选择了最基本的实现方法为例,阐述自动化识别在图片中的作用。

虽有误差,但正确性依然可圈可点。由此可见,自动化识别在我们ui自动化测试中(例如图片识别、图片对别等)有一席之地,可以帮助我们提升某些场景下(例如发布一张图片或上传一个头像,通过自动化测试的方式判定发布后的图片的正确性)测试效率。

在文章的最后,想问大家:对于本文中出现的两个检测性误差问题,要如何解决呢?

  • 1) 彩色图片灰化,丢失色彩信息,导致检测误差;

  • 2) 图片截取,原始大小和边界具有一定差异性,导致检测误差;

欢迎大家积极留言互动~

下面是配套资料,对于做【软件测试】的朋友来说应该是最全面最完整的备战仓库,这个仓库也陪伴我走过了最艰难的路程,希望也能帮助到你!

最后: 可以在公众号:程序员小濠 ! 免费领取一份216页软件测试工程师面试宝典文档资料。以及相对应的视频学习教程免费分享!,其中包括了有基础知识、Linux必备、Shell、互联网程序原理、Mysql数据库、抓包工具专题、接口测试工具、测试进阶-Python编程、Web自动化测试、APP自动化测试、接口自动化测试、测试高级持续集成、测试架构开发测试框架、性能测试、安全测试等。

如果我的博客对你有帮助、如果你喜欢我的博客内容,请 “点赞” “评论” “收藏” 一键三连哦!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值