基于 docker 的 UI 自动化测试实践

最近这段时间对内部的一个配置平台实现了UI自动化,过程中经常上testerhome寻找一些灵感和帮助,最后用到的一些技术比如 docker、behave、phantomjs等等目前论坛上的资料相对较少,所以特意记录下思路,希望可以给其他同学一点启发。

UI自动化框架的选择

在之前做过的一个Android自动化项目中选用了calabash,很喜欢BDD的风格,函数库够多的时候写起自动化来就像是把用例的中文翻译成英语,so easy~

但是也是之前使用calabash的经历发现ruby的库实在是不够丰富,虽然就语言本身更喜欢ruby一些,没办法,为了没那么多幺蛾子这次还是换成python吧。。。
python的BDD框架并不多,比较出名的是behave和lettuce,对比过后选择了behave。

好吧,其实没有真正对比试用过,就是被behave主页上对其他工具的恶毒攻击洗脑了~~ 
http://pythonhosted.org/behave/comparison.html

与Phantomjs的集成

简单来讲phantomjs是一个没有UI的浏览器,可以与selenium webdriver完美集成。
为什么要选用它:

  1. 快,没有GUI的浏览器比起chrome,firefox这些webdriver来执行速度要快很多
  2. 要测试的是内部的配置平台,没有那么多花哨的js,css,更加注重功能,phantomjs足够使用
  3. 就是想在linux下干活,但是我的server并没有UI。。。

behave中使用phantomjis

from behave import *
from selenium import webdriver
from selenium.webdriver.common.desired_capabilities import DesiredCapabilities

def before_scenario(context,scenario):
    context.dr = webdriver.PhantomJS('phantomjs',service_args=['--ignore-ssl-errors=yes'])
    context.dr.set_window_size(1360, 900)
    ...
from behave import *
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.common.keys import Keys
from selenium.webdriver.common.action_chains import ActionChains
from selenium.webdriver.common.alert import Alert

@given('I open test portal')
def step_impl(context):
    context.dr.get(context.index)
    assert_that(context.dr.current_url,matches_regexp('7030/cas/login'),"not auth page")
    ...

behave用例示例

    @1887204
    Scenario: 1887204-3
    Given I open test portal
    when I input username and login
    then I move to release rule page
    when I reset cfp cp-center log
    when I reset cfp carrier-center log
    then I create new release rule "autotest" "正常订购" "1" "diy" within "180"s
    | id | equal | value |
    | 运营商: | = | 中国联通 |
    | 套餐: | = | lt_50m_qg_suc |
    | 客户账号: | = | autotest |
    then I check cfp cp-center log within "30"s for "release order success.*target release count:1"
    ...

测试数据隔离怎么做

正常来说,到上面为止框架已经有了,后面就可以填用例了~

但是我想让自动化更加健壮一些,希望每个用例运行时都是干净的独立的环境。

这就需要我们对每次测试后的环境进行清理,而behave对于单个case并没有对应teardown这样一个专门清理的函数,这就使得错误发生后没有办法很好的还原环境。

最开始我们考虑在behave的after_scenario()方法中根据失败用例的tag进行特定的清理。
这样可以work,但是额外的清理会浪费较多时间,而且UI测试哪里有100%的事情,清理过程中的一点问题可能就造成了之后用例的大片失败,这让我们如履薄冰。

就在这个时候docker进入了我们视野。
如果我们每个case都重启下docker数据源容器,每个用例的环境就能保证一致,那测试人员就只需要专注编写核心功能的自动化。

而docker启动一个容器很快,装有PG,redis的容器只需要几秒钟就能正常运行。
好 那就试试吧~

安装配置docker

公司的测试机是centos系统,如果想玩docker过程中不出幺蛾子,建议保证系统到centos7,内核3.10以上。。。
一开始的时候,我是并不信邪的,在centos6的系统风风火火的搞了起来,结果脸就被打肿了,各种血泪不说了。

docker安装很简单,官网文档看看就行

安装好docker后,首先从官方库中下载centos6.6的镜像。

然后以此为基础分别配置3个镜像,分别是安装了behave的镜像,pg/redis的镜像和安装了application以及其他组件的镜像。

启动app,pg容器,其中pg容器以container的形式附在app的容器内,这样做的目的是为了让两个容器的ip一致,这样app的配置文件中关于pg,redis的配置可以用127.0.0.1指定。并且这两个容器又相对独立,用例执行结束后可以stop掉pg容器,并新建一个容器附在app容器中。
这么做的效果跟所有组件布在同一个容器中是一样的,好处在于重启pg,redis比重启app要快,快很多~

docker run -d -v /opt/data/remote:/opt/share 172.16.154.92:5000/centos:6-cfp-apps-2.6.1
docker run -d  --net=container:{上一步产生容器的ID} 172.16.154.92:5000/centos:6-cfp-env-2.6.1

集成celery

到上一步为止,我们大体的结构已经有了,但是我们想让它更快,更好用一点。于是我们加上了celery。
celery是一个比较常用的python异步框架,分别在docker机器以及behave容器中安装上。

我们希望自动化控制脚本通过docker机器中的celery去新建n个behave以及app,env的容器,并在case完成后重新新建env容器。
然后我们希望behave容器中的celery接受用例id和app容器的ip,从而去指定的app页面中执行用例

behave容器中使用supervisor启动celery并监听behave消息队列

[supervisord]
nodaemon=true

[program:celery]
command=bash -c "cd /root/ && celery worker -A tasks -Q behave -l info -c 1 -f /opt/share/celery%(ENV_celery)s.log"
startretries=0

docker机器中celery监听main队列。

celery worker -A tasks -Q main -c 10 -l info

celery的task脚本tasks.py中指定队列

from celery import Celery,platforms
import subprocess
import os,sys
import time

platforms.C_FORCE_ROOT = True
app = Celery()

app.conf.update(
    CELERY_IMPORTS = ("tasks", ),
    BROKER_URL = 'redis://172.16.154.92:9852/0',
    CELERY_RESULT_BACKEND = 'redis://172.16.154.92:9852/1',
    CELERY_ROUTES = {
        'tasks.cfp_start': {'queue': 'main'},
        'tasks.behave_init': {'queue': 'main'},
        'tasks.get_ip': {'queue': 'main'},
        'tasks.behave': {'queue': 'behave'},
        'tasks.rm_docker': {'queue': 'main'},
        'tasks.stop_docker': {'queue': 'main'},
    },
    ...
)

这样我们通过控制脚本得到需要测试的caseid,然后启动配置个数的app,pg,behave容器,在检查到app容器ready后发送caseid和容器ip到celery队列。
然后监控case执行过程,在某个case完成后,重启该case对应容器的pg容器,完成后发送下个caseid和ip到celery。这样分布式的测试保证了单个用例的执行环境。
运行速度也有一定的保障。
毕竟我的测试机可是24核 24g的机器。。。 运行过程中整机的cpu有时突破90%,也算是资源没有浪费了~~

结果处理

因为每次behave都只是执行一个case,因此生成的junit报告也只有一个case的信息。因此需要做报告合并。
不想重复造轮子搜索了下, 通过两个现有的模块 xunitparser,junit_xml愉快搞定。生成一个大的junit报告

然后就是放在jenkins,用插件展示了。

用例调试

之所以用例调试要专门拿来说下,是因为使用docker容器创建的容器都是私有ip,不能直接访问。
docker倒是可以将容器中的端口映射一个实体机的端口,但这个并不十分好用,因为我们app的配置文件里面需要配置一些跳转的url,而这些跳转的urlip又是私有的或者干脆是127.0.0.1的。。。 于是我们新建了一个squid的容器跟app容器在一个网段,然后暴露代理端口给我们,这样浏览器设下代理就ok了。

然后就是用例运行中的截图,phantom本来就是没有界面的嘛,而且又是多个用例异步的执行,这要怎么调试呢。
也很简单,behave中通过after_step() 方法在每个用例每个步骤执行后都可以screenshot,保存在用例的目录。该目录mount在docker机器中。
然后启动一个nginx容器,设置好截图目录,就可以直接查看啦~~

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值