先问一下,然后一个解释,如果你有兴趣.
在py.test的上下文中,如何从一小组测试函数模板生成大量测试函数?
就像是:
models = [model1,model2,model3]
data_sets = [data1,data2,data3]
def generate_test_learn_parameter_function(model,data):
def this_test(model,data):
param = model.learn_parameters(data)
assert((param - model.param) < 0.1 )
return this_test
for model,data in zip(models,data_sets):
# how can py.test can see the results of this function?
generate_test_learn_parameter_function(model,data)
说明:
我正在努力进行单元测试.我编写“科学”,因为我编写的代码,我认为在数学上是复杂的,但不是从编程的角度来看,那就是我可能有五个功能要测试.我来自“科学”意味着我是单元测试的新手,但已经说服了我的CS好友,这是“事情要做”.
我编写的代码需要一个模型结构,一些数据,并学习模型的参数.所以我的单元测试包括一堆模型结构和预生成的数据集,然后一组约5台机器学习任务来完成每个结构数据.
所以如果我手工编写这个,我需要每个模型每个任务一个测试.每次我想出一个新的模型,我需要复制和粘贴5个任务,改变我指向的酸洗结构数据.这对我来说感觉就像坏习惯.理想情况下,我想要的是5个模板函数,用于定义我的5个任务,然后只是为我指定的结构列表吐出测试函数.
Googling关于带我到a)工厂或b)关闭,这两个都增加了我的大脑,并建议我必须有一个更简单的方法,因为这个问题必须经常由正规的程序员面对.那有没有
编辑:所以这里是如何解决这个问题!
def pytest_generate_tests(metafunc):
if "model" in metafunc.funcargnames:
models = [model1,model2,model3]
for model in models:
metafunc.addcall(funcargs=dict(model=model))
def test_awesome(model):
assert model == "awesome"
这将对我的型号列表中的每个模型应用test_awesome测试!谢谢@dfichter!
(注意:该断言总是通过,btw)