我的思路是拿到结果数据集和上游数据,通过运算或调接口通过各种方法得到结果,拿测试程序跑出的结果再跟报表结果对比,正确程度取决于你追溯上游的深度,以及程序运算的逻辑是否准确,简单的我就直接放到 excel 表里去对比了
报告、日志、不同浏览器的兼容、并发、参数的存储及整理
--alluredir ./temps
logging 换用 loguru 导致 pytest 报告收集不到日志,简洁的解决方案:
# 用于将loguru的日志传播到logging系统中
class PropagateHandler(logging.Handler):
# 被调用来处理日志记录
def emit(self, record):
logging.getLogger(record.name).handle(record)
logger.add(PropagateHandler())
感谢,昨天找来找去,没看到有回答说用 loguru,已成功换用 loguru
我昨天就是按类似的这种 AI 生成的答案改,改来改去都不对,concurrent 使用不来,multiprocessing 那个多进程的时候还不能自动判断开了多少个进程😵
学到了,谢谢
有道理,暂时想不出更好的了,用 getOrderType 夹具调用 token 夹具的思路也只会有 1 条 case,网上搜有在 parametrize()里放 fixture 的但我没试出来。还能想到的思路就是可以把 CD.data_orderList() 用 yield 做成生成器,每次返回一条,再用 parametrize 或 repeat 控制下用例测试次数,但这样搞就感觉更麻烦了
天宫,一直在用,免费注册就行(不注册不能连续提问)
还可以将夹具传入 test 测试函数后,把造数的 CD.data_orderList() 放在 test 函数内部,这样 data_orderList() 就可以用 test 函数的夹具了,还省了参数化,缺点是没有分离数据和测试逻辑