又活了一天
可以将测试用例评审理解为功能提测前,开发、测试,产品三方人员最后一次对版本功能进行信息同步,防止三方对版本功能理解错误,产生迭代风险。
评审内容可以挑主流程、重点逻辑进行评审,不用事无巨细评审每一条用例。
没错,这位也是大佬,是这个规律
学习路径和学习资源,我的建议是看市场要求,结合实际工作中入手。 看市场要求是找方向,实际工作中入手是产生实践。 如果市场招聘对 ai 运用有要求,那可以看看实际工作中哪些可以使用 ai 来辅助,形成功能,方法论。 比如最简单的 ai 生成测试用例,可以想想怎么尽可能的搞成输入需求文档(或则是整理过后的需求文档)生成测试用例,然后再尝试降生成的测试用例一键上传到项目管理工具(如禅道)
做测试 7 年了,前 6 年 bug 标题一直都是写的预期结果,今年开始写成了 什么端什么模块在什么情况下出现了什么样的问题。
这个变化主要在于对用例标题的思考,认为标题就是应该告诉开发人员出现了什么问题。然后 bug 详情里面,再说复现步骤、预期结果,以及其他 bug 附件证明。 这种 Bug 标题与详情的搭配表述,能够完整的说清楚是什么问题。
有时候 bug 光靠一个标题是无法描述完整的,全部塞进去,又要说出现了什么事情,又要说预期结果,整得又臭又长,有些不合理。
但单独针对这件事情来说,其实是一件小事情,主要是根据团队得习惯来针对性调整,无可厚非,大家都能看懂就行。所以还是觉得你被针对了。
有大佬用 python 进行精准化测试验证的吗
TMD,话糙理不糙,全都是概念 KPI
我自己做的是
1、xmind 测试用例直接上传禅道
2、开了个服务,联动企业微信机器人进行定时任务通知设置
3、禅道 bug,测试报告数据统计总结
还有一个,github 搜索 jcci,这个代码变动分析工具
评价自己:钱到位,血管干碎
不足:钱不够,动力不足
老哥,关注你了,期待后续分享
有二开禅道的经验,其实是可以实现的。页面请求的 html 请求,尾缀.html 改成 .json 就是一个接口了。
又活了一天