这个方式是不是和我们的评估矩阵有点类似,评估矩阵抽象一些,这个具体些
统一回复一下:
1.冒烟测试是有的,但是依然出现了提测质量低、设计文档缺失、提测信息缺失的情况,导致测试工作难开展。
2.打分是匿名的,只有研发 leader 可以看,且不会占研发绩效大的比重,只是提供给研发 leader 参考,作为研发 leader 的辅助打分数据。
3.现阶段是刚开始试行 1 个季度。
看应用场景吧,如果迭代频繁,且用例稳定的话,还是比手工回归提效很多的
checklist 是设计测试用例的模板,设计完测试用例后对照一下 checklist 检查有没有遗漏的
目前用的 coding 免费版,但是最近在自研测试管理平台集成测试用例管理功能了(模仿 coding,因为 coding 免费版有用例条数限制,无限制的要收费)
一直在用,感觉是当前最好用的了
你们测试要做单元测试?
我们用的 python
噢,pycharm 还可以管理手工测试用例吗
是指的 硬件 + 固件 + 云端先行设计测试用例,固件,云端主要是测试服务接口吗,然后 APP 再测试吗?每波人是不同的测试人员吗
应用测试是 api 测试吗,主要关注协议报文的传输行为和数据正确性?是三波不同的人吗?要设计三轮测试用例吗
软技能,项目管理能力、任务推进能力、沟通能力
一个功能协议层面的流程需不需要关注,或者说在黑盒测试用例设计时,去关注协议层面的交互。
纠正一下,不是专门为了这个小功能开发一个平台,而是本身有一个测试管理平台 集成了这个小功能
可以是可以,有部分题是内部业务逻辑相关的,可能对其它组织没有用,但是通用部分的题可以分享出来
和 kpi 挂钩不 ,感觉只要不和 kpi 挂钩在团队内部落地起来都会困难一些
拿了个 FL,暂时没什么用,不需要培训,自己看大纲和模拟题即可(官网可下载)。
自研测试管理平台,有的功能不是开源工具有的,满足不了定制化的使用需求(除非给钱找个 SaaS 公司给你定制,但现在自研个测试管理平台要不了多少时间,vue+django)。
内部弄个出题系统,测试团队内部出题分享,紧跟公司业务,以及平时测试过程中遇到的坑。(前提是这个要和绩效相关,出题分享奖励绩效分,否则不太好推进)
1.每个季度测试用例编写数、执行数(测试工具开发等调研任务按所需工时换算为对应的测试用例执行数):
2.每个季度 bug 发现数:
3.漏测数,线上事故数
4.研发部门的反馈评价
5.专利申请加分
6.内部培训分享至少 1 次
jira? wiki
多语言测试工具:
我们的流程是 APP 开发在 excel 中提供对应需要翻译模块的 key,运营人员翻译每个 Key 的多语言文案,然后这个工具是对比多语言文案和 APP 中配置文件的一致性,文案一致性测试通过后,依然需要人工去看实际效果,但是人工就不用过度关注文案的正确性,主要关注文案兼容性排版即可,比如有的语言的文案正确性,人工也测不了,比如阿拉伯语,凭肉眼根本看不出文案是否正确。
app: pytest+appium:app 提测后手动执行、airtest 做一些 APP 上的小自动化脚本
web:pytest+selenium, 发布代码触发 Jenkins 执行相关脚本
接口:pytest+requests, 发布代码触发 Jenkins 执行相关脚本
测试开发也是业务开发吧,服务于测试团队的开发
想到一块去了,之前开发的测试工具和你思路类似,是可以落地的