大佬终于回来了呀,点赞👍
你是不是都在用同一个目录去生成 report, 所以每次生成新的 report 都把旧的给覆盖了?
所以你四楼的答案就是 “不符合” 了
从软件测试的角度看你的例子:
所以我认为你这个只能算是 demo, 告诉别人怎么连不同机型,怎么打开不同的 app;但和怎么做兼容性测试没太大关系。
只是没有标记原创这么简单吗?
不懂管理员为什么不处理这种涉嫌靠抄袭来给自己公众号引流的账号,而且还在每篇里面挂链接买书呢
PS 后面会不会把这些 “原创合集” 拿去出书卖钱?
不好意思,我不是想咨询怎么做兼容性测试,只是好奇你这里举的例子是不是符合真实的项目测试需要。
五年 RF 用户说一下对 RF 的使用感受:
RF 的优点:
RF 的缺点:
总结: 没有最好的工具,只有最适合的工具。自己能用得顺手就可以了。
请问直接用 jmeter 的话,怎么满足团队合作的需求? 比如同一套用例,团队里十个人都要写用例,怎么通过 git 之类的代码管理平台来做管理?
测试(test)只是对软件质量检测的一系列手段的结合,从静态测试,文档测试,单元测试,集成测试,回归测试,自动化测试,性能测试等等都是不同阶段和不同类型的测试类型和手段。
我觉得 “测试人员(tester)” 其实应该更倾向于是回归到 QC 和 QA 的身份上面,也就是我们的目的不是为了要测试而测试,而是如果为软件提供质量控制和质量保障。 这里需要的能力,除了上面提到的各种测试方法的掌握, 还需要有敏锐的质量管理意识,为团队梳理质量管理的流程,建立完善的质量体系。
面试的时候我会问: 为什么你会发现比别人更多的 bug。可能的回答: 我能力更强,所以同一个模块测试能比别人发现更多 bug; 我对业务了解更强,所以常年负责更核心更重要的模块,也负责更多的项目测试,所以发现最多的 bug。
我有点疑问,你这是插上了什么设备就跑什么设备的用例?
我们的测试应该是按需执行的: 比如要发布一个 android 的新包,我们就会去安排对应 android 的回归测试(自动化 + 手工),然后启动对应的 android 脚本执行测试。
你保证是在项目的根目录执行这个文件,应该就是没问题的
好专业
写个 for 循环,然后返回第一个找到的元素,没找到就继续循环;然后根据找到的元素判断你要做什么
另外再说一句:对于测试来说,我们的责任是质量把控,所以能不能按时交付,不归我们管,我们关心的是质量能不能达标。当然了作为团队的一分子,我们也要对交付时间做贡献,保障测试效率,按计划内时间完成测试;遇到开发延误的情况下,大部分情况下还是要尽力去配合赶上进度。 但原则还是质量标准不能降低。
所有的决定都应该是遵循大家都同意的规则去判断的。比如发版前是否还有哪个等级以上的缺陷,剩余的缺陷是否拿到业务的同意,可以接受这些缺陷在以后再修复。
如果目标是按时发版,那就以达到发版目标去提前规划,以及每天的日报里面把这些写出来:改修复的赶紧修复,不能修复的赶紧找业务商量,拿他们的背书。如果最后还是有严重的缺陷没办法处理完,业务也不同意上线,那就别上了呗,反正测试我就不松口,谁要违反流程去上,那就是谁的锅。
所以最根本的,还是要把相关负责人拉到一起,把这个游戏规则讲明白;统一规则之下,谁违反谁的锅。测试不能轻易降低自己的标准,这样也不会轻易被甩锅给测试。
要看自动化替代的是哪部分测试, 如果你是手工测试接口,那做成自动化就能替代这部分的手工; UI 的自动化对应就是替代页面的手工点点点。
可以用 sys argv 来传递
用 allure, 每个 log 都记录到 case level?
楼上的朋友们,这个项目我已经五年没维护了,所以你们如果遇到问题请尽量自己尝试解决和二次开发,恕我现在没办法帮到你们。 所以请慎重选择这个项目哈,抱歉!
首先一个原则,我们是不可能覆盖市场上所有的机型和操作系统版本组合的。
建议你整理成一个兼容性测试的方案给领导去 review:
然后呢,有多少钱干多少活; 出了问题,这是已知的风险, 因为没投钱啊
想起了脱口秀大会里小鹿讲过的一个段子: 你这个个人经验主要是太个人
检查一下是不是配置的地址是 localhost,导致不在那天机器上就访问不了(看你的截图)