3、web 好
转移 usbmuxd
这一步操作是为了什么?
这个真的有点厉害。。。。
既然是外包的话,换个可以给你实践所学技术的团队,路径简单一点。多跟面试官,和你们的外包交付聊聊,打好关系,让他们了解你的需求。当然这是第一步。
大佬输出好强
各个端有不同的 driver 去控制,简单的,脚本调用不同的 driver api 就可以了。完善一点,通过中心 server 来调控不同设备,让不同端作为设备上线到 server,脚本调用 server 的 api 来实现,甚至可以通过统一 API,来完成一套代码,不同平台使用。
atx2 基本就是这种思路。
题中的网页端和手机端的联动测试,选择好各个端的 driver,比如网页端用 selenium,手机端用 uiautomator2(这两种都是支持远程调用的,如果不支持,可以自己写端口转发),在一个脚本中调用两端的 api 即可
tips:然而,其实如果是单纯后台 + 客户端这样的场景,个人觉得是没必要花大价值去做联动测试的。分层测试即可,即保证 web 后台的 ui 自动化 + 接口测试,手机端的接口调用 +ui 自动化测试,这个是性价比最高的。经验告诉我,端数越多,维护成本,出错概览越高。联动测试我们用的比较多的,可能是音视频这一类
有些情况,线上环境压测挺正常的
接口测试稳定后居然达不到接近 100%?为啥?
我看着这个描述,我也觉得这个点太小了。感觉可以往数据工厂,环境治理,或者跟其他系统集成联动起来,比如自动化测试,比如 CI,CD,显得明面上更好看一些
也用不着把这个得失看得太重。
能力提升以后,眼界也会变,这都不是事儿
你可以先把功能说一说,然后把测试目的说一说
或者你降低点标准,动作一下,截个图,然后再合成
使用 stf 组件录制屏幕流
jmeter + ant + jenkins 我们团队开始就建议用这个,现在也有这个,但是缺点也很明显,扩展性不行,数据分析没那么方便
在对应函数中注入修改的代码,但是怎么控制注入代码的位置有不好控制 ----这个最靠谱
= =怎么说呢,我们用来做自动化的主力机只有华为,然后小米,主要目的不在兼容性上,偶尔测一下都恶心得厉害
确实牛逼,基本上能想到的需求都能满足
一种广告模式而已,你看懂了,就不觉得有啥了。
PerfDog……另外 PerfDogService 刚开放
感谢分享,很有用
真是个小机灵呢~好玩~
线上 bug 数目 + 案例执行效率 +bug 案例比 +bug 阶段分布比(bug 在 stg1,stg2,回归应该有比较合适的比例)+ 延期率
然后算出一个总分,但是这个也依赖于开发的质量,所以是作为版本的质量参考,不作为强制的绩效考核
我看见门槛低,就两眼发黑
已经蛮多免费的平台了,可以放弃掉 excel 了,当团队变大,版本变多,方案越来越复杂,excel 就是个灾难
字节跳动不是在成都招人嘛?
接口自动化已经公认的性价比最高的方式了。。。
你计算在前端,那去做前端的 UI 自动化呗。
先抽取最重复执行的部分自动化,做起来性价比和效果好一点。都是需要信息的。
而且接口自动化一般你做好了以后,如果你说的没有多大改动只是参数随意,相当于后续没有多少维护成本,每天运行起来再看,有总比没有好,之后的补充和优化,根据实际效果来调整。
自动化测试在真正用起来是需要手工系统测试的反哺的,通过漏侧和生产问题跟踪,来不断补充和修改策略