如果我是面试官的话,我更期望面试者从功能,性能,兼容性等几个方面去分析,每个方面列几个典型测试点,一上来就列一大堆功能测试点的,评价不会太高
已阅
好的,我看下
我当时没有这样的使用场景,所以没加这块的功能;今年转别的方向了,这个也没太关注了;如果你有兴趣的话,写完可以提个 pr 过来
额,抱歉好久没关注这块了,你是想根据契约来生成一个符合规则的 json,用这个来做 mock 么?
统计这么多指标比较费时,要是能自动出报告会好很多
自动化还是要找到适用的场景,之前公司自动化做得好的业务,能从测试环境到线上环境一通跑下来,节省了不少回归时间;做得不好的主流程都没覆盖,都没跑起来,造成这种情况原因有很多:比如业务变更频繁,投入人力不足,人员能力参差不齐等等。自动化做成功的少之又少。
提个方案:一个元素设置多个定位方法,哪个方法定位到元素就用哪个
没明白你的意思,能举个例子么?
可以用 python sshtunnel 模块连接跳板机,requests 使用 proxies 代理连接 ssh 通道的 ip 跟端口
code or codeless 各有优缺点吧,看团队人员能力;不过从个人发展来看,肯定是用 code 好
猜测可能是多进程之间内存不共享导致的
那可以考虑在框架这边搞个录屏功能,执行完之后看录屏也方便调试,我们目前 web 自动化用 selenoid_ui 执行,有录屏功能,app 自动化还没有
把框架的执行日志收集回来在 web 端实时展示
有自动化测试覆盖就执行自动化,没覆盖的话只能手动执行了,时间不够的话可以选择执行 A 分支特性的主流程用例
对比上次响应数据这个始终有点问题,如果中间某个字段值变了就挂了,可以看下这个开拓下思路https://testerhome.com/topics/22561
点个赞,收藏了
比如编辑微博这个功能,需要有一条已存在的微博,这个新增微博数据通过接口来实现,不要操作 ui 层去做;如果要测试 ui 层的新增微博功能就另说了
用例之间相互独立,如果有数据预置的操作,尽量用接口去操作,减少 ui 层的请求链路
需要具备一定的技术广度跟技术深度,某些领域知道就好,挑一个或几个领域深入钻研
python 脚本是在本地执行,服务器通过远程 hub 提供驱动
多人维护的话,我们初期是用 mongodb 来存储数据的,yaml 也可以,起码比 excel 好,现在在搞测试平台了,这个要看你们团队的具体情况,平台化有利也有弊
如果是你一个人维护的话,手撸代码是最好的方式,放到 excel 或者测试平台化的都会有各种各样的问题;多人一起维护的话就另说了