Python,selenium,appium,macaca,locust,tsung, soapui
问清楚后台校验是用什么字段吧,可能不是 cookie,或者 header 里的其他字段,比如 token 之类的。参考接口文档,或者直接抄浏览器上看到的 header。
需要有自动驾驶方面的业务经验吗
应该还要保持播放的状态吧?
一个猜测:你的文件名不以 test 开头的话,好像默认是不会扫描出来的。可以在 pytest ini 里面配置。
从理想的模型来说,这完全是可行的:
这其实是测试有效性的问题:怎么进行完整的测试。像你说的一样,用户是在前端操作的,所以你完整的端到端测试应该是前端发起;如果你看一下测试金字塔,接口测试其实是归属于分层测试的其中一个环节,也就是说只能保证你接口这一层没问题,不能保证端到端。
要解决你的疑问,应该要在接口自动化之余,加上适当的 UI 自动化,由接口去保障大部分的调用场景,由 UI 去保障端到端。
要想彻底节省工作量,还得 UI 自动化;接口自动化是可以帮你做更大范围的覆盖,保障一下单纯从界面上发现不了的问题,或者更快更直接定位到接口的错误。
心跳包这种请求为什么会做到一秒一次这么频繁?如果服务有问题,响应时间拉长的话,SDK 的请求会塞到队列里面等待吗?还是会随时丢弃?
这是开发把自动化测试当成单元测试来用了,确实不合适;
自动化测试更适合每天跑一次,或者每次部署完跑一次。
https://testerhome.com/topics/35712
之前提过相同的问题。
团队里面现在用的是 xmind 去写测试点,然后在评审通过之后需要把对应的测试点转换为测试用例,并且需要上传到 jira 上面执行和跟踪。以前的做法是需要手工地根据 xmind 的测试点编写成对应的测试用例,这部分的工作量是不小的。
现在的做法,是利用 jira 的 Excel 导入模板,用 Python 的 XMind 库,直接把 XMind 文件转换成 Excel 表格,然后经过小范围调整之后,再把 Excel 导入到 jira 中。
需要留意的点,是内部需要统一好 XMind 测试点的结构,转换成 Excel 的脚本里面也会根据对应的定义和标签进行转换。
Python,selenium,appium,macaca,locust,tsung, soapui