接口测试 接口测试 - 从 0 不到 1 的心路历程

耿晓 · November 18, 2022 · Last by mojin replied at March 11, 2024 · 68108 hits
本帖已被设为精华帖!

Hi,我是一名做了三年测试的 tester,2020 年以功能测试工程师的身份入职北京一家医疗培训公司,入职后为了提高测试效率,接触到接口测试,以下是从零到现在 (还有很大完善的空间,所以不能算是 1) 的一些心路历程。

做接口测试的动机

于公司业务和团队现状而言,团队中仅我一名测试,随着产品功能日益丰富,导致回归测试任务量越来越大,紧靠人工回归,效率低,质量低,所以自动化测试势在必行。
于个人职业发展路径而言,每天点点点,看似很忙,但除了对业务流程越来越熟练之外,硬技能长进很慢,要想把测试这条路走宽走远,主动求变是必须的,站在功能测试工程师的角度看职业发展方向,无非就是安全测试、性能测试、自动化测试以及管理方向,刚好公司业务所需,所以决定先从自动化测试入手。

起步阶段,选择 JMeter

我认为打算做一件事情之前,如果准备过多,往往会阻碍起步的脚步,过犹不及,不如稍作准备就马上抛竿,实践一下鱼塘里有没有口儿。所以我选择了上手比较容易的 JMeter,从接口自动化开始突破。当时手握《全栈性能测试修炼宝典 JMeter 实战》这本经典工具书,参考网上优秀的实战经验帖,很快就搭建出了一套 200 条 case 的脚本,脚本中尽可能的提取公共变量,解决接口依赖问题。

弃用 JMeter 做接口自动化测试

随着 case 越来越多,发现一但有接口变更,维护起来的难度极大 (极容易眼花缭乱),有一次因为入参的值多了一个空格,导致我整整找了 3 个多小时,当发现原因时直接崩溃 (具体是哪个参数值想不起来了,举个例子:正确:${14trainCenterId},错误:${ 14trainCenterId}),就因为在 14 面前多了一个空格,我在 200 多条 case,几千参数值中找了整整一下午,至此,决定放弃 JMeter。
其实 JMeter 不适合在团队中做接口自动化测试的另一个重要原因是多人合作编写一个脚本并不是很方便,但介于当时团队中只有我一个人,所以没切实的体会过这个缺点。
虽然弃用 JMeter,但在编写接口测试期间,脑子里也形成了一套接口测试 case 的编写方法论,比如接口测试 case 设计需要考虑正常情况 (必填项必填,参数之间的组合,参数值的遍历等等),异常情况 (必填参数参数值为空、为异常值、索性连参数都不写等等),其实接口 case 的设计和业务功能测试 case 设计时的思路差不多,唯一区别可能是手动点点点时一些参数的输入被大前端限制住了,但是接口测试就可以随便传参。

尝试使用 Python+unittest+requests

弃用工具那就只好选择编程语言了,当时选择 Python 其实没那么多高大上的理由,单单是因为看到了那句"人生苦短,,,",再加上在自动化测试这方面 Python 的呼声也很高,我自己也倾向做事尽可能的立竿见影,所以没有考虑 Java。
要单说仅仅让 Python 脚本跑起来,也许只需要学一些基础的语法,迟则三五天的事情,再选择一个测试框架,当时选择的是这样的组合:Python+unittest+requests。前期照葫芦画瓢一边学 Python 语法,一边学习测试框架。很快就写出了一套和之前 JMeter 一样效果的测试脚本(虽然整个项目就仅有两个文件:test_.py 和 run.py,虽然简陋,但是能跑,入门学习是够了的)。至此也算是入了道儿了。

因为我是刚刚起步,团队中也没有这方面的前辈可以指点,所以几乎是摸着石头过河,走了很多弯路 (也许现在走的路也不直),但我每积累一段时间我都会停下来总结思考是不是需要重构,并不会随着思维惯性 瓷蹦蹦 的复制粘贴。截至目前,有三版较大的改动,让我说给你听。

初具雏形 - 第一代测试框架

简单来说,第一代主要的事情就是搭建基础框架,使用 parameterized 实现数据驱动测试。
第一代我的目录结构是这样的:

其中有 4 个目录和 2 个文件,需要解释的可能是 public 下的 custom_tools,我将一些通用方法写在这个文件里,例如获取指定个数个字符串的 random_str 方法、对参数进行 md5 加密的 to_md5 方法等。

至于 public 下的 tearDown_methods 文件,我当时为了清理测试数据,定义了一些数据删除的方法,举个场景:接口 A 生成产品、接口 B 通过商品 id 编辑商品、接口 C 通过商品 id 删除商品。在这个版本中我就把接口 C 写到了 tearDown_methods 文件中,然后再在正式的测试脚本文件中定义 teardown 方法调用删除接口(此时可能就有小伙伴质疑了,你这不是脱裤子放屁么,哈哈,我刚开始的时候还认为这种写法很高端,但在不久之后我就意识到了这个问题,所以在后面的版本就改正了)。

正文-test_tanqiang.py 的编写思路是这样的:
为了解决接口依赖的问题(例如上面举的例子:接口 A 生成产品、接口 B 通过商品 id 编辑商品、接口 C 通过商品 id 删除商品)我在测试文件的前部分初始化了多个全局变量 (例如 id_product = -1),然后在新增接口中,新增成功后获取产品 id,并赋值给 id_product ,然后在编辑和删除接口中就能使用这个值。文件结构大致如下:

第一版使用 parameterized 装饰器做了数据驱动测试,完整的一条 case 如下:

另外,我将不同环境和不同端的 HOST 写到了 config 文件中。

这个版本也能实现生成测试报告,并发送电子邮件的功能,想的是为日后持续集成做铺垫。

第一版的成果和反思:在这种模式下,我一共写了 70 多个接口的 case,实践证明使用 Python 做接口自动化测试确实比 JMeter 灵活得多,可实践后也发现如下问题:
1.没必要将测试数据清理的方法单独写在一个文件中,可以直接写在测试类下,因为删除接口也是接口测试的范畴。
2.数据驱动测试时,将测试数据罗列在测试方法上方,如果接口入参过多,那么在阅读及后期维护上很不方便 (因为得数索引位置)。
3.数据驱动测试时,如果其中一条 case 断言失败,也不知道具体是其中哪条数据出的问题。
4.测试 case 的执行顺序不可控。

效率至上 - 第二代测试框架

根据第一代的经验和问题,重构框架,详细如下:
变动 1:弃用数据驱动模式,因为做接口自动化测试的初衷就是为了做回归测试(保障原有功能不受影响),而不是通过接口自动化测试发现新的问题。再加上团队中就我一名测试,我的时间重点还是在保障功能测试上。根据以往接口受影响的经验来看,接口如果受影响更多情况会直接 500,而不会是 type 传 1 接口正常,type 接传 2 接口异常。所以在第二版中,我仅选择每个接口的正常入参,并将测试数据直接写进了测试脚本里。

变动 2:通过文件、类、测试方法的名称来控制用例的执行顺序。

变动 3:移除 public 下的 teardown_method.py 文件,将数据清理接口写进 test_xxx 文件中的测试类下。

变动 4:丰富接口断言。接口自动化测试重中之重就是断言设计,所以本次改版丰富了断言类型。


(有可能有的小伙伴会发出疑问:问什么都断言了响应的 code,还有必要断言响应的 msg 吗?我的思考是:如果你所处的团队接口开发比较规范的话其实 code 和 msg 断言其中一个就可以了,但我目前的团队并不是很规范,例如有的接口成功的响应是{'code':'2000','msg':'操作成功'},有的接口成功的响应是{'code':'0','msg':'成功'},基于此,我对 code 和 msg 都做了断言。)

变动 5:接口依赖时采用 “错误先行” 编程思想。(可能有小伙伴会发出笑声,寻思为什么还有这种写法:self.assertEqual(1, 2, '省份 id 获取失败,所以无法进行新建培训中心操作'),后来我也发现了这个问题,所以在下个版本中改为 “raise KeyError('省份 id 获取失败,所以无法进行新建培训中心操作')”)

第二版的成果和反思:在这个模式下我共集成了 150 个接口的自动化 case。不过在实践中又发现了新的问题:如果某条 case 报错,那么报错后我并不能清楚的知道测试时的请求体的具体内容,以及响应体的具体内容。这会让我在排查以及跟开发反馈时很困难(运行完乌压压一片红,具体错在哪不是很明了)。

提升接口测试结果的可信度、持久化接口测试前中后过程中的信息 - 第三代测试框架

我加入这家公司正是团队刚刚起步的时候,所以那时迭代很快,每天都很忙,转眼入职两年了,产品预期的功能都已上线,我们公司主打的本就不是软件,it 部是职能部门,所以一旦该有的功能都有了之后也不会有太多大动作的更新(懂得都懂)。这个时候我就有时间再重新思考下当前的测试脚本了。

最近在反复的读《测试架构师修炼之道第 2 版》这本书(强烈推荐给大家),书中系统的教授了如何设计测试用例,从其中教授的多参数组合测试方法中得到启发,大致意思就是比如一个接口有 3 个必填参数(参数 A(可取值:1,2,3,4,5)、参数 B(0,1)、参数 C(0,1,2)),相互之间没有关联关系,据此可生成 5 条 case:

基于此,我又再次想到了数据驱动测试,这次想把测试数据源放在 excel 中,可能有的小伙伴就会吐槽这种 excel 模式的数据驱动测试,会觉得在测试前先去整理 excel 很麻烦。我本次的策略是,不手动在 excel 中数着格子填写测试数据,而是编写一个生成测试数据的方法,让其自动生成测试数据。整体思维脑图大致如下:


(整体思路)


(测试前编写生成测试数据的方法(需要根据每个接口编写各自的测试数据生成方法))


(将测试运行过程中的 response 的相关信息写入到 excel(这个方法可公用))


(测试结束后,如果所有断言都通过,则将 excel 中对应的 case_id 置成绿色(这个方法可公用))


(在 testcase 中调取响应的方法)


(测试运行结束后,excel 中的结果)

第三版除此之外的变动主要还有:

1.将原测试脚本中的全局变量全部移到了 config 文件中,使得测试脚本文件更加整洁;

2.将原测试 case 中不必要的 self.去掉了,只有在断言的时候才加 (self.assertEqual()),例如之前会这么写:self.url = "XXX" self.data = {'id':1} ,现在改成:url = "XXX",data = {'id':1},理论可度娘 “在类方法中添加 self 和不加 self 的区别”,反正我实践结果是加与不加都不影响测试结果,那自然不加(能少写就少写,~.=)。

第三版的成果和反思:目前使用这个版本刚刚写了 23 个接口的 case,虽然看似在写正式脚本前还要先编写一个生成测试数据的方法很麻烦,但实操发现并没有想的那么麻烦,而且这个投入产出比我认为还是很高的。也许以这个模式写的接口数量还不够多,等在沉淀沉淀一定还会发现其他新的问题。

我们的成长不就是不断的发现问题,不断地解决问题,再发现新的问题么,嘿嘿。

罗里吧嗦写了一大推,更多的是对自己在接口测试这方面从开始到现在的一个总结,就像开头说的,因为目前团队中在测试方面能相互沟通的伙伴几乎没有,所以一直都是自己摸着石头过河,走了很多弯路,现在走的路也可能不是直的,我真的真的真的真的很渴望沟通,希望各位佬儿哥佬儿姐能够不吝赐教,将发现的问题或者建议留言给我,如果能添加微信对我指点一二那简直太哇塞了(VX:GXY1162031010)。

其实重构到当前版本仍然有很多问题没有想通该怎么解决,大家帮我盘盘呗:

问题 1:接口依赖怎么做数据驱动测试?
场景描述:创建产品的接口 A,调用成功之后会提取新建产品的 id,并保存为全局变量(例如:id = -1,接口 A 调用成功后置为新值,例如 id = 100),编辑产品的接口 B,在编写接口 B 生成测试数据的函数中,期望能够读取到 id 的最新值 100,实操后发现是原值-1。这个问题的原因我也知道个大概,因为运行测试前先加载所有的 ddt,然后才会运行 testcase,所以读不到在测试运行中赋予 id 的新值 100。有佬儿哥指点,可以把 id = -1 写成 id = [-1],这样 ddt 就可以在测试运行中读到新值,我测试后确实可以,但又有佬儿哥建议接口依赖不能做数据驱动测试,所以目前还在不断试错、尝试。

问题 2:针对查询接口,怎么做断言?
场景描述:新增一个产品,新增成功后拿到产品 id = 100,然后对查询产品接口 C 做断言,我目前的断言策略是 “self.assertIsNotNone(response.json()['data'])”(捂脸),我尝试过断言查询结果的第一条数据的 id 是否等于 100,可是这种断言很不稳定,如果有多人在使用,那么列表中的第一条数据很有可能就不是你刚刚添加的数据。所以目前还没想到合适的断言方法。

问题 3:在第三版的 testcase 中,在获取到响应后,都会固定的调用 TD.data_write() 方法,且传参内容很多,并且即使是不同的 testcase,在这一步时,传入的参数都是一样的。有没有什么优化方法,可以避免每个 testcase 都写这么多重复的内容?

本文参与了TesterHome 技术征文,欢迎正在阅读的你也加入

最佳回复

问题 1:可以考虑将所有 response 存储一下,用的时候使用jsonpath获取一下
问题 2:数据库查询时传入参数(类似于问题 1 使用 jsonpath 方式获取到的 id)
问题 3:建议将用例和测试结果解耦,Excel 只用来维护用例,测试报告使用 allure 插件;
用例和报告解耦有几个好处:
1、用例多了后 Excel 会非常庞大,写数据比较慢还可能造成文件损坏;
2、allure 内容详尽,样式美观,可以作为标准的测试报告进行输出。

可以多看看HttpRunner的实现方式,是非常优秀的
同样是在 0 到 1 的过程中,共同进步

如果不用 httprunner,那我觉得纯代码就是最好的方式,比如 pytest+requests+allure 这种。用了 excel 就需要去维护它,虽然是自动生成,但一直觉得使用 excel 跟自动化测试关联起来就是不太好的,当用例越来越多,那操作和管理这个 excel 是不是就很麻烦。代码 +allure 这种方式可以把任何你想看的数据插入到 allure 报告里。

seldom 应该是非常适合你的!

  1. 同样基于 unittest 单元测试框架, 对于你来说几乎无成本。

  2. 接口测试非常需要数据驱动,seldom 提供的数据驱动:支持 class_data() 装饰类、data() 装饰用例, file_data() 支持 json\yaml\excel\csv 文件。 api_data() 支持接口数据,甚至数据驱动文件可以做环境区分。

https://seldomqa.github.io/getting-started/data_driver.html

  1. 集成 XTestRunner 定时化报告,美观不输 allure(unittest 也可以直接使用 XTestRunner)
    https://github.com/SeldomQA/XTestRunner

  2. 楼上提到平台化,seldom-platfrom 可以将 seldom 自动化代码解析映射到 Web 平台上,

https://github.com/SeldomQA/seldom-platform

共收到 45 条回复 时间 点赞

都有摸索过程,期待你完整的呈现

tangoliver 回复

这回够完整吗😄

没看懂这个多参数的思路,不应该用类似笛卡尔积组合参数测试吗,这样不会遗漏组合用例吗

ZL 回复

这就要看你用例的粒度控制了,为了严谨你可以选择全覆盖,也就是你说的笛卡尔积;当然你也可以选择策略覆盖,我也提前声明了参数间没有依赖关系,且参数的对应的参数值选择也不涉及重要与否的优先级,在这种前提下我选择遍历所有参数中参数值最多的一个 (也就是 A,因为他有 5 个参数值),又因为都是必填项,所以参数 B 和参数 C 就轮询取各自的可选值。其实针对这种多参数组合测试的覆盖策略是我用于编写功能测试用例的,因为毕竟在写功能测试用例时不可能把用例写到笛卡尔积这么细的程度。其实这也是我为什么选择编写方法来生成测试数据,而不是去手动在 excel 中插入数据,就像你说的,我就担心用例遗漏,我就想笛卡尔积,那么可以,只需要编写相应的测试数据生成函数就可以了。*~^

耿晓 回复

get 到了,感谢。

写的很好,赞一个

问题 1:可以考虑将所有 response 存储一下,用的时候使用jsonpath获取一下
问题 2:数据库查询时传入参数(类似于问题 1 使用 jsonpath 方式获取到的 id)
问题 3:建议将用例和测试结果解耦,Excel 只用来维护用例,测试报告使用 allure 插件;
用例和报告解耦有几个好处:
1、用例多了后 Excel 会非常庞大,写数据比较慢还可能造成文件损坏;
2、allure 内容详尽,样式美观,可以作为标准的测试报告进行输出。

可以多看看HttpRunner的实现方式,是非常优秀的
同样是在 0 到 1 的过程中,共同进步

如果不用 httprunner,那我觉得纯代码就是最好的方式,比如 pytest+requests+allure 这种。用了 excel 就需要去维护它,虽然是自动生成,但一直觉得使用 excel 跟自动化测试关联起来就是不太好的,当用例越来越多,那操作和管理这个 excel 是不是就很麻烦。代码 +allure 这种方式可以把任何你想看的数据插入到 allure 报告里。

循循渐进,不断的摸索过程才是最有趣的👍

耿晓 #12 · November 22, 2022 Author
tester 回复

谢谢阅读和回复😄 我想了下您给的解决方案,还有一点疑问。
TO 问题 1:是将期望 response 存储吗?我们当下业务,比如新增接口,新增成功后会返回新增产品的 id,所以这个期望响应好像没办法提前写好;
TO 问题 2:我想过利用查询数据库对查询类的接口做断言,但是仅限于测试环境,因为测试人员很少会拥有正式环境数据库的访问权限;
☀

耿晓 #13 · November 22, 2022 Author
大鲨鱼 回复

哈哈,摸索的过程确实有趣,也希望佬哥们可以纠正,指点。☀

耿晓 #14 · November 22, 2022 Author
fengzx120 回复

谢谢阅读和回复😀 ,我会着手学习 allure 相关,待我实践后再来发文。☀

耿晓 回复

问题 1:大概是这么个过程:

问题 2:
接口自动化框架,支持数据库断言是必要的,与环境无关

耿晓 #16 · November 23, 2022 Author
tester 回复

好的,谢谢,我实践一下先。☀

赞一个,执行力 max

问什么都断言了响应的 code,还有必要断言响应的 msg 吗

这个都要验证,因为你不知道使用接口的人,到底是用什么去驱动业务的,有见过 code 的,有见过 msg 的。特别是我们和外部合作的时候,外部的开发同学太不规范了,怎么方便怎么来。

问题 1:接口依赖怎么做数据驱动测试?

这种就是场景测试了,不是纯接口测试了。不用按接口测试的设计思路走。

写的挺好的,一步一步娓娓道来。

恒温 回复

很开心你能读文,很开心你能给我留言。☀

耿晓 #20 · November 23, 2022 Author
xyhiacb 回复

☀

49875183 将本帖设为了精华贴 28 Nov 09:36

请教大佬,Excel 中是一个用例一个 sheet 吗。这样后续用例增多,是不是 sheet 数量会太多了,也不好管理,

过程值得学习,,我比较懒,用 postman+newman+jenkins,1 天搞定项目的接口自动化😀

耿晓 #25 · December 08, 2022 Author
卡卡 回复

这并不是懒,你这套是前期投入产出比最高的组合,能立竿见影,随着接口测试的收益越来越大,工具的局限性越来越多的时候,才会促使我们向更深层次的地方探索呀。👍

感觉自己做了个假测试

tester 回复

这一条对我启发很大,之前我都是把相同前置条件的接口写一个 py 文件,看到这个,就可以把界限放开了,除了登录之外,可以在 excel 的 sheet 页中新增一个前置条件的字段,只需要判空就可以,受教了

28Floor has deleted
Adolph 回复

1、对应用例后面可以加字段,作为用例级的前/后置条件;
2、再加个单独的 sheet 页,维护项目级的前/后置;
3、登录也可以作为一条普通用例写在 Excel 中,无非是要处理 cookie,token 之类的 (框架要处理大量的项目兼容性)
本意是使用者无需接触,只需要关注用例的编写和维护,其他全部交给框架处理

其实市面上很多开源的框架供你使用,可以在 github 上搜,推荐还有一款 seldom 框架也很不错😀

耿晓 接口测试 - 从 0 不到 1 的心路历程 (二) 中提及了此贴 22 Dec 15:29
32Floor has deleted

为什么一定要用 excel 呢,可以向 httprunner 借鉴一下,,使用 yaml 作为数据格式,,每一条测试用例,就是一个 yaml 文件

赞一个,真是动起手来才会感知乐趣和问题,通向成功的过程才是最重要的

学习了。谢谢大佬!

ZL 回复

既然有自动化,我实际工作中都是笛卡尔积,我对测试执行的时间不关心

耿晓 回复

allpairspy 可以考虑用这个库,去实现正交用例设计,不需要用笛卡尔积,也能覆盖全面

我目前使用的就是你最后用的那种,excel 中编写用例驱动执行,主要还是作为冒烟测试使用

耿晓 #39 · February 16, 2023 Author
mango 回复

哈哈,我这么做了没多久就被社区中的佬儿哥推荐了解使用 allure,学习了解后很快对 excel 的爱就消失了,建议你也了解下,或者看一下我的下一篇文章接口测试 - 从 0 不到 1 的心路历程 (二)

感觉看到了曾经的自己,哈哈😂

一开始我用的 unittest 框架写自动化脚本,跳槽以后心血来潮,想试试 jmeter,看看投入成本和产出是否成正比,也用 jmeter 整过接口自动化测试,写完第一版就发现维护成本很大,各种检索不便利,也没啥全局替换的功能。

接着继续研究数据驱动,能否有效的提升测试脚本编写效率,如果是简单的 http 接口做点数据驱动效果确实明显,但如果遇到组合场景,不同协议的比方说 socket tcp udp,又或者说需要做参数转换参数加密,实现一些数据驱动反而新增很多框架 bug,投入的时间成本反而增加。

之前也有搭过一整套自动化生成测试脚本的,只需要编写 excel,把所有服务交互的信息列出来,把所有输入输出分类好,base 概念,精准校验哪部分内容,还衍生出 AVU 的概念。那个 excel 是真的复杂,找个 985 高材生也要熟悉一个星期,才能介入进来,理解成本很大,框架搭建时也发现很多 bug。

后来跳槽到这家厂,经常要做各种服务交接工作,有交接过 rf 的脚本、pytest 的脚本、unittest 的脚本或者没框架的脚本,现在编写脚本更多的是考虑快速定位、报告可读性、源码阅读成本。还是用回 unittest 的框架,引入比较基础的数据驱动,定义好团队编码规范,编码量虽然比之前数据驱动那些多,但时间成本反而更低,复制粘贴 2s,改个描述参数 30s,一条 case 就出来。

接口自动化除了脚本框架外,核心其实还是用例设计,怎么设计用例才能保证代码覆盖率,更细粒度的场景能不能自动化,比方说服务与三方服务的异常交互,这样就衍变出单服务的自动化测试及测试思维,从单服务入手也能模拟各种故障演练,有时间的话可以研究研究这部分,比研究框架更有价值,框架够用就行。

耿晓 #41 · February 22, 2023 Author
homin 回复

接口自动化除了脚本框架外,核心其实还是用例设计,怎么设计用例才能保证代码覆盖率,更细粒度的场景能不能自动化,比方说服务与三方服务的异常交互,这样就衍变出单服务的自动化测试及测试思维,从单服务入手也能模拟各种故障演练,有时间的话可以研究研究这部分,比研究框架更有价值,框架够用就行。

受益了,确实,接入接口自动化测试一段时间之后,越发的能体会到 “框架够用就行,核心还是用例设计” 这句话,后续会在佬哥儿指出的方向上加大投入,感谢指点。

1、说 Jmeter 不行,只能说你并没有玩转 Jmeter,而且也并没有结合项目实际情况去设计用例,建议思考一下怎么做才能发挥 Jmeter 的作用。
2、看你写的已经优化了 3 个版本,但还是小打小闹,可以思考平台化,持续集成,数据报表,邮件通知测试结果,自动提 bug。

seldom 应该是非常适合你的!

  1. 同样基于 unittest 单元测试框架, 对于你来说几乎无成本。

  2. 接口测试非常需要数据驱动,seldom 提供的数据驱动:支持 class_data() 装饰类、data() 装饰用例, file_data() 支持 json\yaml\excel\csv 文件。 api_data() 支持接口数据,甚至数据驱动文件可以做环境区分。

https://seldomqa.github.io/getting-started/data_driver.html

  1. 集成 XTestRunner 定时化报告,美观不输 allure(unittest 也可以直接使用 XTestRunner)
    https://github.com/SeldomQA/XTestRunner

  2. 楼上提到平台化,seldom-platfrom 可以将 seldom 自动化代码解析映射到 Web 平台上,

https://github.com/SeldomQA/seldom-platform

对于新手刚开始学接口自动化测试,有什么好的建议吗

Alan 回复
  1. 一切的核心都是业务,所以先精通业务,要知道测什么才能去思考怎么测。见过很多新人都被培训成了工具人,不会思考
  2. 熟练掌握一款 API 测试的工具,postman 或者 jmeter,弄明白请求和响应
  3. 学一门语言,新手推荐学 python 简单易学,但大本分后端都是用 java,所以建议多少要了解一些 java(了解一些开发同学常用框架,能大概看懂工程的源码)

单纯的学接口测试很简单,网上这种文章很多(csdn,testerhome),能看懂 api 文档能用工具发送请求能判断响应结果基本就没什么问题。另外语言先掌握一门再学其他的会简单很多,有很多知识都是相通的,差异无非一些语法与框架

python 版本,毛遂自荐:https://github.com/wu-clan/httpfpt
作为开源项目,已被多名小伙伴在公司落地实施

这个帖子必须顶起来,不仅仅是一次实操,而是共享了一种思路,架构,成长。
通过这篇帖子巧妙的表述了一个脚本从草稿到成型到优化最终到每一版本的定版的心路历程。
通过 7 号的心路历程可以判断,该玩家底牌是狼人。

测试架构师修炼之道我有,但是后面加个第二版我没有

给你一个测试框架思路来借鉴 ……绝对完美好用
https://gitee.com/HP_mojin/pytest_allure_request_20220811

需要 Sign In 后方可回复, 如果你还没有账号请点击这里 Sign Up