• 别把找到工作===技术能力水平
    除了自身学历学校这种硬性条件,其他还是看你自身的推销能力
    面试 30 分钟其实是看不出你有多少东西的,无非就是看你会不会营造自己有东西的感觉
    别太纠结于简历上的技术栈自己会不会,全力复习面试问题就行,把简历发给 ai,然后让 ai 去提有深度的问题
    你可以加上自己从 0 到搭建某一系统的自动化(有没有都没关系),问题你能回答出来就行,【面试是纯主观的,看的就是个人喜好】,不是高考这种选拔性考试。你自己意会一下。

    找工作不要太老实,也不要有什么愧疚心理,要跟渣男一样,广撒网,有鱼上钩就行,只求进入公司但是不放在心里

  • 我这里提一个很普遍且很简单的场景,一个非常经典、简单的小 BUG,应该符合楼主打标的标准

    bug 背景:

    • 标题:注册页 - 用户名输入框超过 20 字符时,前端未正确截断,导致提交后后端报错
    • 步骤:
      • 1.进入游客页的注册页(url="https://testerhome.com/addUser")
      • 2.在用户名输入框中输入超过 20 个字符
      • 3.观察到前端未有长度提示限制、无截断操作、能发起提交
    • 预期:输入框应自动限制和提醒用户最多只能输入 20 个字符

    如何解决接下来的这些麻烦:
    1“进入注册页”

    • 这个注册页如果需要先登录才能访问?AI 如何获取有效的测试账号和密码?是要在 bug 单里写上测试帐号和密码?还是在配置文件里加上通用的测试帐号和密码?

    • 出于安全合规的要求,测试账号都需要区分环境(开发 / 测试 / 预发)、定期轮换密码、处理账号状态(被锁 / 过期 / 权限变更),每次账号变动都要人工同步更新 AI 配置吗?

    • 若进入注册页有其他事件的弹窗干扰,怎么处理?

    2” 找到用户名输入框 “

    • a 方法: 将整个注册页的 DOM 发送给大模型,让它自己找(产生高昂的 Token 成本,且速度慢)
    • b 方法:在创建 BUG 时,人工为 AI 提供定位器 page.getByLabel('Username'))(相当奇怪的做法)
    • c 方法:用 "语义 + 视觉" 混合定位识别(类似 airtest 的图像识别,依然是成本不划算)

    3” 断言 “
    【“前端未有长度提示限制、无截断操作、能发起提交” 这一描述对人类清晰,但对 AI 是模糊的】
    -【前端未有长度提示限制】提示是文本(如 "最多 20 字符")还是图标?出现在输入框上方还是下方?是否有特定 role="alert"属性?这些细节若不在 BUG 描述中写明,AI 会陷入猜测;若要写清,本质是让测试人员提前完成 "断言设计",AI 沦为执行工具,却额外支付了 AI 调用成本

    • 【无截断操作】AI 在输入 21 个字符后,是否需要执行 await input.value() 来获取输入框的值,并断言其长度等于 21?,截断逻辑是 "输入时实时截断" 还是"失焦后截断” 这些都要在 bug 单上写明吗?

    • 如果提示有了,但是截断逻辑没有修复,填写了 21 个字符后产生报错提示。AI 是否能验证提交? 检查提交按钮的 disabled 属性是否为 false?还是让 AI 真正点击提交按钮,然后判断是否发出请求?


    我让 AI 生成可以让 AI 回归更快捷的 bug 单,它给出以下回复

    【AI 回归】注册页 - 用户名输入框超过 20 字符未截断导致后端报错

    一、元数据(供 AI 快速识别场景)

    • 适用 AI 回归:是
    • 依赖环境:测试环境(固定 URL:https://test.testerhome.com/addUser
    • 前置状态:需游客身份(无需登录,若页面强制跳转登录页,使用预设账号:{TEST_ACCOUNT},密码:{TEST_PWD},从环境变量读取)
    • 干扰项处理:若页面加载后 3 秒内出现 “隐私协议弹窗”,优先点击//button[text()='同意并继续'](定位器固定)

    二、操作步骤(精确到 AI 可执行的原子动作)

    步骤编号 操作类型 具体指令(含定位器/参数) 执行约束条件
    1 页面访问 打开 URL:https://test.testerhome.com/addUser,等待页面加载完成(判断标准://form[@id='register-form']可见) 超时时间:10 秒,失败则标记 “环境异常”
    2 元素定位 定位用户名输入框:page.getByLabel('用户名', {exact: true})(备选定位器://input[@name='username'] 若主定位器失败,自动尝试备选
    3 输入操作 向输入框输入固定字符串:"testuser1234567890abcdef"(共 25 字符,纯英文无特殊符号) 输入速度:每字符间隔 50ms,模拟人工输入
    4 提交操作 定位提交按钮://button[@type='submit' and text()='注册'],执行点击操作 点击前确认按钮disabled属性为false

    三、断言规则(分解为可量化的验证点)

    1. 前端长度提示验证

    • 验证对象:错误提示元素(定位器://div[@class='error-hint' and @for='username']
    • 断言条件:输入第 21 字符后 300ms 内,该元素可见且文本包含 “最多 20 个字符”(忽略标点/大小写差异)
    • 失败判定:超过 1 秒未出现提示,或提示文本不含 “20”

    2. 前端截断逻辑验证

    • 验证对象:用户名输入框的value属性
    • 断言条件:输入完成后(步骤 3 结束后 1 秒),获取输入框值,长度必须≤20 字符
    • 特殊场景:若输入框采用 “失焦后截断” 逻辑(需在 BUG 单补充说明),则需在输入后执行blur()操作,再断言值长度

    3. 提交拦截验证

    • 验证方式:拦截提交请求(接口路径:/api/register
    • 断言条件:
      • 若提示和截断均生效:请求不应发出
      • 若提示生效但未截断:请求可发出,但请求体中username字段长度必须≤20(后端截断场景)
      • 若均未生效:请求发出且username长度=25 → 判定 BUG 未修复

    四、异常处理规则(告诉 AI“遇到问题怎么办”)

    1. 若步骤 2 定位输入框失败:自动截图并标记 “元素定位失败”,终止执行(不判定 BUG 状态)
    2. 若提交后页面跳转至错误页(//div[@id='error-page']可见):视为后端报错,判定 BUG 未修复
    3. 若测试过程中出现未预设弹窗:截图并记录弹窗文本,标记 “未知干扰”,转人工处理

    五、验收标准(明确 “通过/失败” 的刚性条件)

    • 回归通过:满足以下全部
      • 提示验证通过(出现含 “20 字符” 的提示)
      • 截断验证通过(输入框值≤20 字符)
      • 提交拦截验证通过(无超长数据提交)
    • 回归失败:任意一项验证未通过

    就如果按 AI 这个写法,一个三四分钟就能回归的简单 bug,足足在 bug 单上就耗时至少 20 分钟

    最后业务测试做多的人都会知道,bug 回归的核心是 “验证动态变化的功能”,就是 UI 可能改、逻辑可能调、异常场景可能新增
    毕竟是面向人的验证工作,当然我不是找茬,只是感觉想用 AI 去做回归,真心有点难

  • 这种对提单的要求都很高,而且要统一格式,我个人感觉光是规范流程和严格执行提 bug 的方式都不是一件容易的事

  • 这感觉怎么有点像我打标些 bug 给实习生回归练手的场景。。。。期待你完成看下效果了

  • 你这比训练一个大模型都难,,,,,,,

  • 测试 BUG 究竟要怎么提? at 2025年09月12日

    既然你离职了,那当她的话是放屁就好了,不用在意什么,她在享受管理的感觉,在你啵嘴之后,她不爽找茬而已。事实上这种旁枝末节的东西,你怎么写都可以挑刺,或许就是想把你恶心走,然后让她的姐妹入职而已,不要老是用技术思维去看问题

  • 根据我自己的和面试时问的,大部分自动化报错原因会是如下

    1. 网络波动
    2. 用例不规范
    3. 环境不一致
    4. 测试数据问题
    5. 第三方服务依赖

    然后如果要保证回归质量,减少不必要的排错,就跟楼上说的一样,做好高可维护的测试用例是目标,需要做到这一点就不得不提一个必要条件:充分理解业务

  • 你做这种 WEB3 的工资只 +1K 吗???亏大了,这种是灰色地带

  • 挺多小年轻们意识不到,他现在比其他人好找工作,挺大一部分原因是因为年轻

  • 现在实习挺看学历

  • 先找业务,再去想技术,建议你校招狂投跟金融或者银行相关的

  • 1. 打开豆包:

    2. 输入:

    【接口测试新手应该怎样开始呢?团队就一个测试,还一直在做功能测试。既要做功能测试,又要研究功能测试自动化。一直没有推行接口自动化。但是看好多 jd 也提到了接口测试。性能测试这些。
    团队里边现在没有前辈指导,也没有经验参考。以资深测试专家的角度,参考市面上大多数公司的做法,详细的指导我】

    3.返回结果:

    作为资深测试专家,结合你 “单人测试岗、需兼顾功能/功能自动化、无前辈指导” 的实际场景,我会从 “基础认知→手动落地→自动化进阶→流程融入→性能入门” 五个阶段,给出可落地的详细指导,完全贴合市面上中小团队的接口测试推行路径。

    一、第一阶段:先搞懂 “接口测试是什么”——夯实基础理论(1-2 周)

    新手最容易犯的错是 “上来就学工具”,但没搞懂底层逻辑,遇到问题会无从下手。这一阶段核心是 “建立认知,和现有功能测试关联”,降低学习成本。

    1. 必须掌握的核心概念(和功能测试对比理解)

    概念 解释(用功能测试类比) 为什么重要?
    接口 后端开发写的 “功能服务入口”(比如 “登录” 功能,前端点按钮是 UI,后端接收账号密码的服务就是接口) 接口是前后端/服务间的桥梁,90% 的问题根源在接口,而非 UI
    HTTP/HTTPS 协议 接口通信的 “语言”(类似 UI 操作时的 “点击/输入” 规则) 所有接口测试都基于协议,不懂协议就看不懂请求/响应
    请求三要素 方法(GET/POST 等)、URL、参数(请求头/请求体) 相当于功能测试的 “操作步骤”,缺一个就测不了
    响应三要素 响应码(200/404/500 等)、响应头、响应体 相当于功能测试的 “预期结果”,判断接口是否正常
    RESTful API 规范 主流接口设计风格(比如用 GET 查数据、POST 增数据、DELETE 删数据) 90% 公司用 REST 风格,懂规范才能看懂接口文档
    接口依赖 比如 “查订单” 接口需要 “登录” 接口返回的 token(类似功能测试 “先登录才能查订单”) 处理依赖是接口测试的核心难点之一

    2. 重点学习:HTTP 协议核心细节(不用背,理解后能查)

    • 请求方法:重点记 4 个(GET/POST/PUT/DELETE),明确区别(GET 传参在 URL,POST 在请求体;GET 一般查数据,POST 一般改数据)。
    • 响应码:记 3 类核心码(2xx 成功、4xx 客户端错、5xx 服务端错),比如 401 是 “未登录”,403 是 “无权限”,500 是 “服务端报错”。
    • 请求头:常用的几个(Content-Type:告诉后端请求体格式,如application/jsonAuthorization:放登录 token)。
    • 请求体格式:主流是JSON(比如{"username":"test","password":"123456"}),要能看懂 JSON 结构(键值对、数组)。

    3. 工具准备:先找接口文档(接口测试的 “需求文档”)

    你没有前辈指导,接口文档是唯一依据,优先找这两类:

    • 开发给的文档:直接问开发要(比如 Word、Markdown),明确每个接口的 “URL、请求方法、参数、响应格式、依赖条件”。
    • 自动化文档工具:如果开发用Swagger(常见地址如http://开发环境IP:端口/swagger-ui.html),直接打开就能看所有接口,还能在线调试(新手友好)。

    二、第二阶段:从 “手动接口测试” 入手——和功能测试联动(2-3 周)

    不要一上来就搞自动化!先手动测,因为你正在做功能测试,可以把 “接口测试” 嵌入功能测试流程(比如测 “登录功能” 时,既点 UI,也用工具测登录接口),边测边熟悉业务,零额外成本。

    1. 选工具:新手优先用「Postman」(不用装环境,点几下就能测)

    Postman 是接口测试入门神器,先学基础操作(1 天就能上手):

    • 第一步:创建 “集合(Collection)”:按功能模块分(比如 “用户模块”“订单模块”),把同一模块的接口放一起,方便管理。
    • 第二步:添加接口请求
      1. 填 “请求方法”(比如 POST)、“URL”(从接口文档复制);
      2. 填 “请求头”:如果是 JSON 格式,加Content-Type: application/json
      3. 填 “请求体”:选 “raw→JSON”,按文档写参数(比如登录接口填{"username":"test123","password":"123456"});
    • 第三步:发送请求,看响应:点 “Send”,下方看 “Response Body”(响应内容)和 “Status Code”(响应码)。
    • 第四步:加 “断言”(关键!不然白测): 断言是 “判断接口是否符合预期”,比如登录成功后,响应体里应该有"code":200"token":"xxx"
      Postman 断言步骤:右侧 “Tests”→选预设脚本(比如 “Status code: Is 200”)→修改为你的预期(比如pm.test("响应码是200", function () {pm.response.to.have.status(200);});)→再发送请求,看 “Test Results” 是否通过。

    2. 核心:设计接口测试用例(复用功能测试的用例思路)

    你做过功能测试,用例设计逻辑是相通的,重点覆盖 “接口特有的场景”:
    | 用例类型 | 设计思路(以 “登录接口” 为例) | 举例 |
    | ------------ |---------------------------------------------------| --------------------------------- |
    | 正常场景 | 符合接口文档的合法参数 | 正确的用户名 + 正确密码,预期返回 token 和 200 码 |
    | 参数缺失 | 少传必填参数(比如登录接口少传 “password”) | 只传 username,预期返回 400 码和 “密码不能为空” 提示 |
    | 参数错误 | 类型错(比如 “age” 应该是数字,传字符串)、格式错(比如手机号少 1 位)| 密码传 “123”(实际要求 6 位),预期返回 400 码 “密码长度不够” |
    | 权限场景 | 未登录访问需权限接口、普通用户访问管理员接口 | 不戴 token 访问 “查订单” 接口,预期返回 401 码 “未授权” |
    | 数据边界 | 传空值、最大值、重复数据(比如新增用户,用户名已存在) | 用户名传空字符串,预期返回 400 码 “用户名不能为空” |
    | 接口依赖场景 | 先跑依赖接口,再跑目标接口(比如先登录拿 token,再用 token 查订单) | 登录→拿 token→填到 “查订单” 接口的请求头→测查订单接口 |

    3. 实战:选 1 个简单模块落地(比如 “用户登录/注册”)

    1. 从接口文档里摘出 “登录、注册” 2 个接口;
    2. 用 Postman 创建 “用户模块” 集合,添加这 2 个接口;
    3. 按上面的用例类型,每个接口设计 5-8 条用例(比如登录接口:正常登录、少密码、密码错、无 token 登录);
    4. 跑一遍用例,记录问题(比如发现 “密码传空时,后端返回 500 而不是 400”,这就是 bug);
    5. 和开发沟通修复,再复测——第一次完整跑通,你就入门了

    三、第三阶段:进阶 “接口自动化测试”——复用你已有的功能自动化经验(3-4 周)

    你已经在研究功能自动化,接口自动化比功能自动化简单(不用处理 UI 定位、元素等待),核心是 “用代码代替手动点 Postman”。

    1. 框架选择:新手优先「Python + Requests + Pytest」(生态最成熟,资料最多)

    • Python:语法简单,比 Java 易上手,测试岗 90% 的自动化用 Python;
    • Requests:Python 的 HTTP 请求库,1 行代码就能发 GET/POST 请求(比 Postman 更灵活);
    • Pytest:测试框架,能批量执行脚本、生成报告、支持参数化(数据驱动)。

    2. 环境搭建(步骤详细,照做就能成)

    1. 装 Python:官网下载(https://www.python.org/Add),勾选 “ Python to PATH”(避免配置环境变量);
    2. 装依赖库:打开 cmd,输入 3 条命令(逐行输): bash pip install requests # 处理HTTP请求 pip install pytest # 测试框架 pip install allure-pytest # 生成美观的测试报告(可选,推荐)
    3. 装编辑器:用「PyCharm Community」(免费),新建 “接口自动化项目”。

    3. 写第一个接口自动化脚本(以 “登录接口” 为例)

    先写一个简单脚本,跑通 “发送请求→断言→执行” 流程:

    # 1. 导入需要的库
    import requests
    import pytest
    
    # 2. 写测试用例(用Pytest的@Test装饰器)
    def test_login_success():
        # 接口信息(从文档复制)
        url = "http://你的测试环境IP:端口/api/user/login"  # 接口URL
        headers = {"Content-Type": "application/json"}     # 请求头
        data = {"username": "test123", "password": "123456"}  # 请求体(JSON格式)
    
        # 3. 发送POST请求(用Requests库)
        response = requests.post(url=url, headers=headers, json=data)  # json参数会自动处理格式
    
        # 4. 断言(和手动测试的预期一致)
        assert response.status_code == 200  # 断言响应码是200
        assert response.json()["code"] == 200  # 断言响应体里的code是200
        assert "token" in response.json()  # 断言响应体里有token(登录成功的关键)
    
    # 5. 执行脚本:在PyCharm里右键→Run "pytest xxx.py",看结果是否通过
    

    4. 进阶:解决接口自动化的核心问题(新手必学)

    • 问题 1:接口依赖(比如查订单需要登录 token)
      思路:先执行登录接口,提取 token,传给查订单接口。 ```python # 先定义登录函数,返回 token def get_login_token(): url = "http://IP:/api/user/login端口" data = {"username": "test123", "password": "123456"} response = requests.post(url=url, json=data) return response.json()["token"] # 提取 token 并返回

    # 查订单接口用登录 token
    def test_query_order():
    token = get_login_token() # 调用登录函数拿 token
    url = "http://IP:/api/order/query端口"
    headers = {"Content-Type": "application/json", "Authorization": f"Bearer {token}"} # 把 token 放进请求头
    response = requests.get(url=url, headers=headers)
    assert response.status_code == 200

    
    - **问题2:数据驱动(同一接口测多组数据,比如不同密码的登录场景)**  
      用Pytest的`@pytest.mark.parametrize`装饰器,不用写多个函数:
      ```python
      @pytest.mark.parametrize("username,password,expect_code,expect_msg", [
          ("test123", "123456", 200, "success"),  # 正常登录
          ("test123", "12345", 400, "密码错误"),   # 密码错误
          ("", "123456", 400, "用户名不能为空")    # 用户名空
      ])
      def test_login_multi_data(username, password, expect_code, expect_msg):
          url = "http://IP:端口/api/user/login"
          data = {"username": username, "password": password}
          response = requests.post(url=url, json=data)
          assert response.json()["code"] == expect_code
          assert expect_msg in response.json()["msg"]  # 断言提示信息
    
    • 问题 3:生成测试报告
      用 Allure,执行命令后会生成美观的 HTML 报告(能看用例通过率、失败原因):
      1. 执行脚本时生成 Allure 结果:pytest test_login.py --alluredir=./allure-results
      2. 生成 HTML 报告:allure serve ./allure-results(会自动打开浏览器显示报告)

    5. 落地:先覆盖 “核心接口”(比如登录、下单、支付)

    不要一开始就想覆盖所有接口,先选 3-5 个核心接口写自动化脚本,跑通 “脚本→报告→问题反馈” 流程,再逐步扩展。比如:

    1. 第一周:写登录、注册接口的自动化脚本;
    2. 第二周:写查订单、下单接口(处理依赖和数据驱动);
    3. 第三周:集成 Allure 报告,每天跑一次,把失败的用例对应的 bug 反馈给开发。

    四、第四阶段:把接口测试融入团队流程——从 “个人操作” 到 “团队价值”(1-2 周)

    你是单人测试岗,接口测试的价值不仅是 “自己测”,还要让它成为 “开发→测试” 的协作环节,减少重复工作。

    1. 接口测试和功能测试的配合流程

    建议调整你的测试流程,更早发现接口问题(减少后期 UI 层定位问题的时间):

    graph TD
        A[开发提交代码] --> B[开发自测接口(用Swagger)]
        B --> C[你用Postman/自动化脚本跑核心接口测试]
        C --> D{接口是否通过?}
        D -- 是 --> E[开始功能测试(UI层)]
        D -- 否 --> F[反馈开发修复,重新走A-C]
    

    2. 和开发的协作要点(避免矛盾)

    • 接口文档同步:要求开发改接口后,必须更新 Swagger/文档,你定期(比如每天上午)查一次文档,发现不一致及时沟通;
    • bug 定位:遇到 UI 层问题,先测对应的接口——如果接口返回错,直接甩给开发(“接口返回 xxx,不符合文档”);如果接口对但 UI 错,再查前端;
    • 环境问题:测试环境接口不通时,先确认 “开发是否重启服务”“数据库是否有测试数据”,再找开发,避免无效沟通。

    3. 入门持续集成(CI):让脚本 “自动跑”(可选,进阶)

    如果你已经有自动化脚本,可以集成到 Jenkins(很多公司用),实现 “代码提交后自动跑接口测试”:

    1. 把脚本传到 Git 仓库(比如公司的 GitLab);
    2. 在 Jenkins 上新建任务,配置 “拉取 Git 代码→执行 Pytest 脚本→生成 Allure 报告”;
    3. 开发提交代码后,Jenkins 自动触发任务,测试结果会发邮件给你和开发——这样不用你手动跑脚本,更高效。

    五、第五阶段:性能测试入门——满足 JD 要求,不用深钻(1-2 周)

    接口性能测试比 UI 性能测试简单,核心是 “测接口在高并发下的表现”,新手先学 “基础流程” 即可。

    1. 核心概念:性能测试关注什么?

    不用记复杂指标,先关注 4 个核心:

    • 响应时间:接口返回结果的时间(比如正常是 500ms 内,并发时不能超过 2s);
    • 吞吐量:每秒处理的请求数(比如每秒能处理 100 个请求);
    • 并发数:同时访问接口的用户数(比如模拟 100 人同时登录);
    • 错误率:并发时失败的请求比例(比如错误率不能超过 1%)。

    2. 工具选择:用「JMeter」(和 Postman 兼容,上手快)

    JMeter 是性能测试主流工具,新手可以 “复用 Postman 的接口”,不用重新写请求:

    1. 把 Postman 的 “集合” 导出为JSON文件(Postman→集合→右键→Export);
    2. 打开 JMeter→左上角 “File→Import→选导出的 JSON 文件”——自动生成所有接口请求,省时间。

    3. 写第一个性能测试脚本(以 “登录接口压测” 为例)

    1. 添加 “线程组”:右键 “测试计划”→“Threads(Users)”→“线程组”,配置:
      • 线程数(并发数):100(模拟 100 人);
      • Ramp-Up 时间:10 秒(10 秒内逐渐启动 100 个线程,避免瞬间压垮服务);
      • 循环次数:1(只跑一次)。
    2. 添加 “HTTP 请求”:如果导入了 Postman 集合,这步不用做;如果手动加,填 URL、请求方法、参数(和 Postman 一致)。
    3. 添加 “监听器”(看结果):
      • 右键线程组→“监听器”→“查看结果树”(看每个请求的成功/失败);
      • 右键线程组→“监听器”→“聚合报告”(看响应时间、吞吐量、错误率)。
    4. 执行脚本:点左上角 “启动” 按钮,跑完后看 “聚合报告”——比如 “90% Line”(90% 请求的响应时间)是否符合预期。

    4. 新手避坑:性能测试不要 “瞎压”

    • 先在 “测试环境” 压,不要直接压生产环境;
    • 先从低并发开始(比如 10 人、50 人),逐渐加量,避免压垮测试服务;
    • 压测前确认测试环境的配置(比如服务器 CPU、内存)和生产一致,否则结果没参考价值。

    六、学习资源与避坑指南(没人指导也能自学)

    1. 必看资源(免费,新手友好)

    • 工具文档
    • 视频教程
      • B 站 “2024 接口自动化测试(Python+Requests+Pytest)”;
      • B 站 “JMeter 性能测试入门”:搜 “JMeter 2 小时入门”,快速掌握基础操作。
    • 社区
      • 遇到问题先搜 “Stack Overflow”(英文)或 “CSDN”(中文),比如 “requests 如何传 token”;

    2. 新手必避的 3 个坑

    • 坑 1:只看响应码 200 就认为接口没问题
      比如 “删除不存在的订单”,接口返回 200 但响应体是 “删除失败”——必须断言响应体的内容,不能只看码。
    • 坑 2:自动化脚本写得太复杂
      新手不要一开始就搞 “封装框架”“多层级目录”,先写简单脚本跑通,再逐步优化(比如把 URL、账号密码放到配置文件)。
    • 坑 3:忽略测试数据的清理
      比如 “新增用户” 接口测完后,要删除测试用户(否则下次跑脚本会报 “用户名已存在”)——可以写一个 “数据清理脚本”(比如调用 “删除用户” 接口)。

    总结:3 个月学习路径(贴合你的实际场景)

    时间 阶段目标 核心任务 输出成果
    第 1 个月 能独立完成手动接口测试 1. 学 HTTP 协议和 Postman;2. 测 2 个模块的接口;3. 输出接口测试用例 接口测试用例文档、手动测试 bug 清单
    第 2 个月 能写核心接口的自动化脚本 1. 学 Python+Requests+Pytest;2. 写 5 个核心接口的自动化脚本;3. 集成 Allure 报告 自动化脚本、每日测试报告
    第 3 个月 接口测试融入流程 + 性能测试入门 1. 把脚本集成到测试流程;2. 学 JMeter 测 2 个核心接口的性能;3.(可选)集成 Jenkins 性能测试报告、CI 自动执行任务

    按照这个路径,3 个月后你不仅能掌握接口测试,还能在简历上写上 “独立完成接口手动 + 自动化测试,落地性能测试基础流程”——完全满足市面上大部分公司的 JD 要求。关键是 “边学边用”,用实际项目的接口练手,遇到问题解决问题,比单纯看教程进步快 10 倍。

  • 测试 BUG 究竟要怎么提? at 2025年09月08日

    职场上都是对人不对事的(如果有人说不是,不要相信这种场面话)
    建议社区的朋友们都要看看这部电影,我经常会拿出来警惕下
    里面的飞全到死都不知道自己错在那里


  • 别老是盯着测试啦,很多岗位的工资其实不比测试低

  • 饿了么这么多年一直不温不火,直到在淘宝加个 tab 变成淘宝闪购后,居然变成双赢的局面,业务这种东西有时就是这么奇怪,之前的产品肯定都是想着怎么使用推荐算法去获取新用户和维持老用户活跃度,结果把外卖入口引入,就能让用户一天至少打开三次淘宝

  • 类比场景:就好像 K8S、docker 这些东西,实际情况就是能接触的测试人不多,没实践机会学完就忘,也很难学到位,但是经不住大部分有进取心的测试去学,然后再感叹学完没多大用。
    说到底的关键就是有没有平台和机会去让你实践这些道理,而机会和平台是可遇不可求

  • 实践了之后,就会开始相信运气和命😈

  • 外包本来就是极度不稳定的,挺正常
    你看下你之前签的合同,然后咨询下相关律师,在社区问是没用的

  • 看 13 年到现在每年的大学生毕业数量,我个人觉得往后几年开始,裁员的人数将会大幅提升,不管是出于 Z 策压力还是出于新鲜血液更换

  • 先什么都不做,小组开会时问问你的下属他们想做什么,汇聚总结后,再跟你的领导讨论看看,同意了就安排下然后交给下面的人去做,不同意那就继续这个循环。还有想想你的前组长为什么要跳去产品组,以后是不是也要学习下他

  • 出门在外,人设是自己给的,社区里的人说的话都不要太当真😈

  • 谢谢夸奖😁 ,我的确在公司里是和光同尘,在风险规避和防背锅这方面有独到的见解

  • 25 岁

  • 你这个是面向什么业务设计的?80% 的识别成功率影响不大吗?

    如果是我,我会问这几个问题:

    1. 80% 识别率是怎么统计的?样本覆盖了哪些场景?不同复杂度页面的识别率差异有多大?
    2. 80% 成功率之外的 20% 失败场景,你们怎么处理?是回退手工测试,还是有其他自动化兜底方案?
    3. 新框架识别率只有 80%,实际落地时,这个成功率真的能比传统方案更稳吗?有没有和旧方案做过对比测试(比如相同页面的执行稳定性、维护成本)?
    4. 80% 成功率是针对所有页面,还是只覆盖了部分简单场景?如果遇到高频的复杂页面(比如表单嵌套、动态加载),识别率会不会暴跌?这种情况下怎么保障测试质量?
    5. token 消耗怎么计算?每次元素识别、用例执行要花多少钱?有没有统计过
    6. 20% 的不稳定性会不会让业务测试提心吊胆?,增加了监控和重跑的负担,违背了自动化提升效率的初衷?

    另外你的描述,给我一种你没有 在实际业务测试中用过这个测试框架的感觉,否则 80% 的成功率你都写出来?
    你想想识别成功率是 80%,不考虑其他因素,算你一条用例的成功率是 80%,若一次回归测试有 50 个用例,全部成功的概率仅为 0.8⁵⁰ ≈ 0.0001%(几乎为 0),这意味着几乎每次执行都会出现失败,这就是我上面想问的,如果每次执行都会出现识别率问题,那你们的精力是不是都分散到区分是实际 bug 还是识别问题?

  • 社招测试一点困惑 at 2025年08月26日

    这好事,也正常,说明是干实事的人来面试了
    你感到困惑,是因为你被那种不干测试活却标榜自己是测试的人误导了
    那类人就很喜欢问研发类的专精问题