工具会换,思维方式不会过期。 这是整个系列最后一篇,也是最难写的一篇。前四篇谈的是路径和策略,这一篇要谈的是比路径更底层的东西:当外部环境剧烈变化时,什么能力是稳定的锚点?三条路径可以结合自己的情况选择,但有几种底层能力,无论你走哪条路,都是不可跳过的地基。它们不像某个工具版本那样会被替代,更像职业系统里的底层协议,平时不显眼,真正遇到变化时才决定你能不能稳住。
James Bach 和 Michael Bolton 在 2024 年由 Wiley 出版的《Taking Testing Seriously: The Rapid Software Testing Approach》里,系统阐述了一个在测试圈被广泛讨论的观点:测试是一种认知活动,而不是一套可以被规范化的操作流程。
测试思维的核心,是批判性地审视被测系统——不只是验证它做了什么,而是追问它是否做了正确的事,以及它在哪些情况下会失败。这个区分很重要。一个系统可以通过所有预设的测试用例,同时在真实用户手里崩溃,因为预设用例只覆盖了写用例时能想到的场景,而不是用户实际使用时会组合出来的复杂场景。
Bach 在 Rapid Software Testing 课程体系和他的博客(satisfice.com)里提出了一个叫 Defocusing 的启发式策略,用来应对 Boris Beizer 在 1990 年《Software Testing Techniques》里提出的农药悖论(Pesticide Paradox)。农药悖论的意思是:你用来发现 bug 的方法,会逐渐对剩余的 bug 失效,就像农药用久了,害虫会产生抗药性。Defocusing 的应对策略是:当困惑时聚焦,当沮丧时去焦——持续改变测试方法和策略,才能持续发现新的问题。
这个概念被提出时针对的是探索性测试,但它背后的逻辑在 AI 时代更加适用。AI 工具最擅长的是沿着已有模式生成内容,最不擅长的是主动改变视角、挑战既有假设。AI 生成的测试用例覆盖的,往往是训练数据里出现频率高的场景,而那些从没人想到过这样用的场景,正是 Defocusing 思维能发现的地方。
这种认知灵活性,是目前 AI 最难复制的能力。
测试思维是认知工具,质量意识是认知框架。两者的区别是:测试思维告诉你怎么发现问题,质量意识帮你判断什么才是真正的问题。
一个系统的质量,不是一个静态属性,而是一种动态关系。Lisa Crispin 与 Janet Gregory 在《Agile Testing》(2009)以及后续的《More Agile Testing》(2014)里反复强调整体测试(Whole Team Testing)的理念:质量不属于某个部门,而是整个团队持续交付价值的方式。质量工程师在其中扮演的角色,更接近风险感知者和业务翻译者,而不只是缺陷发现者。
这意味着,同一个 bug,在不同业务语境下,严重程度可以完全不同。结账页的 200 毫秒延迟是高优先级问题,同样的延迟在内部报表系统里可以接受;一个拼写错误在品牌落地页是品质问题,在内部工具里可能无关紧要。这类判断来自对用户、业务和风险的综合理解,不是测试框架能自动生成的结论。
质量意识深的工程师,能在需求评审阶段就识别出潜在的质量风险,而不是等到测试阶段再发现。这种提前量,在敏捷和 AI 加速的环境里价值尤其高——发现问题越晚,修复成本越高,这个规律没有因为 AI 而改变。AI 可以缩短执行环节,但很难替你判断一个需求本身是不是埋了风险。
T 型人才的概念最早由麦肯锡在 1980 年代内部使用,大意是:横向的广博知识加上一个纵向的专业深度。这个模型在信息变化较慢的时代足够用,但在 AI 加速的 VUCA 环境里,一处深耕的护城河变窄了——因为 AI 在很多单一专业领域已经能达到够用的水平。
π 型人才是从 T 型延伸而来的概念,由敏捷社区(Scrum Alliance 等)在职业发展语境下系统化描述:在广博知识面上,拥有两处深度专长,而不是一处。对测试工程师来说,这不是给自己贴一个新标签,而是用第二条深度曲线降低职业风险。
对测试工程师来说,两处深耕的最优组合是什么?
第一处深耕,是核心测试技术能力。根据你的倾向,可以是自动化框架设计、性能测试工程、安全测试,或者任何一个你能做到团队里最强的测试技术方向。这不是掌握某个工具,而是在这个领域里能做系统性的判断和架构级的决策。
第二处深耕,有两个方向可以选。一个是 AI/ML 技术理解:不需要能训练模型,但需要理解大语言模型的工作机制、幻觉产生的原理、模型评估的基本方法,以及 AI 系统的质量验证逻辑。另一个是特定业务领域的深度:金融合规、医疗器械、自动驾驶——这些领域对质量的要求有独特的监管框架和行业标准,深度理解某个垂直领域的人,在该领域的质量工程里具备稀缺的判断力。
选哪个第二深度,取决于你当前所在的行业和你对未来方向的判断。但两处深耕有一个共同的要求:它不是靠突击几个认证就能建立的,而是在真实项目里反复打磨出来的判断力。
职业壁垒通常有两种形式:一种是技能壁垒,难以被复制;另一种是可见度壁垒,难以被忽视。大多数工程师只关注第一种,而在行业快速洗牌的时候,第二种往往更快发挥作用。因为机会分配并不只看你会什么,也看别人是否知道你会什么。
持续的技术输出——写文章、做分享、在社区回答问题——做的是这样一件事:把你脑子里的判断力变成可以被别人看见、评估、引用的东西。这不是表演,而是把隐性知识显性化的过程。一篇认真写的技术文章,能让你重新审视自己对一个问题的理解;一次公开分享,能让你在准备过程中发现自己理解里的漏洞。输出的过程本身,也是认知升级的过程。
TesterHome 是国内活跃的测试技术社区(成立于 2012 年),也是 MTSC(中国互联网测试开发大会)的发起方。MTSC 自 2015 年首届至今已举办 13 届,2024 年第 13 届在上海举办,历届参与者覆盖国内一线互联网企业的测试团队。Ministry of Testing 是全球规模最大的测试社区之一,成立于 2007 年,目前在全球拥有超过 10 万名注册成员,在 50 多个城市举办线下 Meetup,每年举办 TestBash 系列大会(2025 年起更名为 MoTaCon)。
这些平台提供的不只是学习资源,更是可见度机会。在行业重组时期,拥有公开可验证的专业影响力,比简历上多一行工作经历更有竞争力——后者是你说你能做什么,前者是别人已经看到你做了什么。
整个系列到这里,有一个贯穿始终的逻辑值得最后再说一遍。
AI 正在接管的,是高度重复、规则明确、不需要语境判断的执行任务。留下来的,是需要理解意图、作出判断、处理边界的工作。测试这个职业里,后者始终是最核心的部分,只是以前被大量的前者掩盖住了。
从执行测试的人升级为设计质量的人,不是一次职称的变更,而是一次认知框架的重构。这个重构的具体形式,可以是 Test Architect 的工程深度,可以是 Quality Architect 的系统性思维,可以是 AI 协作工程师的编排能力,也可以是三者不同比例的组合。但无论走哪条路,测试思维、质量意识和持续学习的习惯,都是不会因为 AI 迭代而贬值的地基。
AI 越能写代码和测试,能判断该写什么、写得对不对的人,就越稀缺。
浪潮不问你准备好了没有。但准备好了的人,站在浪里的感受完全不同。