先看你需要测什么方面的安全。
通用简单的 web 安全问题(如有安全风险的 web 配置,和一些简单的漏洞),有好多现成工具能拿来扫描,但效果可能不怎么样。比如:https://github.com/greenbone/openvas-scannerhttps://github.com/sqlmapproject/sqlmap,
业务性质的安全漏洞,都是靠经验去挖掘,依赖对业务场景和安全漏洞的理解,这种市面上没有工具,只能靠技能。
9 年 3 跳挺正常,平均 3 年换一家,不会是被诟病的地方。
现在呆的公司,从你的描述看,已经达到了个人各维度的天花板,薪酬空间、管理空间、技术空间都没法再上升,最重要的是公司业务发展也到达天花板,那接下来就不进则退,不突破可能或许会慢性死亡,劣势明显。
新的公司,管理空间没有质变化但至少有量的变化,有熟人关系对自己保护更好,最重要的是有新的技术空间,符合 AI 大趋势,公司还在上升,过去就有机会水涨船高吃到红利。
所以综合对比,当下是不进则退,过去短期有量变长期可能有质变。我认为可以跳。
这个要看业务的,不同的业务不可能拉在一个线上对比。就比如 toB 业务,7% 的逃逸率估计算一般或略差;但是对于 toC 尤其是带开发者开放属性的业务,逃逸率 10%+ 是正常的,因为长尾场景多得数不来。
而且问题逃逸也不一定代表什么,毕竟逃逸风险有高有低,同时,当下的测试资源和业务阶段也是影响逃逸率的重要因素。
故,你要找到同领域同类型(最好还是阶段类似)的业务去对比。
我不是在抖机灵,你可以这么尝试观察情况。
一来你又没体现要找上级反馈工作量超载问题,二来你又要默默吞下所有,最后让大家支招,那就只能这样试试上级的反应。有没有一种可能是,有些活 delay 了也没有影响,当然这只有你自己才能判断。
印象中好像是 hw 第一次说的

在工作刚开始的前两三年,我认为市场不会因为你之前做过什么,而敲死你以后只能做什么,所以我鼓励【尽管去野蛮生长,找到你喜欢的长期方向,不要被你当下从事或者即将从事的工作所束缚】。
新同学经常有类似的疑惑:“完蛋,我天天搞测需求,写自动化用例,同样是 QA,我怎么跟哪些造工具造框架的 QA 比?!!”
我的回答是:
找 bug 不是最难的,如果你有实际项目开发经验,项目越复杂就越有优势(也就是你的 demo 越复杂越好)。
如果我是测试经理,我会优先找技术开发能力更强的,从开发转测试更多是视角和习惯转变,而测试转开发有明确技能门槛是更难的事情。
楼主说【因为是贷款领域 尽量不 mock】,不应该是【因为是贷款领域 尽量要 mock】
支持 2 楼。
核心问题还是不能因为测试,导致是实际资金转移。
想想,要是你跑一次自动化,公司欠别人几百个 w,或者每次都让外部公司出人手工帮你回滚测试数据,都不用说的没办法推进。
测试思维,看书本只是让你意识到有这回事,而思维本身的历练还是要靠具体的项目,最后转换为所接触业务领域、业务形态、复杂度的 “多或少”,“高或低” 的问题。
首先,测试思维,它是一个模式化的框框,在这个框框里有固定的几个东西占位置。如功能、性能、稳定性、安全、兼容,再靠自己的经验(还是来自前面说的三个要素)去补充。经验越多,见过的奇怪问题越多,就越能举一反三,当你看到这个功能,立马会产生 “警惕性”。或者一句话,测试思维迭代需要真正的阅读量。
其次,好的测试思维,离不开对业务技术实现的理解和熟练度。如果不知道业务功能大体的实现逻辑(不需要一字一句地理解,很多时候只要猜对就行,基本也很容易猜对),涉及的上下游,用到的技术组件,也做不好边界场景的补充。
最后,对于刚工作的同学,我的建议是:
那你也试试活没干完 886 节奏,看看对进度有没有影响,大家什么反应,先别感动了自己。
【如何判断是工具本身局限性还是自己操作错误】这个经验为主吧,但一般工具清楚说明了它支持 xx 功能,然后你怎么用都无效基本就是自己的使用不当问题。
如果工具没说明,你使用有问题,以前是上外网搜搜看看其他人或者老外有没有解法,现在就直接问 AI 好了。AI 在信息搜索上是无敌的。
试试 AI 做 UI 自动化测试咯:https://ui-tarsai.com/
jmeter 也是我毕业前两年接触到的第二个压测工具,当时跑在 windows 上,有 UI 界面,只要理解几个关键的参数就能直接开始用,后面单机压力不够看了,还能换成命令行使用搞成多机。整体很适合作为性能测试接触的第一个 GUI 工作。
但是随着业务场景越来越复杂,jmeter 这些老派工具就跟不上了,一方面是 java 本身的性能极限不够高(线程模型、堆大小上限等编程语言方面的约束引入的天花板);另一方面从命令行工具角度评价,市面上其他工具用起来感觉都很像,无非就是参数设置稍有差异;
进阶的接口性能测试,就不再是拿二进制工具单接口发压这么简单,开始关注多接口关联的场景性压测,此时可能演变为写代码调用库来更灵活地发压;
接口性能测试在大公司的终极形态,必然是平台化,此时你就脱离性能测试工具本身,不会再关注你用的是 jmeter 还是 gatling 还是 wrk 还是啥,平台会帮你解决压测机器调度、多机发压等问题,你只要告诉压测平台你要压多少 qps,压多长时间,qps 变化策略和一些动态构造的数据就行,还会额外出现压测环境、压测集群等跟公司研发体系配套的问题,人就会聚焦在 “性能测试方案” 上,返璞归真。
能帮助好别人就好
那要看性能测试的人跟不跟业务,如果他们是一波独立于业务之外专职搞性能的人,不了解业务,你让他们评估也实在是为难别人(当然你可以对外沟通时给他们甩锅,看你自己怎么想)。
从我的角度看,业务最后出问题还是自己受损,你能评估到也是你的 goodcase,如果自己有能力评估还是要尽量参与。
改代码就让研发评估是否需要回归功能,但多数对自己没自信的研发为了保险起见更倾向让测试做冗余回归,这时测试人员能不能 review 研发的改动,评估改动影响大不大,要不要回归,回归多和少,就显得很重要了。
别把自己 pua 到抑郁了
先自查评审是不是复读机大会
我的评审,研发参与感都挺强,我会一直和研发互动,过重点抛问题讲测试思路,一些很常规 case 其实不需要研发 review
真实又真诚
上面的问题你想清楚,然后咨询一下 AI 估计就有思路了。
你说的这个可以归类到其他前面两种情况
在大厂里无非 3 种选择: