所谓的性能测试,目前测试同学大多都只是完成 “施压”,分析不了原因,给不出具体优化方案(要给的话就是扩机器。。。)
上上家公司招的所谓 “性能测试专家”, 每次大促前压测完给的都是扩容建议。。。(这有啥门槛?)
直接看官网教程
“用户量增加了 5 个左右” 新招了 5 个开发?
如果不是 2B 2G 的业务, 那老板简直在做慈善
10 楼正解
校招刚入行半年 能设计搭建一个比较完整的方案,很不错了。
” 基于 xml 编写脚本 “
你应该是想降低门槛,让更多的人能参与编写 UI 脚本,但最后推广落地的时候,我猜结果可能是:
1.技术能力不行的,可能觉得你这个晦涩难懂,对他们来说门槛还是高。
2.技术能力可以的,他熟悉 selenium、testNG,为何要绕个弯子用你这套基于 xml 封装的方案,对他们来说有额外的学习和适应成本。既不习惯,也不好用;
1.“接口自动化生成用例”
-- 没啥用。。。 这种方案最多最多只能帮忙测下简单的单接口,测点业务接口就需要造数, 也测不了业务流。
量化是必要的,但问题是不好量化。。
1.量化指标很容易被刷分, 导致结果失真,我看你定的 top10 里大多都可以刷。。
2.各个业务线情况不一导致的不公平,就说第一个 “有效 bug 数”,产品的生命周期、复杂度,开发的能力、质量意识等等各种客观情况不相同, 每个迭代 BUG 数肯定也不一样
3.容易误导测试同学,会有意识地刷分注水,导致目标偏离。
4.“天梯积分对于绩效考核而言,仅做数据的重要参考而不是最终的绩效排名” “失真” 的结果并不能给到靠谱的参考,最后还得靠 TL 主观判断。
1.收集证据,走劳动仲裁
2.骑驴找马,准备跑路
并不是
又一个被培训班割韭菜的。。
记得 katalon CLI 是要收费的
自研还是用现成的,得自己衡量,每家公司情况都不一样
买新不买旧
真的会有人这么搞么.....表怀疑...
出了很多年了.....
1.大环境不行
2.潜力不够, 从楼主表述中看,个人能力没问题,对质量保障还是缺点深刻的理解。
还俩月呢,这么早总结了
文章背景写的是接口测试。。
“10 亿” 中得有多少是等价 case...
看着好像是测试完全了,但如果这 10 亿中,有 1w 个结果报错,谁来排查,又怎么排查,属于是管杀不管埋了。
可以看下精准测试相关的落地实践
挖公司内部需求, 不是为了做而做,是有需要才做
如果是提供给前端的接口,前端可加限制,后端省点活
如果是提供给其他服务的接口,那原则上所有异常都要处理并返回明确的报错原因
开发测试比 4:1 有点羡慕。。。
我这 8:1
有点简陋,感觉是套了某个古早的壳
测试报告不是在线的?PDF 报告里的内容也太。。。
respect ,20 年前的 985[赞]
应该走管理路线了吧,卷技术卷不过现在的年轻人
我来 “杠” 一下吧
“web 端及 app 端均可测试”
--谁都可以测 web/app, 你有什么突出的能力?
“读懂 java 项目源码”
-- java coding 能力怎么样,真能读懂,coding 能力也不会差
“能使用 python 编写提效工具”
-- 做了哪些,难度如何,效果怎样,自己用的还是给全团队用的
“能使用 jmeter 进行性能测试”
--会分析性能瓶颈么,怎么分析
“带领团队成员完成 2000+ 用例迁移....”
--怎么带领的,你做了什么工作。 会用平台并不能说明能力好,只能说不差
“代码行覆盖率由最初 23% 提升到目前的 48%”
--覆盖率提升 你做了什么工作, 覆盖率的意义在哪,为何只达到了 48% 没有继续提升
“每天版本都能从刷机到冒烟测试全自动无人值守测试”
--自动化用例多少,覆盖了百分之多少的手工测试用例
以前行,现在可能有点悬,
看介绍基本面没啥大问题,但缺亮点。
没亮点的情况下,差不多条件的候选人,肯定选择学历更好的,研究生都泛滥的年代,大专学历确实会拖后腿