确实是这么个理,但是在质量视角,该兜底的还是得有自动手段去兜底,总不能一直归因到人的质量意识层面,因为这个很难去把控和改变。所以也挺没办法的,只能穷极各种不一定高效的手段去做质量守门员
老哥目前测试方式是怎样的,不妨交流交流,真的是好难找到对口的同学
5 楼说得挺好,我补充一下我的看法。
工作前两三年应该是迅速生长的时光,迷茫周期不宜超过两个月,如果有那代表问题已经出现了,那就这问题应该怎么调整呢?需要先弄明白两个问题:
好,即使第 2 个问题你想不明白,至少第 1 个问题你还是能很快给出答案的吧。那承接第 1 个问题其实也是很确定的做法,你需要找到对应的 RoadMap(发展地图,技能地图)来参考。
上面已经明确了你接下来要做什么(计划),你可以从下面几个方面去发展:
其实这个问题转化一下,就是我们在简历和面试应该如何合理加料。
我的感觉是:
至于背调,职场里做个好人,不要和别人撕破脸皮,不要留下黑历史,其实没什么特别难度,让大家对自己有个正常的评价。
我作为面试官,如果看到有人简历里写 “精通功能测试用例设计”,不会觉得有啥特别的甚至有点想笑。
一来用例设计是测试的基本功吧,二来但凡你写了精通我问个问题你答不出来或者回答得一般般就可以当场寄了。
吸引技术同学最好的作用就是技术公关,这一次 B 站很成功,看得上头
一般下面几种做法。
先给定义:
SDK 接口测试,一般就是基于 SDK 接口去写调用代码测试,本质上就是写接口自动化,也经常会基于 SDK 实现一个可视化的宿主 Demo(这个 Demo 就调用 SDK 各种功能接口),后面点一下 Demo 的按钮就能在背后跑接口自动化。
SDK 可能也会有服务端交互,如 RTC SDK(推流、连麦),这时可以针对和 SDK 涉及的服务端做接口测试,不过这个范畴更多是服务端的测试,和 SDK 关系没那么大。
这个没什么好说的,就是谁集成使用了你的 SDK,你就去谁上面搞测试。
上面提到的是具体测试实施的手段,而说到测试范畴,其实还是我们常说的那些维度,不外乎
自己注册一个 qq ?
如果这个音视频 sdk 有没有专门的质量团队,如果有,那就对他们提要求。毕竟坑了你们这么多次,这些数据拿出来找那个团队的负责人一看,怎么说也还是有道理的;如果没有,那就真的只能自己搞了,这种东西就是要做自动化,UI 自动化只挑最重点最核心的基本功能去做,限制成本;重点在接口自动化上多做一些事情,成本相对更低,用例也更稳定可靠。
关于 “模拟双方的场景”,我理解就是有多账号互动的过程,一般来说这类自动化要做一个中间模块来进行多方管理,作用是分别给多个账号下发指令让他们按顺序去做一些事情,实际上相当于一个调度模块。
我打算歪个楼给一些方法,楼主可以按需自取,回答和帖子不相关,也是我自己的面试官经历总结。
看起来楼主要面试的是社招同学,看面试的目的是什么:
社招面试的本质:
一些其他建议:
我在 19 年时还真的测过一次保活,当时也是我第一次(唯一一次)接触这个东西,搞了两周多,大概分享一下。
一些注意的地方:
其他要求:
如果我是面试官,我内心预期可能会是这样:
如果社区有人分享 SDK、芯片,或者除了常规功能、性能之外的其他方向(如兼容、稳定性、容量、监控报警等),我会马上飞奔过去拜读点赞……
在实际工作中,大家会不会遇到这么一类人:经常搞跨团队沟通推进,表达啰嗦冗余,一个观点反复陈述,一个事情说好久整得好像很复杂一样,实际上精炼几句话就能传达出意思,而且在沟通上非常强势,反复要求你当场给承诺和排期。
这种人需要更特别的沟通技巧来应付。
以上【UI 自动化】可以随便替换成【API 自动化】
图二能通过.
给出提示,是因为你的 wk 变量是直接由库函数返回的,ide 可以精确知道 wk 变量的类型,所以能给出它包含的各种方法。
图一之所以不能.
出来,是因为 sheet 变量是 wb 字典变量的某一个值,ide 不知道你这个 wb['login'] 到底是个啥玩意儿,它可能是一个字符串,可能是一个 int,无从猜测,取决于你的实际数据(也就是 wb['login'] 是啥只有你自己知道),所以无法提供任何方法名称。
这个并不奇怪,公司走到最后肯定都是往这种模式发展,换自己来当老板,肯定不希望自己花钱招了人进来但是不干事情。以前不这么搞,大概率是没这个必要,比如可能营收情况好,就粗放员工各自发挥。后面营收开始疲软了,自然就收敛 HC,招进来冗余的人裁掉,存量的人把控好他们的工作方向和工作量
十分合理并且赞同,任何测试相关的资产都不要绑定到个人名下,测试账号如果是共用的那就用公司名义去搞一个。难道等会测微信支付,还要测试人员提供自己手机绑定的微信号去测么,离大谱
如果自己的目标导向性很强,那就走目标驱动的方式,给自己一直定短期小目标,比如每个目标是学习 xxx,然后将它拆成几个子课题逐个突破。
如果自己的目标导向性一般,那就先上网找找 roadmap(别人整理好的学习路线图),然后从上面按顺序学习,或者挑自己感兴趣的去学习。
学习主要是将节奏,稳定的输入输出,剩下交给时间。
谦虚请教,多主动和 leader 一对一沟通,不停询问其对自己的看法和建议,不停做调整;学习如何去把一件事情做好,如何从 60 分做到 80 分再做到 90 分;学习怎么和别人友善顺畅地沟通,学习怎么抑制在沟通时不好的情绪表现等等
如果直接要答案,没办法给你,可以尝试给点思路。
【系统环境多多少少都会存在一些细微的差异性,导致部署的过程中,活着在试用的过程中零零碎碎的问题就显得很多】
我假设这里楼主已经把问题范围圈出来了,接下来要做的是,把这个很粗的定义细化。
当你把影响质量的点都搞清楚后,就能去决策应该先优化什么,优化了之后预期有什么效果,这样就有了目标。另一方面,你需要在这里面找出一些可量化的点来评价你做事做到多少分,举个例子,假设运行环境中依赖程序版本会影响你系统的运行,那你要有个类似这样的指标 —— 系统可以正常兼容哪些程序版本,没兼容的是哪些。
比较常规的如一楼所说,测试先划定一个,再找研发评估对齐。
引入其他依据的话,可以是基于代码调用链上下游各 N 层来评估测试范围,这个评估步骤可以是人来做,也可以做成自动化。
希望楼主不要觉得我说话难听,忠言逆耳,其实楼主有些浮躁。
接这个例子说,用例数量 10 条和 100 条有本质区别,100 条和 1000 条区别更大,有很多问题是在一定体量之下才会出现(不然淘宝双十一天天卷架构卷压测是为了啥)。
举个例子,当你用例膨胀到几百条,你会出现很多维护成本问题(用例不稳定性,修改效率低)和很多统计度量问题(哪些用例失败率高,哪些用例经常发现 bug),就会让你在用例分级、运行策略、框架升级等各方面做更工作……这也仅仅是部分问题,越往后做,就要和各种奇怪的问题斗智斗勇,这时才是最锻炼人的,而不是写几百行代码就算是 ok 了。
一开始看还懵了一下,按照面向接口压测的思路,一般不会把用户在浏览器上请求的模式拎出来说,而是直接按照业务链路的思维去梳理。后来看完之后就理解了,本质上工具的核心卖点是 UI 操作化与录制,录制功能做到和多用户用浏览器一样的访问模式,对用户的要求更低(甚至不用具备链路业务梳理的能力)。
不过这样做压力测试会有局限性的:
9 楼的逻辑有点问题,外包要是薪资高,那为什么还会分化出 “外包” 这种角色,“外包” 之所以产生,最大原因应该是企业希望降低人力成本吧?这些成本泛指培养成本、福利成本、违约成本……
回到正题,从楼主的描述中,薪资和工作内容都不太让人满意,现在又把离职摆出来了台面,大概率是要走的了,还是只能边做边找。不过大环境很一般,还是尽量放低薪资预期,看长远一些,优先考虑找一个能让自己在未来有竞争力的岗位吧。
回家随便找工作然后考公务员,看着更像是一个放弃治疗的选项,除非考虑成熟了,不然还是晋升,否则这 3 年工作经验基本浪费。