自己注册一个 qq ?
如果这个音视频 sdk 有没有专门的质量团队,如果有,那就对他们提要求。毕竟坑了你们这么多次,这些数据拿出来找那个团队的负责人一看,怎么说也还是有道理的;如果没有,那就真的只能自己搞了,这种东西就是要做自动化,UI 自动化只挑最重点最核心的基本功能去做,限制成本;重点在接口自动化上多做一些事情,成本相对更低,用例也更稳定可靠。
关于 “模拟双方的场景”,我理解就是有多账号互动的过程,一般来说这类自动化要做一个中间模块来进行多方管理,作用是分别给多个账号下发指令让他们按顺序去做一些事情,实际上相当于一个调度模块。
我打算歪个楼给一些方法,楼主可以按需自取,回答和帖子不相关,也是我自己的面试官经历总结。
看起来楼主要面试的是社招同学,看面试的目的是什么:
社招面试的本质:
一些其他建议:
我在 19 年时还真的测过一次保活,当时也是我第一次(唯一一次)接触这个东西,搞了两周多,大概分享一下。
一些注意的地方:
其他要求:
如果我是面试官,我内心预期可能会是这样:
如果社区有人分享 SDK、芯片,或者除了常规功能、性能之外的其他方向(如兼容、稳定性、容量、监控报警等),我会马上飞奔过去拜读点赞……
在实际工作中,大家会不会遇到这么一类人:经常搞跨团队沟通推进,表达啰嗦冗余,一个观点反复陈述,一个事情说好久整得好像很复杂一样,实际上精炼几句话就能传达出意思,而且在沟通上非常强势,反复要求你当场给承诺和排期。
这种人需要更特别的沟通技巧来应付。
以上【UI 自动化】可以随便替换成【API 自动化】
图二能通过.
给出提示,是因为你的 wk 变量是直接由库函数返回的,ide 可以精确知道 wk 变量的类型,所以能给出它包含的各种方法。
图一之所以不能.
出来,是因为 sheet 变量是 wb 字典变量的某一个值,ide 不知道你这个 wb['login'] 到底是个啥玩意儿,它可能是一个字符串,可能是一个 int,无从猜测,取决于你的实际数据(也就是 wb['login'] 是啥只有你自己知道),所以无法提供任何方法名称。
这个并不奇怪,公司走到最后肯定都是往这种模式发展,换自己来当老板,肯定不希望自己花钱招了人进来但是不干事情。以前不这么搞,大概率是没这个必要,比如可能营收情况好,就粗放员工各自发挥。后面营收开始疲软了,自然就收敛 HC,招进来冗余的人裁掉,存量的人把控好他们的工作方向和工作量
十分合理并且赞同,任何测试相关的资产都不要绑定到个人名下,测试账号如果是共用的那就用公司名义去搞一个。难道等会测微信支付,还要测试人员提供自己手机绑定的微信号去测么,离大谱
如果自己的目标导向性很强,那就走目标驱动的方式,给自己一直定短期小目标,比如每个目标是学习 xxx,然后将它拆成几个子课题逐个突破。
如果自己的目标导向性一般,那就先上网找找 roadmap(别人整理好的学习路线图),然后从上面按顺序学习,或者挑自己感兴趣的去学习。
学习主要是将节奏,稳定的输入输出,剩下交给时间。
谦虚请教,多主动和 leader 一对一沟通,不停询问其对自己的看法和建议,不停做调整;学习如何去把一件事情做好,如何从 60 分做到 80 分再做到 90 分;学习怎么和别人友善顺畅地沟通,学习怎么抑制在沟通时不好的情绪表现等等
如果直接要答案,没办法给你,可以尝试给点思路。
【系统环境多多少少都会存在一些细微的差异性,导致部署的过程中,活着在试用的过程中零零碎碎的问题就显得很多】
我假设这里楼主已经把问题范围圈出来了,接下来要做的是,把这个很粗的定义细化。
当你把影响质量的点都搞清楚后,就能去决策应该先优化什么,优化了之后预期有什么效果,这样就有了目标。另一方面,你需要在这里面找出一些可量化的点来评价你做事做到多少分,举个例子,假设运行环境中依赖程序版本会影响你系统的运行,那你要有个类似这样的指标 —— 系统可以正常兼容哪些程序版本,没兼容的是哪些。
比较常规的如一楼所说,测试先划定一个,再找研发评估对齐。
引入其他依据的话,可以是基于代码调用链上下游各 N 层来评估测试范围,这个评估步骤可以是人来做,也可以做成自动化。
希望楼主不要觉得我说话难听,忠言逆耳,其实楼主有些浮躁。
接这个例子说,用例数量 10 条和 100 条有本质区别,100 条和 1000 条区别更大,有很多问题是在一定体量之下才会出现(不然淘宝双十一天天卷架构卷压测是为了啥)。
举个例子,当你用例膨胀到几百条,你会出现很多维护成本问题(用例不稳定性,修改效率低)和很多统计度量问题(哪些用例失败率高,哪些用例经常发现 bug),就会让你在用例分级、运行策略、框架升级等各方面做更工作……这也仅仅是部分问题,越往后做,就要和各种奇怪的问题斗智斗勇,这时才是最锻炼人的,而不是写几百行代码就算是 ok 了。
一开始看还懵了一下,按照面向接口压测的思路,一般不会把用户在浏览器上请求的模式拎出来说,而是直接按照业务链路的思维去梳理。后来看完之后就理解了,本质上工具的核心卖点是 UI 操作化与录制,录制功能做到和多用户用浏览器一样的访问模式,对用户的要求更低(甚至不用具备链路业务梳理的能力)。
不过这样做压力测试会有局限性的:
9 楼的逻辑有点问题,外包要是薪资高,那为什么还会分化出 “外包” 这种角色,“外包” 之所以产生,最大原因应该是企业希望降低人力成本吧?这些成本泛指培养成本、福利成本、违约成本……
回到正题,从楼主的描述中,薪资和工作内容都不太让人满意,现在又把离职摆出来了台面,大概率是要走的了,还是只能边做边找。不过大环境很一般,还是尽量放低薪资预期,看长远一些,优先考虑找一个能让自己在未来有竞争力的岗位吧。
回家随便找工作然后考公务员,看着更像是一个放弃治疗的选项,除非考虑成熟了,不然还是晋升,否则这 3 年工作经验基本浪费。
最近倒是面试了不少 “毕业” 的同学,确实日子不好过。
另外,欢迎对移动专项测试感兴趣的同学加入我们,有平台开发、移动端测开、性能&体验评测等岗位:https://testerhome.com/topics/32296
应该要明确一下,你表达的 “接口断言” 和 “数据库断言” 在这个上下文里具体是指什么?
我自己理解,帖主问的问题是:性能测试过程中每个请求是否需要看落库结果,来确保性能测试的逻辑正确性。
我的理解是:
也是可以的,这算是具体测试下手的几个维度,但还是不太够,面试的时候问你这种问题,其实就想了解你的质量保障体系是否完备,所以从线下到线上到得回答一遍。
嘿嘿嘿
智能纸制笔记本,不过 7 号发起兑换到现在还处于审核中
安全 topic 比较深,从基础的安全测试思路,到各类专门的测试工具学习,再慢慢到专业的渗透测试人员(相对专业的安全测试还是得看乙方安全公司的人员,甲方企业安全更多是研发主导)。不知道市面上的课程讲得怎么样,个人感觉这个方向不好做,需要大量实操积累。而且在大公司内部,安全问题已经泛化成如何应对隐私安全监管等,至少我看到的兄弟质量团队也还在搞安全体系化建设,业界还没多少测试团队把这块做得很好(另外,监管的不确定性也注定做这块会比较疲倦)。
性能就比较成熟了,估计课程也很容易把它讲透,也很好学,至少体量不大的公司中,性能一般比安全的优先级更高(因为安全问题没人去揭发,所以显得危害没那么大)。
信息太少了看不懂,不知道这套东西设计出来的背景是什么,要解决什么问题,解决的核心思路是啥,整个流程跑起来是怎么样…… 期待帖主能补充一下