• 我在阿里做测开 at 2021年11月10日

    小公司测试开发比一般开发要求高了,往往面对的问题是:

    1. Devops 各种平台集成,什么 gitlab,k8s,jenkins,jira, 需要很快的学习能力
    2. 不管工具还是平台需要走产品化路线,所以你需要自己有想法,又了解日常测试需求和潜在需求,才可能好样
    3. 基本上可能需要全栈了,前端后端,js,java,python,typescript 估计都需要,搞不好还需要点 golang 之类的
    4. 最后平台需要有数据追踪,分析的能力,所以又需要建立点指标系统,那么数据分析什么 ETL/数据可视化多少又需要了,这是需要点数仓基础支持,可能还需要点大数据周边的一些能力
    5. 推广能力/优先级设定能力, 说的直白点就是 PPT 的能力,和说服别人的能力

    所以做起来很累,小公司一般基础设施不太好,大公司可能也很累,系统繁多而复杂,各个组都是小山头,沟通很费劲,另外每个组的惯性思维方式也不一样,谈需求的时候需要尽可能的适应不同的说法,抽象不同说法里面的共性。嗨,苦苦苦。。。。

  • 大部分问题不准备能回答出来,但是有啥用呢,年纪太大,不要。

  • 突然发现这个和我很久以前的框架其实思路差不多的, http://testerhome.com/topics/3690
    其实都不需要打包放 jenkins 的,直接使用 maven 命令就可以跑了.

  • 有一点不明白,既然 UI 变化很大,不停的变,录制一边变化和实际做一次测试的区别是啥呢?

  • MTSC 参会感受 at 2020年11月24日

    个人觉得 AI 测试也好,自动化测试也好,如果要真的要完全自动化,那么最终都会 AI。我举个例子来说,在测试行当很多人其实对 selenium 做自动化测试有很大的质疑,但是其实现在有些什么 RPA 工具也在用 selenium,可能都是用在实际商业流程中。目前的自动化实际上大体上把手工测试的内容用代码实现,如果和 AI 代表的自动化来说,这都不能算是自动化,AI 测试是推导,可以根据历史自运行,自己解决问题;但是如果 AI 能测试了,那么代码也都可以自动写了,个人观点. 这应该还是有很长的路好走。我觉得测试开发也好,测试也好,对于大部分从事这个工作的人来说,就一件代码熟练这件事情能达到的比例熟练这个程度的都不多。 我们大部分人都低估了代码熟练度这件事情;同样关于提效这件事情,我们也低估了沟通和协作的重要性,看着产品经理说的是一套语言,开发是另外一套说辞,测试也有一套语言,其实可能说的都是一件事情,你一份文档,我一份文档,写了很多文档,但是为什么一件事情要这么多文档,为什么写了这么多文档,还是很多人说没有文档,同样为什么开了那么多会议没有一个统一的,结构化的,清晰的需求也好,说明也好,指导也好;这是为什么? 反正我对我们团队的要求就是, 代码熟练度/沟通总结能力是不能少的,其他什么平台也好,工具也好,一点点加,需要就加;代码熟练了,加点功能就应该顺手写出来,代码熟练了,写接口调用的代码就应该顺手写出来;沟通顺畅了,抓到重点了,一件事情就不应该一遍又一遍的重复.

    我觉得或许以后有议题说如何让忙碌的测试同样可以达到代码熟练这个简单又不简单的目标.

  • MTSC 参会感受 at 2020年11月22日

    有很多的内容都不错,但是又是一看代码就觉得有时 ppt 说的是不是过头了。举个例子来说: https://github.com/alibaba/intelligent-test-platform 这个以前 alimama 分享出来的测试平台,但是代码质量真的......,如果开源出来的测试工具代表业界的一定水准,那么我觉得 alimama 这个代码,让我对所有分享的高大上内容产生了怀疑。

  • 比如说对接能不能通?配置配的对不对等等等,大体就是这个事我做完了,配置也改了,对接也做了,但是不知道对不对。需要测试去测试下,当然自己还没有试过。

  • 一般启动看到类似:

    java.lang.NoSuchMethodError: org.yaml.snakeyaml.LoaderOptions.setAllowDuplicateKeys(Z)V
    

    这种 NoSucheMethodError 错误基本上都是 java maven 依赖的问题.

    可以使用 mvn dependency:tree > depenency.txt ,再仔细检查一下有没有重复依赖的包,同时版本又不一样的.

  • 不抢 KPI,但是想分别人如果 KPI 获得的好处呢?

  • 我很赞同你的想法 @hellohell ,多谢 @ 恒温 @ 陈恒捷 大佬,这块我自己也想到一些问题:

    1. 线上数据如何说明场景覆盖更全了?有什么理论依据吗?要不然就算采集了数据,回放 100 万次是同样的用例有什么价值呢?
    2. 如果说异常数据只是偶然的几条造成的,这个数据如何被采样到 diff 平台?不能只是撞运气吧
    3. 还是就是数据脱敏的问题怎么解决?这么多线上数据被用来做测试的话,我感觉要被告死的
    4. 还有就是线上数据和测试环境的用户基础数据应该是完全不同的,线上数据就这么容易的可以回放了?感觉真是有很多很多的问题待解答

    到底这中 Diff 平台带来了多大的提升?
    继续请各位大佬帮助回答。