• 建议说服开发开给你就好了,没必要为了一个几分钟加个开关 + 切 webview 就能解决的事情,想各种曲线救国

    既然开始做 ui 自动化了,就得想办法拉上开发给你提供便利,高大上点说就是为了可测性进行调整。曲线救国会明显降低 roi,引入更多工具也会让自动化变复杂、变慢和更不稳定,而且后面总会遇到没法曲线救国的地方,这时候才找开发人家已经习惯你单干,不一定愿意帮你

  • 可以通过沙龙等活动,认识一些朋友呀

    社区也可以,不过一般还是线下活动效果更佳。

  • 这个就要和老板沟通了,否则测试永远都没地位。
    不过一般至少 CTO 级别的还是了解测试是不可缺的,cto 控制好也可以。

  • 所以开干前,做好充分调研很重要。多找一些志同道合的人,遇到这种情况可以沟通商量下,有助于扩展视野和少走弯路。

    不过沉淀记录好你这次踩过的坑和解决方案,其实也不亏。以后总归会遇到没法 vnc 或者虚拟机的情况,到时候就能用上了。

  • 试下把这个重置改为 true ?

  • 这。。。你钉钉多少,我拉你?

  • 你这个定位的 xpath 不大对吧,标题的截图里,这个 input 元素明显是在 td/div 里面的,但你 c3 对象对应的 xpath 只是到了 tr 级别,所以对应的并不是 input 元素。

    另外,既然开发能让你从控制台(console)拿到值,那是否可以考虑直接用 execute_script() 方法执行那个控制台(console)能拿到值的代码?

  • 前端兼容测试思路请教 at 2020年12月22日

    toB 产品,一般乙方应该可以提供需要兼容的浏览器版本清单吧?

    toC 才是采集用户数据,因为用户没法主动告诉你。

  • INTERNALERROR>   File "/data/longfor_oa/conftest.py", line 149, in _capture_screenshot
    INTERNALERROR>     driver.save_screenshot(screen_path)
    INTERNALERROR> AttributeError: 'NoneType' object has no attribute 'save_screenshot'
    

    /data/longfor_oa/conftest.py 这个文件的内容发上来吧,从日志上看,直接原因是调用 save_screenshot 时,driver 对象还是没被初始化,还是最初的 None 。但具体为啥是 None ,不看你写的代码看不出来的。

  • 当领导问你:你怎么确定你测试过的的数据是对的

    我理解你说的这个,是测试出来的结果和数据使用方的数据口径是否一致的问题,类似一般功能里的 “是否满足需求” 问题?
    也想听下你的想法。

  • 信息太笼统了,至少把相关 stf 服务的日志、手机 Logcat 、你这台手机的详细信息发一下?

  • 补充一个点,如果是在你说了你的期望薪酬后问这个问题,基本就是说明你提的薪酬期望比他们预期的高了,他们想借这个问题卡你一下,好找理由把薪酬降一下。属于比较套路的问题。

  • 对于你提到的这两个问题,我曾经呆过公司里看到的情况是,大数据团队都是自测上线,靠计算结果的数据监控来发现问题和修正问题的。测试团队基本不介入这部分测试。

    所以我是基本认同飞哥的观点,不了解背后的技术或者复杂的业务,是做不好大数据测试的,至少很难让大数据研发团队信服你的结果。

    另外,谷歌了下 test oracle ,有对应中文名称,叫做 测试准则 。不过这个词的解释我看了好久也没看明白,它涵盖的范围有点大。所以也很少用。

  • 终于看完了,大数据只了解皮毛,勉强能跟上

    好奇问一个点,这里提到测试是否有达到数据一致性的方法,是注入故障。那具体怎么注入才能保障能做到文中期望的端到端上每个点的 exactly once 做到位,避免遗漏?

  • 同意一楼说法,了解他们要什么,你匹配了什么,然后直接讲就是了。

    一般能聊到薪资这一步,说明你还是匹配他们需要的。

  • 按以前对 appium 底层 dump 元素用的 uiautomator 原理看,用 locator 定位,前提是要能拿到完整的元素树。但元素持续高频变动,那元素整个树的结构就不稳定,导致很难 dump 出来(dump 基本要从根节点开始向下递归,会有一定耗时)。这个原理决定了比较难用 locator 定位。

    相对坐标这个方法还是挺不错的,如果担心由于设备屏幕大小不同导致坐标要适配,可以考虑用图像元素识别类的定位方法。

  • 写有什么是比上一年做得好的,甚至是从零突破的。

  • 乐观积极是好事,确实测试开发的技术潜力是挺大的。

    但有些点想要纠正一下:

    首先,不是学会一点技术就容易上升,是做出成绩才容易上升。任何时期,任何公司基本都一样。只是刀耕火种的时候,做出成绩会相对 “简单”。而且刀耕火种的时候,技术其实反而复杂,门槛反而高,比如没有类似 antd design 或者 element-ui 这类前端框架的时候,大家直接撸 html+css+ 原生 js,还得关注各种浏览器下的兼容性(比如万恶的 IE6),比调用模板复杂多了。能做到在这种情况下提取成框架并且经受住业务考验,一点都不简单,只是现在你都知道答案了,会觉得简单。

    另外,测试开发大概是 15 年左右开始兴起的概念,现在我理解应该不至于是混沌探索了,比如 UI 自动化和接口自动化的框架,已经基本是一个百花齐放的阶段。当然,机会还是挺多的,但不是那种简单学学技术就能上升的了,得有业务落地的能力才行。

  • 不错的文章,加个精

    建议目录加一下中篇和下篇的地址,并且说明下原文出处?

  • 邮件是怎么发的?jmeter 和 ant 应该都没有自动发邮件的能力吧。

    只要有源码,没啥是改不了的。

  • 真不是大佬,还有好多东西要学习。技术不断在变,学无止境

  • repeater 有自己的钉钉沟通群,github 项目 readme 底部有。repeater 的几个主要作者也都在里面。

  • 前两个问题,直接去业务里面轮岗测 1-2 个需求,就能找到了。好工具的共同点就是能解决实际问题。

    第三个,不知道你的 GUI 和 web 差异是啥?GUI 指的是图形化界面吧,web 也有呀。

  • 额,还没到大佬级别哈。针对你说的这几个问题,如果是我,我可能这么回答:

    12、你觉得小程序测试与 web 测试有什么区别?

    这里的小程序是微信小程序吗?如果是,个人理解大概有这些区别
    1、功能方面,一个是微信授权的对接是否正常,另一个是控件及界面在不同屏幕下的适配效果。测试环境的话需要想办法构造入口,便于测试时按需切换环境/造数据。(记得某年小红书分享小程序测试的时候有提过这个坑,不知道现在还有没有。实际工作目前也没太专项测过小程序)
    2、非功能方面,需要关注下发包大小、不同微信版本下的功能适配。小程序官方有个性能体验测评的东西,可以借助这个来大致评估下

    13、有想过 web 和移动端的前端性能测试有什么区别吗?

    web 的由于是随用随加载特性,所以性能关注的除了界面展示是否流畅(特别低端机型),还有加载时间是否尽可能短、需要加载的文件是否尽可能少和小
    移动端由于是提前下载安装包,大部分资源都已经加载好,所以性能关注的除了界面展示是否流畅,还有流量消耗是否尽可能少(现在 4G 和 5G 普及,流量多很多,这个优先级基本降低了)、cpu 及内存使用是否会过高(会引起卡顿甚至直接被 kill)、是否有内存泄漏、耗电量是否尽可能少(特别是后台时)、弱网下体验尽可能好

    16、如何解决版本迭代数据兼容性的问题?比如当前有一个排名,然后代码修改之后,怎样确定修改之后会不会出异常?

    1、设计时,尽可能采用新增字段的策略,尽量不要改动已有字段的定义或内容
    2、提测前,看代码具体改了啥,评估这个改动对于历史数据是否会有问题
    3、测试时,从线上脱敏导一些相关的历史数据到测试环境,验证下有没有问题,测试环境本来就有最佳。不行的话可以在测试后期,线上拉一个节点部署新版本服务,只对公司内网开放,然后在上面测试一些历史数据的读取,确认正常
    4、上线时,采用灰度上线策略,持续监控日志是否有异常。这样就算历史数据有问题也不至于影响太多用户

    22、你觉得怎样的模块是不合适做自动化,哪一些是适合做自动化的?

    经常变化且不持续使用的模块不适合做自动化,比如一些只会持续 1-2 个月的活动页。不经常变化且出问题影响比较大的适合做自动化,比如支付子系统。

  • 好奇问下,面试结果是?