和我司一毛一样,测试老大只是协调资源的,人还是跟着项目来,也难受
可能微信那个例子不太恰当,误导了…真实的场景还是,需要两个手机这样去交互的
感谢回复,我有个疑惑就是,这种涉及两边交互的,A 和 B 都不知道自己发出去的动作有没有被收到并执行,这种咋弄呢
感觉这种类似的应用自动化测不太好做呐,每次要是人工去一道道题目去看感觉效率又很低
有没有老哥来扫下盲
想自己也试下,老哥的虚拟机网络设置是桥接吗?
总是感觉中台很虚的样子,边界划分也很不明晰
Mark 一下 Mark 一下
分许线上数据类型情况,这个是测试的分析还是团队有了明确的定义标准呢?
另外,不知道各位在测试这种标签的时候,有做过回访用户确认下标签是否正确吗?
这其实就回到我上边说的,这个标签并没有上线。已有的这些用户数据,又不能确定数据是否是可信的。只能限定一些条件,人为创造一些满足 “条件” 的用户,看标签预测是否是正确的
我试试看这个方法。目前遇到的困境就是开发不太愿意说明具体的逻辑。或者说实际上报的数据来源,大数据这边的开发也不是很清楚,就造成了这种需要测试去尽可能覆盖多的用户行为。
刚接触,并没有什么好的方法
这就是这个测试矛盾的地方,没上线前确实没用户,但是这个标签是否具有可信度,还是得测,测了才会真正拿到线上用
可以这么理解,现在其实也是这么验证的。问题就是自己造或者模拟用户,这样的数据都太少了,而且很耗费时间
嗯,算法本身对我这儿是黑盒的。其实我是想问,用来作为标准的用户数据需要怎么高效收集或者模拟,无奈项目组就是要把标签的效果量化出来,胳膊拧不过大腿啊
用户的数据是基于端级的数据埋点上报,模拟用户只能在机器上点点点,这个着实是效率很低