目前来书,我接触到的 vr,都是基于安卓系统。通过物理光学设备和陀螺仪定位器等进行交互。

但是内部属于一个立体空间,比如可能之后的【微信元宇宙会议】这种应用估计也会出来,这种自动化要怎么跑呢?接口自动话还好,ui 要怎么玩?

当然可以用 adb 和 appium,airtest 进行驱动,但是立体空间上的 ui 层测试,比如向前移动,伸手点击 xx 按钮这种操作。会不会再次出现封装工具?

vr 本身的性能和光学识别 不在我们的测试范围内,本身技术也比较成熟了,也都是第三方的技术,我们找到 Bug 估计开发同事也改不了。就好像游戏公司用

虚幻四引擎写游戏一样,游戏 Bug 可以改,虚幻四的问题就只能绕过了。

那我们要考虑的是未来的元宇宙系统 Ui 测试平台要怎么去封装这些操作,人物向前,抬手,抬头,触摸,ui 展示等等,感觉更类似于游戏测试,但立体 vr 则更
自由和开阔,测试难度也更高。所以问问大家有什么好建议。

还有,测试平台在未来元宇宙 vr 大火后,是否会出现集中型的 元宇宙测试平台?一个公司一个元宇宙,进去后自己忙自己的?


↙↙↙阅读原文可查看相关链接,并与作者交流