自动化工具 Nico,从零开始干掉 Appium,移动端自动化测试框架实现(一)

hank.huang · 2024年07月08日 · 最后由 hank.huang 回复于 2024年09月25日 · 30217 次阅读
本帖已被设为精华帖!

前言

开头先让我碎碎念一波~去年差不多时间发布了一篇 UiAutomator Nico,一个基于纯 adb 命令实现的安卓自动化测试框 由于种种原因 (详见此篇帖子) 当时选择了用纯 adb 命令来实现安卓自动化,这个版本我且称为 Nico1.0 版本

但在实际使用一段时候后确实遇到了各种问题,首当其冲的就是 dump 元素慢,即使强制不等待元素页面加载完成,整体速度更是一言难尽。其次是获取元素树不够完整,除了稳定似乎已经没有别的优点了。特别是在跑多条测试用例的时候,时间成本是肉眼可见的直线上升。用 airtest 大概是 3 秒左右,而如果用 adb dump 的方式则会来到 30 秒。

这时候一个问题摆在我面前,是要选择切回到 Airtest 还是继续使用?切回原来的测试方案这肯定不是我的行事风格,既然选择了一条路走到黑,那不管怎么样都得将眼前的难题攻克。

之前读过另一位大佬的系列文章 【Day 0】关于我是如何干掉 Appium 和 RobotFramework 这件事的——开篇(非常推荐大家去看完,我相信对想要深耕自动化的同学会有很大帮助),大佬的文章给了我很帮助,在此隔空对这位大佬表示感谢!有了大佬玉珠在前,我便开始了我自己的对从零开始干掉 Appium 的攻略历程,这个版本我称它为 Nico2.0

接下来的文章将会从整体思路,Android 部分, iOS 部分开始,对技术原理,关键代码讲解等方面进行深度剖析,争取做到小白也能轻松理解。

知识预备

在介绍整个项目之前,我先介绍一下目前所有移动端自动化操作实现的基本原理(对自动化已有基本概念的同学可以跳过这段)。无论是安卓还是 iOS,当我们写脚本执行任意操作,譬如查找元素,操作元素的的时候,其实真正在工作的是系统自带的自动化测试框架 UIAutomator 和 XCUITest。它们是安卓和 iOS 提供给开发者对自己的 App 应用进行 UI 自测的一个测试套件。即开发者可以在写单元测试自测的时候,调用它们来做一些简单的 UI 界面的验证,而它们底层其实都调用了各自的 Accessibility API 。

那么什么 Accessibility API?Accessibility API 是一组用于帮助开发人员创建可以被所有用户访问和使用的应用程序的接口和工具。它最初是为帮助有视力、听力或其他障碍的用户访问和使用计算机和移动设备而设计的。当我们打开手机中的辅助功能-> 旁白之后,我们点击屏幕的任意位置,它都会出现一个白框并且发出语音告诉当前点击的是什么按钮。

为实现这个功能 Accessibility 则需要能够遍历整个用户界面,获取其所有控件及其属性 (包括坐标,id,文本等),而这正是自动化测试所需要的能力。因此安卓和 iOS 使用这个接口提供了 UIAutomator 和 XCUITest。回到 UIAutomator 和 XCUITest 本身,作为自动化测试套件对于开发者来说是非常友好的,因为它们通常伴随着开发工具一同集成在 IDE 中,编写脚本的语言也跟编写 app 的语言保持一致。但坏处是它无法脱离项目本身独立运行,同时也要求测试人员要能够掌握对应的开发语言,这明显是不现实的。

为了解决这一难题,早期的大神们便想出了一个迂回策略,借助一个中间商!也就是在移动设备上安装一个独立的应用作为服务端,通过这个应用实现调用系统自带的自动化测试套件的能力,同时持续监听指定端口的接收到的请求,然后再转而在设备上进行指定操作。

这里拿 appium 的工作流程图举例:

以下是一段摘自 Chat GTP 的解析:

各组件的功能与交互方式
Appium Server:作为 HTTP 服务器,监听客户端请求,解析命令,并与移动设备上的 Bootstrap 进程进行通信。
Bootstrap.jar:在 Android 设备上运行的 Java 守护进程,负责接收 Appium Server 的命令,转发给 UIAutomator,并返回执行结果。
UIAutomator:Android 系统自带的测试框架,用于执行实际的自动化测试命令。
ADB:Android Debug Bridge,用于在 PC 与 Android 设备之间建立连接,并允许用户发送各种命令到设备上。
客户端:编写测试脚本的开发者使用的工具或库,通过 HTTP 请求与 Appium Server 交互。

至此,我们可以知道整个移动端自动化框架大致的运行原理,之后我的 Nico 也是基于这个逻辑进行开发。

安卓方面

PC 端与移动端的通讯

基于之前的探索,我放弃了使用 adb 命令来进行 dump 的操作,还是转而使用和 appium,airtest 一样使用安卓自带的 UIAutomator2 来进行底层的元素 dump 和操作交互。

但我之前也有提到过,最初不想使用这种这套模式的根本原因就是,它存在一些弊端 (相对于我们的项目来说):
1.通讯过程比较复杂
2.在初始化 driver 时,移动端的启动监听服务的 app 会在前台闪现一次 (设备重启的时候,容易和我们自启动 app 冲突,导致应用 crash)

首先是第一点,在分析完整个 appium 的运行逻辑之后,我认为整体流程其实可以简单理解为 PC 与 Mobile 之间进行通讯。那我们需要做的就是在移动端启动一个 server,并持续监听一个指定端口例如:8080,然后我们可以借助端口转发工具 adb forward tcp 来进行端口发转,这时候 PC 端只需要向 8080 端口发送请求就能够间接的访问到移动端。这里去掉的 appium server 的处理工作,使用端口转发,将 PC 端的请求直接转发给移动端 。逻辑如下图所示:

然后是代码,这里安卓服务点端的代码,它启动了一个服务器线程,该线程在指定端口上监听客户端连接,通过解析传入的消息处理客户端请求,并支持根据特定消息内容(如 "close")关闭服务器连接,同时主线程持续监控服务器线程的运行状态。

 // 初始化服务器
init();

Thread serverThread = new Thread(() -> {
    try {
        // 获取传递给Instrumentation的参数
        Bundle arguments = InstrumentationRegistry.getArguments();
        String portString = arguments.getString("port");

        // 使用提供的端口,如果没有提供则默认为9000
        int port = portString != null ? Integer.parseInt(portString) : 9000; 
        InetAddress serverAddress = InetAddress.getByName("localhost");

        // 创建绑定到指定端口和地址的ServerSocket
        serverSocket = new ServerSocket(port, 0, serverAddress);
        Log.i(TAG, "服务器正在监听: " + serverAddress.getHostAddress() + ":" + portString);

        while (true) {
            Log.i(TAG, "开始接收请求: ");

            // 接受一个传入的连接
            Socket socket = serverSocket.accept();
            String msg;
            OutputStream outputStream;
            Map<String, Object> result;

            // 格式化传入的socket消息
            result = format_socket_msg(socket);
            msg = (String) result.get("msg");
            outputStream = (OutputStream) result.get("outputStream");

            // 确保消息和输出流不为空
            assert msg != null;
            assert outputStream != null;

            // 检查消息是否包含"close"以关闭连接
            if (msg.contains("close")) {
                socket.close(); // 关闭客户端socket
                serverSocket.close(); // 关闭服务器socket
                return;
            }

            // 处理客户端请求
            handleClientRequest(socket, msg, outputStream);
        }
    } catch (IOException e) {
        e.printStackTrace();
    }
});

// 启动服务器线程
serverThread.start();

// 主线程循环检查服务器线程是否仍在运行
while (serverThread.isAlive()) { 
    try {
        // 每秒检查一次
        Thread.sleep(1000); 
    } catch (InterruptedException e) {
        e.printStackTrace();
    }
}

然后是 PC 端代码,因为整体框架是 python 写的,所以这里也是由 python 实现,简单来说就是向指定端口发送 socket 的请求:

def send_tcp_request(port: int, message: str):
    # logger.debug(f"send_tcp_request: {port} {message}")
    try:
        client_socket = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
        client_socket.connect(("localhost", port))
        client_socket.sendall(message.encode())
        client_socket.sendall('\n'.encode())

        # 接收服务器响应
        chunks = []
        while True:
            chunk = client_socket.recv(1024)  # 一次最多接收 1024 字节数据
            if not chunk:
                break
            chunks.append(chunk)
        client_socket.close()
        response = b''.join(chunks)
        if "get_jpg_pic" in message or message == "stop_recording" or "get_png_pic" in message:
            return response
        else:
            response = response.decode()
            return response

    except ConnectionRefusedError as b:
        logger.error(f"{str(b)} by {port}")
        return f"{str(b)} by {port}"
    except ConnectionResetError as b:
        logger.error(f"{str(b)} by {port}")
        return f"{str(b)} by {port}"

端口转发只需要执行adb forward tcp:xxxx tcp:xxxx,这样就完成了一个完成的通讯过程。

接下来我们来说第二点问题。现有的大多数例如 Appium、Airtest 对服务端的实现基本都是依托一个常规的 apk 包,在启动测试的时候调用adb shell am start -n com.example.package/.MainActivity,这导致在启动 driver 的时候不可避免的会有一个启动页面然后才迅速进入后台的动作,那么如何做到无感知地启动我们的测试 driver 呢?经过一番调研,我发现可以利用安卓测试包的特性来完成。

安卓的测试包(Test APK)是用于移动应用程序测试的安装包文件,其全称是 Android Package Kit for Testing,简称 APK for Testing。APK 是 Android 操作系统上的应用程序安装包格式,而测试包则是在开发过程中用于进行各种测试(如功能测试、性能测试、兼容性测试等)的特定 APK 文件。

那么设计思路就是,我写一个什么内容都没有的空包.apk,然后再为其写一个测试包,将所有调用 uiautomator 的逻辑以及服务监听的逻辑都放在里面。

接着使用adb shell am instrument -r -w -e port 指定端口 -e 空壳包包名 空壳测试包包名来启动监听服务,当我看到如下的图的输出时,表示 server 启动成功

然后,让我发起 sokect 请求来查看是否能够成功读取数据到 dump 数据,这里可以看到,sockect 发送成功,并且成功获取到了返回值。

到此为止,就算是实现了整个通讯过程。

服务端的初始化和保活

与 Appium 不同的是,Appium 通过会话来管理和与特定的设备交互,每次启动一个新的测试时,Appium 会创建一个新的会话,并返回一个会话 ID。所有后续的命令都通过这个会话 ID 与 Appium 服务器通信,以确保命令被发送到正确的设备和应用。

而 Nico 不存在额外的客户端,因此管理与特定设备的交互都是通过指定端口号来实现的。且在 Appium 在初始化的过程中,没有直接提供获取当前设备已启动的会话 id 的动作。这就意味着,如下图我们在不同的测试脚本中分别初始化 driver,会启动两个不同的会话,移动端的 server 也会被启动两次。

当然我们也可以编写额外的逻辑来实现实例的共享,避免不断产生新的会话。例如 pytest,我们通常会在 setup 或者 conftest 中先初始化当前设备的实例,然后在不同的测试脚本中去调用

但在 Nico 中,我希望对 driver 的管理直接在底层处理掉,简化整个框架的使用。因此我的初始化逻辑如下图

然后我们执行用例看看,第一次完全初始化运行:
从启动服务,到执行查找总共花了 3s 接近 4s

第二次运行:
由于不需要再次启动,只花了 265ms

这样不仅能够极大的减少初始化的时间,同时用户几乎不需要考虑实例共享的问题。每次直接实例化全新的类,剩下的交由代码底层去判断。

再一个是保活的机制,在我的印象里,appium 是没有做保活机制的。即如果中途 UIAutomator Server crash 或者 appium 服务 crash,整个会话则会中断,且不会自动恢复。需要自己重启启动一个新的会话。

然后 Airtest 则是独立开了一个线程来持续观察移动端服务存活情况,随时掉线随时重启。

这样做的好处就是可以保证移动端 UIAutomator Server 的健壮性,但坏处就是如果 UIAutomator Server 重启的时间点刚好与当前 app 的某些操作重叠。比如 app 刚好也需要打开某个 Activity,或者处于 Activity 切换的过程中,UIAutomator Server 也正好在进行重启,就会发生两个 app 互相抢占前台,或者另一方启动失败。

我为了避免这种情况,因此也没有做相关的保活措施。如同前文所说,我会在每次调用请求接口之前,先发送一个简单的状态查询。如果状态查询失败,再重启 UIAutomator Server,且因为我的 UIAutomator Server 是全程后台执行,整个重启过程也不会让前台 app 有任何感知。

元素查找与操作

查找方面,我借鉴了 Airtest 的语法规则,添加了两种查找逻辑
1.nico(text="蓝牙").wait_for_appearance(timeout), 在指定超时时间内不断重试,超时则报错,提示无法在指定时间内以指定查询条件找到该元素
2.nico(text="蓝牙”).exit(),在指定超时时间内不断重试,超时只返回 rue, False 表示元素存在的状态,不会报错

其他的一些都是基于这两类进行的延申,详情可查看 github 里的 Readme,这里就不赘述。值得一提的是,除了基本的父子节点的获取之外,我还添加了兄弟节点的直接获取,例如nico(text="蓝牙").last_siblingnico(text="蓝牙").next_sibling

然后对于元素查找的底层逻辑,我没有选择使用调用安卓 uiautomtor 自带的 API,而是直接将当前整个元素页面 dump 下来获得一个 xml 结构的树。然后使用 lxml 库将其初始化为为一个lxml.tree的对象,利用lxml.tree对象自带的查方式进行元素查找。 这里的root参数即为我们 dump 下来的元素树对象,query是一个查询条件的键值对,例如:{text:"蓝牙"}

###底层查
 def __find_element_by_query_by_xml(root, query) -> Union[list, None]:
            xpath_expression = ".//*"
            conditions = []
            is_re = False
            for attribute, value in query.items():
                if attribute == "compressed":
                    pass
                elif attribute == "xpath":
                    xpath_expression = convert_xpath(value)
                    matching_elements = root.xpath(xpath_expression)
                else:
                    if attribute.find("_matches") > 0:
                        is_re = True
                        attribute = attribute.replace("_matches", "")
                        condition = f"re:match(@{attribute},'{value}')"
                    elif attribute.find("_contains") > 0:
                        attribute = attribute.replace("_contains", "")
                        condition = f"contains(@{attribute},'{value}')"
                    else:
                        condition = f"@{attribute}='{value}'"
                    conditions.append(condition)
                    if conditions:
                        xpath_expression += "[" + " and ".join(conditions) + "]"
                    if is_re:
                        ns = {"re": "http://exslt.org/regular-expressions"}
                        matching_elements = root.xpath(xpath_expression, namespaces=ns)
                    else:
                        matching_elements = root.xpath(xpath_expression)
            if len(matching_elements) == 0:
                return None
            else:
                return matching_elements

这意味着移动端只负责 dump 元素,所有查询逻辑全部放到 pc 端来处理。那么这样做的有什么好处呢?听我娓娓道来。

首先,也是最重要的一点,这个 dump 元素的速并不算慢,而且dumpWindowHierarchy 这个方法还有一个参数是 compressed,用于控制是否需压缩元素。代价是失去一些不重要的元素节点,但却能够进一步提升元素 dump 的速度 (如果有特殊需要,也可以将参数设为 false 以获取更完整的元素树)。

private void handleDumpRequest(OutputStream outputStream,boolean compressed) throws IOException {
        File response = dumpWindowHierarchy(compressed, "ui_tree.xml");
        try (FileInputStream fis = new FileInputStream(response)) {
            byte[] buffer = new byte[1024];
            int length;
            while ((length = fis.read(buffer)) != -1) {
                outputStream.write(buffer, 0, length);
            }
            outputStream.flush(); // 确保所有的数据都被写入到OutputStream
        } catch (IOException e) {
            e.printStackTrace();
        }
    }

在 dump 不算慢的基础上,我们能够获取整个元素结构和其所有属性,这样非常便于我们去获取当前元素的兄弟节点,父子节点。要知道,有时候当一个元素不存在唯一标识符的时候,相对位置的元素查找方式是一个非常好用的(这里吐槽一下,airtest 中没有直接通过当前元素节点获取上下节点的方法,提了 PR , 过了快两年了也没人审核通过)。同时,一次 dump 即可获取左右兄弟或者父子各种节点,无需发送多次请求。

然后为了进一步减少请求次数,我设计了缓存机制,每一次 dump 元素都将当前的元素树写入临时环境变量进行缓存。
并且通过一个全局的 tag 来记录当前 UI 页面是否变化。在执行 UI 查找动作前先获取当前 tag 的状态,为True则进行新一轮的 dump,反之,则直接使用缓存的元素数据。

def _get_root_node(self, configuration: dict):
    """
    get the root node of the element tree
    @param configuration: The configuration of the platform
    @param udid: The device ID
    @param port: The port number of automation server
    @param force_reload: Whether to force reload the element tree, default is False
    @return: The root node of the element tree
    """
    ui_change_status = RunningCache(self.udid).get_ui_change_status()
    # logger.debug(f"ui tree change is {ui_change_status}")

    if not ui_change_status:
        # logger.debug(f"{self.udid}'s UI no change. There is no need to dump again!!")
        return RunningCache(self.udid).get_current_cache_ui_tree()
    else:
        # logger.debug(f"{self.udid}'s UI is change. dump again!!")
        return self._dump_ui_xml(configuration)

这样在进行一个静态页面的多元素检查时,可以减少请求次数,提升测试速度。例如以下场景需要同时检查多个文本是否存在,实际上只需要在发起一次 dump 请求,后续的几次查找都是基于之前的缓存内容。

如果此时执行了一些动作,例如元素点击,滑动等,都会在执行之后主动清除缓存元素树。

def click(self, x=None, y=None, x_offset=None, y_offset=None):
     if x is None and y is None:
         x = self.center_coordinate()[0]
         y = self.center_coordinate()[1]
     if x_offset is not None:
         x = x + x_offset
     if y_offset is not None:
         y = y + y_offset
     command = f'adb -s {self.udid} shell input tap {x} {y}'
     os.system(command)
     RunningCache(self.udid).clear_current_cache_ui_tree()
     logger.debug(f"click {x} {y}")

同时,在移动端,我额外添加了一个监听者线程,用于检查页面 UI 是否发生变动,这样针对一些动态场景一样能保证及时的刷新

private final UiAutomation.AccessibilityEventFilter checkWindowUpdate = event -> {
    if (event.getEventType() == AccessibilityEvent.TYPE_WINDOW_CONTENT_CHANGED) {
        lastWindowChangeEvent = event;
        return true;
    }
    return false;
};

private final AtomicBoolean uiChanged = new AtomicBoolean(false);

private void startWatchingUiChanges() {
    Thread watcherThread = new Thread(() -> {
        while (true) {
            try {
                InstrumentationRegistry.getInstrumentation().getUiAutomation().executeAndWaitForEvent(
                        () -> {},
                        checkWindowUpdate,
                        5000
                );
                uiChanged.set(true);
            } catch (TimeoutException e) {
                continue;
            }
        }
    });
    watcherThread.start();
}

对于元素的操作,我还是选择在获取到元素之后,通过该元素的坐标直接调用 adb shell 命令来直接进行 click 等

def click(self, x=None, y=None, x_offset=None, y_offset=None):
    if x is None and y is None:
        x = self.center_coordinate()[0]
        y = self.center_coordinate()[1]
    if x_offset is not None:
        x = x + x_offset
    if y_offset is not None:
        y = y + y_offset
    command = f'adb -s {self.udid} shell input tap {x} {y}'
    os.system(command)
    RunningCache(self.udid).clear_current_cache_ui_tree()
    logger.debug(f"click {x} {y}")

为啥不调 uiautomator 的 api 呢,一个原因是我想减少与 uiautomator 服务的请求次数,第二就是我偷懒了:)想少写点安卓的代码。。。再加上目前 adb 命令基本可以覆盖大部分场景了,如果有额外的需求再往 apk 里加吧,毕竟底层也是自己写的。

结束语

以上就是 Nico 安卓部分全部内容了,由于篇幅有点长了。。剩下的内容我将分成另外的篇幅进行撰写。接下来我会带来 iOS 部分以及一个额外的 inspector(检索 iOS 和安卓页面元素的工具)的分享,同样会包括技术原理和关键代码讲解。

如果以上内容对你有帮助还希望给我的 github 项目点上一个小小的 star!非常感谢。当然我讲的内容如果存在错误的地方,欢迎前来捉虫。

以下是各种 git 地址,欢迎大家进行 code review。本人资历尚浅,有写的不好的地方,还望大家不吝赐教:)

Nico: https://github.com/letmeNo1/Nico
安卓服务端代码:https://github.com/letmeNo1/AndroidHierarchyDumper
iOS 服务端代码: https://github.com/letmeNo1/IOSHierarchyDumper

最佳回复

自动化工具 Nico,从零开始干掉 Appium,移动端自动化测试框架实现(二)https://testerhome.com/topics/40215
自动化工具 Nico,从零开始干掉 Appium,移动端自动化测试框架实现(三)https://testerhome.com/topics/40232

slink 回复

我之前写过图像识别的定位方式,包括我现在的 Nico 里其实也有。我个人认为还是只能作为额外的辅助手段,为什么没大面积运用到移动端,根据我以往的工作经验来看一个主要原因还是因为手机分辨率不一致,导致图像 UI 的差别还蛮多的。再加上如果 UI 稍微一变其实定位就不准确,这样一来截图就没有通用性。在大量的脚本编写工作中,通常还需要考虑脚本复用型,如果写一个场景就截一遍图其实还蛮累的。

第二点是与游戏场景不同的是,应用类 app 内大多是文字,对于 openCV 使用特征值 (SIFT,ORB) 的图像识别算法来说,文字的准确率不是特别高,近似的字容易点歪。 举个例子,两个按钮, “同意”,“不同意”。你截个 “同意” 的截图,特征值容易给你识别到 “不同意” 去。想要精准也不是不行,就得各种调整算法参数的阈值。

还有在应用类的 app 测试用,你可能不仅得考虑执行,还得考虑检查,比如检查一个页面的上的出现的文本是否符合预期,对于控件查找,我们可是使用非文本类的比如 id,找到元素之后再获取其文本来进行校验。综合来说,图像点击更适用于游戏场景,控件更合适应用类 app。当然善用二者结合我认为才是最优解。

以上是我个人拙见😁

共收到 34 条回复 时间 点赞
hank.huang 现在技术型文章变少了 中提及了此贴 07月09日 09:42

大佬厉害,期待后面的分享

恒温 将本帖设为了精华贴 07月09日 11:39

很不错。

大赞👍

点赞收藏,虽然现在也用不着移动端测试了我们没有 app😁

最近一直在用 uiautomator2(https://github.com/openatx/uiautomator2), 提几个不一样的地方

  1. exists 有超时, nico 没有看到
  2. openatx 的有 swipe, nico 没看到
  3. openatx 的有部分双指操作, nico 文档没见到

最后, 目前有一些多指操作, openatx 也没有, 我用 minitouch 实现的, 这部分似乎可以考虑一下

camper 回复

首先非常感谢你的建议!这歌框架一直都是我们内部使用,非常需要额外的建议。
1、这个当时设计的时候就是考虑直接判断,不等超时,不过我觉得你说的有道理,我把超时时间加上了
2、最开始只设计了 scroll 这个方法,就是传方向上下左右滑动,现在我添加了 swipe 和 drag
3、双指和多指的操作我暂时没实现,这个我有空研究一下。

既然只有测试 Android 应用的需求,为什么不直接使用 google 原生的 uiautomator,这样会更快也更自由。

yinkh 回复

底层是调用的安卓原生的 uiautomator 呀,然后后面我们也加入了 iOS 的需求,所以就得继续做

我现在还是在用 uiautomator2 +weditor 是不是过时了。。。求科普,小白自学

Anson 回复

过时倒不会啦,选最适合项目的,用起来最简单方便的就是正确的

自动化工具 Nico,从零开始干掉 Appium,移动端自动化测试框架实现(二)https://testerhome.com/topics/40215
自动化工具 Nico,从零开始干掉 Appium,移动端自动化测试框架实现(三)https://testerhome.com/topics/40232

请问 nico 对比市面上常用的 appium 的优势在哪?当时是为啥会放弃使用 uiautomator appium 这些选择自己写的呢?

hank.huang 回复

哈哈,感谢感谢,向大佬学习

zZzwen 回复

一个最重要的原因是 uiautomator(或者 wda) 的驱动在初始化的时候会前台弹一次,跟我们的测试场景有冲突,我们的需求是需要测试套件全程后台执行。其次就是部署的便利性,appium 有点臃肿。

属于重复造轮子吧

adb 也是需要通信,需要请求, uiautomator 同理,没有什么不一样。

黑名单 回复

造更好的用更适配自己项目的轮子,我觉得没啥问题,同时让自己能够更深入了解底层原理

叶帅 回复

如果所有功能都能用 adb 做,就不需要写那么额外的东西,我想我之前的文章里应该解释过为什么了

你好,我在 github 页面看到初始化 NicoServer 需要用到下面的命令:
from from auto_nico.nico.nico import AdbAutoNico

nico = AdbAutoNico(udid)
没有找到这个初始化的方法,是更新过了么?谢谢

San7 回复

from auto_nico.android.nico_android import NicoAndroid

nico = NicoAndroid(udid) 抱歉,确实更新了,我这边同步更新了 readme!

同为 android 自动化重新包装的项目,单论速度,我感觉 99% 的都打不过方舟辅助 MAA、碧蓝辅助 Alas🤣,运行起来又准又快,可惜现在不做移动端了,至今没去扒为什么这么快

slink 回复

底层是依靠图像识别,游戏界面大多靠实时渲染生成,没有控件可查,对游戏测试还是挺好用的。移动端的话,还是得靠截图或者视频传输到 PC 上,直接放手机里太吃资源,限制太多

hank.huang 回复

我就是想说 cv 识别的贼拉快,碧蓝的点击我肌肉记忆都跟不上的程度,他们也是传输到 pc 上的

slink 回复

我之前写过图像识别的定位方式,包括我现在的 Nico 里其实也有。我个人认为还是只能作为额外的辅助手段,为什么没大面积运用到移动端,根据我以往的工作经验来看一个主要原因还是因为手机分辨率不一致,导致图像 UI 的差别还蛮多的。再加上如果 UI 稍微一变其实定位就不准确,这样一来截图就没有通用性。在大量的脚本编写工作中,通常还需要考虑脚本复用型,如果写一个场景就截一遍图其实还蛮累的。

第二点是与游戏场景不同的是,应用类 app 内大多是文字,对于 openCV 使用特征值 (SIFT,ORB) 的图像识别算法来说,文字的准确率不是特别高,近似的字容易点歪。 举个例子,两个按钮, “同意”,“不同意”。你截个 “同意” 的截图,特征值容易给你识别到 “不同意” 去。想要精准也不是不行,就得各种调整算法参数的阈值。

还有在应用类的 app 测试用,你可能不仅得考虑执行,还得考虑检查,比如检查一个页面的上的出现的文本是否符合预期,对于控件查找,我们可是使用非文本类的比如 id,找到元素之后再获取其文本来进行校验。综合来说,图像点击更适用于游戏场景,控件更合适应用类 app。当然善用二者结合我认为才是最优解。

以上是我个人拙见😁

个人觉得自动化维护成本真的不低

请问,如果一个 app 没有放开 debug 模式,你们是怎么操作 WebView 界面的

如果 adb 都没开的话搞不了

xiscoxu 回复

前辈的代码我也看过,非常感谢前辈珠玉在前的引导,我这篇的目的更多是想分享自己整个设计思路和过程。要说底层技术,也绕不开安卓 uiautomaor2 不是吗😁

需要 登录 后方可回复, 如果你还没有账号请点击这里 注册