自动化工具 openclaw 帮我做 cicd,性能自动化,接口自动化

dengdagui · 2026年03月23日 · 最后由 dengdagui 回复于 2026年03月24日 · 4259 次阅读
一、背景

忙里偷跑闲,花 2 天时间安装了 openclaw,试着帮我做做测试的工作,免费的 24 小时员工:

目标:

  • cicd
  • 性能自动化
  • 接口自动化
二、openclaw 安装比较简单:

docker(openclaw-cli+openclaw-gateway)+ ollama + 飞书 (略)



用 docker 的好处是移植方便只搭好一次,到那都可用,太香了

三、确定是否安装完毕
1. 控制 UI

1.1 控制 UI

1.2 加载技能

2. 运行 cicd

2.1 飞书输入提示试

2.2 gateway 日志

2.3 确认 cicd 已运行

2.4 确认运行 sonarqub

2.5 确认运行性能测试

2.6 监控平台

3. 运行接口测试

四、openclaw 问题思考

4.1 现在依赖于以前的接口平台、性能平台,cicd,监控平台都以搭建好后,就可以 24 小时直接调用

4.2 测试人员只须专注入编写技能与工具即可

4.3 openclaw 也可以根据需求生成用例,有现有技能还没有测试,应该可以与 dify 平台要进行一下对比

4.4 可以用免费的 ollama 对于直接调用任务是可以的,有钱可以买大模型的 tokens

4.5 ai 变化太快,不同的大模型及 agent 出来,测试压力很大

@294332968@qq.com 目前找工作中,北京有测试机会记得 callme

共收到 8 条回复 时间 点赞

gitlab webhook 监听就可以完成以上的流水线了,emm。不太理解这能解决什么。。

飞书聊天 24 小时可执行测试的工作,如 cicd、性能测试,接口测试,ui 测试。。。。
抛砖引入。。。。

openclaw 就是用来做什么呢,24 小时数字员工

看起来是可以通过飞书让它执行任务,相较于飞书机器人不用写脚本

好奇这一套下来 token 消耗咋样,花了多少钱

不用花 token 的钱,可搭 ollama 等开源的模型,如 me:
已测试了以下模型:建议最好量化的
已下载的模型列表:
NAME ID SIZE MODIFIED
deepseek-r1:7b 755ced02ce7b 4.7 GB 8 hours ago
qwen2.5:7b-instruct-q5_k_m a1040ddd2b49 5.4 GB 4 days ago
qwen2.5:3b-instruct-q5_K_M 19cf317bd479 2.2 GB 5 days ago
llama3.2:3b-instruct-q4_K_M a80c4f17acd5 2.0 GB 6 days ago
qwen2.5:3b-instruct-q4_K_S 3033a0ab2cfd 1.8 GB 7 days ago

dengdagui 回复

Ollama 本地部署的这几个模型效率怎么样,会不会响应很慢?应该对硬件配置也有一定要求吧

qwen2.5:3b-instruct-q5_K_M 19cf317bd479 2.2 GB 5 days ago
llama3.2:3b-instruct-q4_K_M a80c4f17acd5 2.0 GB 6 days ago
qwen2.5:3b-instruct-q4_K_S 3033a0ab2cfd 1.8 GB 7 days ago

qwen2.5:3b 不装 nvidia 给它 6G 内存 大概 7~8 秒,cpu 是 12th Gen Intel(R) Core(TM) i7-12700
qwen2.5:7b 如果做任务则全是超时,
以上装上 GPU 时间为 1~2 秒

建议装 nvidia 驱动一定,这家伙特别快

需要 登录 后方可回复, 如果你还没有账号请点击这里 注册