作者简介:
代丽,来自货拉拉/技术中心/质量保障部,测试专家
当一个数据平台的工具量突破 3000+、日均调用超 50 万次,是该庆祝规模化的胜利,还是警惕效率的陷阱?
货拉拉数据工厂就曾站在这样的十字路口——依托高效的"协议编程"架构,我们实现了工具的爆发式增长,却也迎来了用户最真实的抱怨:"工具太多选不出""串流程要记半天""新手上手太费劲"。
于是,一场从"平台化"到"AI 智能化"的跃迁就此启动。今天,我们就聊聊这场转型背后的痛点、方案与收获。
在聊转型前,必须先说说支撑我们走到今天的核心底气——"协议编程"架构,简单来说就是:
工具开发者只需写 Java 工具类(遵循统一规范),平台通过自研解析引擎自动提取功能描述、输入输出参数等元信息,前端再自动生成可视化界面。
这个模式的威力有多强?开发者不用管前端交互、权限控制这些"杂事",专注业务逻辑就行,工具开发成本直接降低 60% 以上。

靠着这套打法,数据工厂迅速成为内部造数的核心基础设施:工具总量突破 3k+,日均调用超 50 万次。但规模上去了,新问题也找上门了,集中在两个核心痛点:
为了鼓励提效,我们采用"全局核心工具 + 业务线自定义工具"的运营策略,这就导致很多功能相似的工具并存。比如"账号信息查询"这个简单场景,平台上就有 3 个主流版本:
账号中台:通用版(支持全账户类型)
司机业务线:专属版(仅支持司机账户)
用户业务线:专属版(仅支持用户账户)
实际使用中,70% 的用户会优先选本业务线工具,导致通用工具复用率不足 30%;更糟的是,新用户得花 3 分钟对比测试才能找到合适的工具,提升了使用门槛。
我们的工具大多是"原子化"的,一个工具只干一件事。但真实业务场景往往需要多工具串联,比如"下单并给指定司机流转至完单"这个高频操作,用户得手动走三步:
用"获取司机信息"工具查车型
用"下单"工具完成创建
用"订单流转"工具更新状态
整个流程平均要 5 分钟,中间还要手动记结果、切工具,不仅麻烦,还容易出错。
针对这些痛点,我们明确了 AI 升级的核心方向:打造一个能理解自然语言、自主调度工具的智能体(Agent),彻底改变用户与数据工厂的交互方式。
具体来说,就是要实现三个核心能力,让用户从"工具操作者"变成"需求提出者":
精准懂需求:不用记工具名,用日常话描述需求就行(比如"查一下司机张三的账号信息并履约完单")
智能配工具:系统自动选最优工具,多步骤场景自动串联,不用手动组合
自动跑流程:参数传递、工具调用、结果整合全自动化,直接给最终结果
我们的愿景很直接: "所想即所得,所造皆能成" 。初期目标更是明确:造数效率提升 50% 以上,新用户上手时间缩短到 1 分钟内。
智能体的核心技术选型,我们围绕业务特性做了多轮评估。常见的与 LLM 结合方案有三种:RAG(检索增强生成)、MCP(执行引擎)和 Fine-tuning(模型微调)。
从理论上看,Fine-tuning 似乎是最优解——数据工厂覆盖货运、小拉出行、国际化等全业务线,沉淀了大量特有领域知识,微调能让模型深度融合这些知识,减少上下文输入量,提升稳定性。
但早期简易尝试后,我们发现了实际障碍:微调需要大量标注数据,且对算法团队的技术能力要求极高,同时持续迭代的成本也难以承受。综合落地难度与效果反馈,我们最终确定了 “LLM+RAG+MCP” 的协同路径,兼顾效果、成本与落地效率。
我们将智能体拆解为 “大脑(LLM)- 知识库(RAG)- 手脚(MCP)” 三个核心模块,分别负责 “理解决策”“知识储备”“执行落地”,形成完整工作流。

LLM 是智能体的核心决策层,使用到 LLM 的共有 6 处,出于成本与调优效果做了如下组合与配置(精选 3 个展示):

LLM 具备强大的通用能力,但对我们内部 3000 + 工具的具体信息 “一无所知”。若直接输入全量工具信息,会导致上下文过载。因此,我们通过 RAG 技术构建 “精准检索 - 高效赋能” 的知识库体系,助力智能体精准 “认知” 所需工具。
实践中,我们选用 bge_base_zh_1.5 作为 Embedding 模型,以适配中文语义理解场景;同时,为提升检索的精度与全面性,搭建了双层知识库筛选策略,并将其与固定原子工具列表组合,最终形成 toolList 给到 LLM 使用。

全量工具详情知识库:数据直接同步平台工具数据库,细分为 “线上”“线下” 两个子库——线上库对应生产环境工具,线下库对应测试环境工具,避免智能体误调用测试工具影响线上业务,保障执行安全性。
具体配置与分段信息如下:

自然语言与工具映射知识库:人工维护多语义映射关系,解决 “用户表述≠工具描述” 的匹配难题。比如 “下单”“开单”“创建订单” 等不同说法,均映射到同一工具,大幅提升模糊需求的匹配准确率。
具体配置与分段信息如下:

工具组合方案确定后,就需要 MCP(执行引擎)负责 “落地执行”,核心解决 “按序执行、参数传递、失败处理、结果解析” 四大问题,让智能体 “会用” 工具。
此处 tool 仅有一个,功能是单个工具运行,其执行逻辑依赖于 prompt,prompt 大纲设计:
核心任务定位:按工具序列依次执行,保障前序结果向后续传递,失败自动重试;提取执行结果并匹配用户诉求,用自然语言呈现。
核心执行规则: - 顺序执行:严格遵循工具列表顺序,前序工具执行成功是后序执行的前提; - 参数关联:动态参数从历史执行结果中自动提取,固定参数保持预设值不变; - 失败处理:执行失败触发重试机制(默认 3 次),重试失败则终止流程并记录失败状态与原因。
结果解析规范:根据执行状态码(如 ret 值)判断成败;成功则筛选核心信息分点呈现,失败则明确标注状态码、失败环节及可能原因,便于用户排查。
今年 8 月 AI 智能体正式上线,作为内部工具的智能化升级尝试,经过一段时间的推广与迭代,在核心效率指标与用户口碑方面已取得显著成效,验证了升级方向的可行性。

上线至今,智能体的用户接纳度逐步提升,核心效率指标达到预期目标:
尽管当前使用规模仍在拓展,但智能体精准解决了用户的核心痛点,获得了实际使用者的广泛认可,积累了不少正面反馈:
此次阶段性成果的核心价值,不仅在于效率数据的提升,更在于验证了 “AI+ 数据工厂” 模式的可行性:一方面,通过智能化手段解决了平台规模化后的核心痛点,为后续推广积累了真实使用案例;另一方面,基于用户反馈沉淀了模型调优、交互设计的经验,为进一步提升调用频次、扩大使用范围奠定了基础。
AI 智能体的初步落地验证了方向的可行性,但在实际应用中,我们也发现了需要持续优化的核心痛点。基于当前反馈,后续将聚焦问题解决与能力升级,稳步推进智能化深化。
结合用户使用数据与反馈收集,目前主要存在两类待解决的问题,也是后续优化的方向:
针对上述痛点,我们制定了明确的分阶段优化计划,兼顾短期问题解决与长期能力提升:
前置化引导,降低表述歧义
为解决表述差异问题,后续将从 “后置知识库补充” 转向 “前置输入引导”。计划在交互界面增加场景化引导模块:基于历史调用数据梳理高频业务场景(如订单创建、账号查询、状态流转等),为每个场景配置标准化话术模板与关键词提示。用户输入时,系统可根据初步语义识别推荐对应场景模板,用户仅需补充关键参数即可完成需求提交,从源头降低歧义表述概率。
职责拆分 + 场景固化,从架构层面降低幻觉概率
针对上下文过载引发的幻觉问题,采用 “现有平台交互改造 + 智能体职责拆分” 双轮驱动策略,具体如下:
现有平台交互改造:将现有平台执行底层升级为智能体执行模式,前端除了结果展示采用智能体输出效果,其他不变。该方式既能适配用户现有使用习惯,又能规避 LLM 动态组装工具带来的幻觉风险。
智能体职责拆分:当前智能体核心决策依赖 “工具组装” 单一 LLM,导致其同时承载业务知识存储、工具匹配判断、执行序列生成等多重职责。后续将核心职责拆分为 “业务知识解析”“工具匹配筛选”“执行序列生成” 三个独立模块,通过 “轻量化 LLM + 专用 RAG 知识库” 协同实现(如专用 RAG 承载业务知识、独立 LLM 负责工具匹配)。此举可显著降低单个模型的上下文负载,从架构层面减少幻觉发生概率。
在智能体落地过程中,我们深刻体会到:LLM 的强大之处在于其泛化能力,但相较于传统工程代码的强可控性,它更像一个 “需要持续调教的伙伴”。AI 赋能并非一蹴而就,而是循序渐进的迭代过程——既要接受初期的不完美,通过实际场景反馈持续调优;也要保持对新技术的敏感度,及时将成熟的技术方案融入现有体系。