Hi !RTE 开发者社区的新老朋友们大家好,恰逢 TEN Framework 开源一周年之际,TEN 带着超厉害的 0.1.0 版 来了!

TEN Framework 本次带来了多项功能更新开发者体验提升,相信 TEN 将成为开发者构建下一代 Voice Agent 的开发利器!

本次更新增加了简化的 **main 概念,让开发者在不修改框架底层代码的情况下,能轻松注入和定制自己的业务逻辑,大大提升了灵活性。此外,新增了对 Node.js 的原生支持 **,开发更加轻松。

实时转录、AI 实时翻译、情感陪伴、语音助手、心理疗愈、营销 SIP、语音玩具等等各类热门的 Voice Agent 场景,都能通过 TEN Framework 轻松搭建。

Github:https://github.com/TEN-framework/ten-framework

Demo:https://agent.theten.ai

以防大家不知道 TEN Framework 超厉害的!

TEN Framework 是一个主流对话式 AI 开源框架,由声网与社区共同支持。基于 TEN Framework,你可以搭建任何 可用于生产环境的对话式 Voice Agent

不少开发者已基于 TEN 上线了自己的 Voice Agent,从 AI 陪伴、口语陪练、语音儿童绘本、 AI 虚拟销售等等。大家也对 TEN 给予了 TEN 高度评价👇

那就让我们仔细聊聊为什么 TEN 超厉害的!

这次的 0.10 版本又有什么新内容呢?

TEN 在与开发者的沟通中不断进化。最新发布的 0.10 版本是 TEN Framework 的一个重要里程碑,在易用性与灵活性上,又有了极大的提升:

  1. 引入main支持自定义业务逻辑:新增了简化的 main 概念,这让开发者在不修改框架底层代码的情况下,轻松注入和定制自己的业务逻辑,大大提升了灵活性。

  1. 统一的实时协议 v2.0 :对 ASR、LLM、TTS 等核心实时通信协议进行了全面升级。特别是新的 TTS 协议基于 WebSocket,显著降低了延迟并提供了更好的错误处理能力。

  2. 更丰富的插件生态:正式增加了对 Sonniox、Speechmatics 和 Hume.ai 的官方支持,为开发者在语音识别、情感分析等方面提供了更多选择。

  3. 官方支持 Node.js:Node.js 现在与 Python 和 C++ 一样,成为 TEN 框架的 first-class runtime,为广大的 Node.js 开发者提供了原生支持。

  4. TMAN Designer UI 升级 :用于设计和管理语音代理工作流(pipelines)的用户界面 TMAN 进行了更新,响应速度更快,设计体验也更加直观。

来都来了!15 min 就能用 Node.js 捏完你的第一个语音助手

百说不如一练,那就和 TEN 一起,用 Node.js 动手搭建一个语音助手吧!

你无需在 Node.js 中重复造轮子去实现 ASR、LLM 或 TTS 这些底层功能,而是可以直接复用 Python 或 C++ 编写的现有模块或库,将 Node.js 的重心放在核心流程的编排和业务逻辑的开发上。


为什么选择 Node.js + TEN?

TEN 框架为模块化、跨语言开发而设计,在本次的教程中,你将直观体验到 :


项目结构

TEN Framework 的仓库(https://github.com/TEN-framework/ten-framework/tree/main/ai_agents/agents/examples/voice-assistant-nodejs)中,已经提供了一个可用的 Node.js 语音助手示例,无需从 0 开始手搓。

目录结构大致如下(与 GitHub 上示例一致):

.
├── index.ts            → MainControlExtension (Node.js pipeline logic)
├── helper.ts           → Utilities for sending Cmd/Data
└── agent/
    ├── agent.ts        → Event queue and orchestration
    ├── events.ts       → Typed events (ASR, LLM, Tools, User)
    ├── llm_exec.ts     → Handles LLM requests/responses
    └── struct.ts       → Zod schemas for message validation

入门指南(Getting Started)

建议按照官方的入门指南(https://theten.ai/docs/ten_agent/getting_started)完成基础设置步骤(安装、API 密钥、环境、Docker 等)。

⚠ 注意:当你执行 task use 来构建 agent 时,要确保选择 Node.js 语音助手示例:

task use AGENT=agents/examples/voice-assistant-nodejs

这样可以确保你运行的是 Node.js pipeline 版本,同时仍复用 Python/C++ 的 extension 来做 ASR、LLM、TTS。


Main Extension

index.ts 定义了 MainControlExtension,是 Node.js 的入口点。它会对运行时事件做出反应,并将输出发送到适当的目标(TTS、记录器等)。下面是其四个核心部分:

  1. 用户加入时的欢迎(Greeting on User Join)

当第一个用户加入时,extension 将自动发送欢迎信息。它既会发送给 TTS(这样用户能够听到),也发送给 transcript collector(在对话历史中也能看到)。例如:

this.agent.on(UserJoinedEvent, async () => {
  this.joinedUserCount++;
  if (this.joinedUserCount === 1) {
    await this._send_to_tts(this.config.greeting, true);
    await this._send_transcript("assistant", this.config.greeting, true, 100);
  }
});

这样,你的语音助手就能总是热情满满地和你 say hi 👋


  1. ASR 结果处理(Processing ASR Results)

当语音识别(ASR)产生结果时,extension 将:

示意代码:

this.agent.on(ASRResultEvent, async (event) => {
  this.session_id = String(event.metadata?.session_id ?? "100");
  const stream_id = Number(this.session_id) || 0;

  if (!event.text) return;

  if (event.final || event.text.length > 2) {
    await this._interrupt();
  }

  if (event.final) {
    this.turn_id += 1;
    await this.agent.queueLLMInput(event.text);
  }

  await this._send_transcript("user", event.text, event.final, stream_id);
});

这样,用户的语音输入被转换为可用于 LLM 的文本提示。


  1. 处理 LLM 响应(Handling LLM Results)

当 LLM 响应时,extension 将:

示意代码:

this.agent.on(LLMResponseEvent, async (event) => {
  if (!event.is_final && event.kind === "message") {
    const [sentences, remainText] = parseSentences(this.sentenceFragment, event.delta);
    this.sentenceFragment = remainText;
    for (const sentence of sentences) {
      await this._send_to_tts(sentence, false);
    }
  }

  const dataType = event.kind === "message" ? "text" : "reasoning";
  await this._send_transcript(
    "assistant", event.content, event.is_final, 100, dataType
  );
});

这允许 “实时语音合成” — 在用户还不知道模型 “思考” 完的时候,就开始听到助手机器人的语音。


  1. 文本转写(Transcript Handling)

所有 ASR 和 LLM 的文本最终通过 _send_transcript 方法以结构化格式流向 message_collector

private async _send_transcript(
  role: string,
  text: string,
  final: boolean,
  stream_id: number,
  data_type: "text" | "reasoning" = "text",
) {
  await sendData(this.tenEnv, "message", "message_collector", {
    role,
    text,
    is_final: final,
    stream_id,
    data_type,
    text_ts: Date.now(),
  });
}

每一次用户或助手机器人的发言都被一致地记录下来,用于界面显示、调试或分析。


总结要点


Just Try it:测试与运行

当你完成设置后:

按照官方入门指南操作。

  1. 使用 Node.js agent:
task use AGENT=agents/examples/voice-assistant-nodejs
task build
task run
  1. 当你修改 Node.js 扩展文件后,需要执行 task build 来重新编译这些扩展

  2. 在浏览器中或设计界面中连接:

    1. 在本地通过 http://localhost:3000 测试
    2. 或者用 TMAN Designer 等工具测试
  3. 开始说话 —— 你的 Node.js 管道会负责协调整个流程


✨ 就酱!你的第一个实时语音助手就已经搭建完啦!请为自己鼓掌👏👏👏

如果你还有更多的创意想法想用 TEN 完成,也欢迎报名由 TEN 发起的全球 Voice Agent 挑战赛:

TEN Dev Challenge 2025!角逐 11 K 美金奖金池!


阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么


↙↙↙阅读原文可查看相关链接,并与作者交流