AI测试 从语音识别到智能助手:Voice Agent 的技术进化与交互变革丨 Voice Agent 学习笔记

RTE开发者社区 · 2025年07月11日 · 66 次阅读

From Research AI+:

最近看到 Andrew Ng 的一句话让我印象深刻:“While some things in AI are overhyped, voice applications seem underhyped right now.”(尽管 AI 中有些领域被过度炒作,语音应用却似乎被低估了)。的确,在大模型、大生成的热潮中,Voice Agent 这一领域相比之下略显低调,但背后的技术变革与落地潜力正在悄然加速。

上周末,Research AI+ 作为小红书邀请的开发者代表,参加了 Founder Park 在北京的 AGI 大会,进而有机会结识了 RTE 社区——一个关注 Voice Agent 和实时互动新范式的开发者社区。后续社员们又参加了 RTE 社区组织的几场关于 Voice Agent 的技术讨论,讨论内容深入到了唤醒词检测(Wake Word Detection)、语音活动检测(VAD)、说话结束检测(Turn Detection)、全双工交互 (Full-Duplex) 等话题。这让我重新意识到,Voice Agent 不再只是简单的 ASR(语音识别)+ TTS(文本转语音),而是一个融合了多模态、多任务学习与实时交互的复杂系统。

于是我想借此机会,将这篇关于

Voice Agent 发展脉络的文章

介绍给大家,希望对关注多模态与 Agent 的小伙伴有所帮助。

以下文章来源于 Liz。

想象一下这样的场景变化:1980 年代,你需要对着电脑一字一顿地说 “天 - 气-怎 - 么-样”,等待数秒,且不一定能得到准确回答;而今天,你可以随口问 “明天穿什么合适?”,AI 立刻理解你的真实需求,结合天气、你的偏好给出建议,甚至记住你不喜欢厚重的外套。

我们与 Siri、Alexa、小爱同学的每一次对话,看似轻松自然,背后却是一场持续了半个多世纪的技术与交互设计的协同演化。这篇文章将系统梳理 Voice Agent(语音助手)从早期语音识别工具演化为智能交互体的全过程,重点探讨:

  • 技术演进: 哪些关键技术突破推动了交互方式的革新?

  • 产品形态: 每个阶段的典型产品及其面临的核心挑战。

  • 交互变革: 从命令式到对话式再到预测式的交互模式演变。

  • 商业生态: 从工具属性到生态入口再到个人助理的角色转换。

  • 未来展望:大模型时代的新可能与新挑战。

01 Voice Agent 演化全景:四个关键阶段

我们将这段历史划分为四个主要阶段,每个阶段都由关键的技术突破所驱动,并催生了全新的产品形态和交互模式。

发展阶段对比总览

第一阶段:1950s-1980s 语音识别起步 —— 命令工具

核心特征:在严格受控的环境下,识别有限词汇的特定说话人。

技术突破与原理

  • 动态时间规整 (Dynamic Time Warping, DTW)

原理解析:语音信号在时间轴上具有不确定性,每个人说话的速度都不同。DTW 是一种衡量两个不同长度时间序列相似度的算法,它通过非线性地 “规整” 时间轴,找到两条语音波形的最佳对齐路径。

形象比喻:就像智能地拉伸或压缩两段不同节奏的音乐,让它们的节拍对齐,从而比较其旋律的相似度。

  • 模板匹配 (Template Matching)

工作方式:系统预先录制并存储一套标准的语音 “模板”。当用户说话时,系统将输入的语音与库中的模板逐一比对,找出最相似的那个作为识别结果。

限制:这是一个封闭集合问题,就像只能从固定菜单中点菜,任何超出范围的词汇都无法识别。且对说话人和环境变化非常敏感。

  • 隐马尔可夫模型 (Hidden Markov Model, HMM)

核心思想:HMM 的引入是语音识别领域的第一次重大范式转移。它不再依赖僵硬的模板比对,而是将语音识别看作一个概率解码问题。语音被建模为一个由多个状态(如音素)组成的链,通过概率计算来推断最有可能产生该段语音的词序列。

技术意义:首次引入强大的统计建模方法,让语音识别具备了一定的 “容错能力” 和对变化的适应性,为处理大词汇量连续语音识别奠定了基础。

典型产品与使用体验

  • 贝尔实验室 "Audrey" (1952): 作为最早的识别系统之一,Audrey 只能识别孤立的数字,但为后来的研究拉开了序幕。

  • IBM Shoebox (1962): 在 1962 年的西雅图世界博览会上亮相,能够识别 16 个英文单词和 0-9 的数字。用户需要对着麦克风,以清晰、孤立的方式发音。

  • Dragon Dictate (1990): 虽然在 1990 年发布,但其技术根植于 80 年代的研究。它是首款面向消费者的语音听写产品,词汇量扩展到数千,但要求用户在每个单词之间进行明显停顿(即 “离散语音”),且需要大量训练来适应特定用户。

交互特点与核心问题

  • 交互模式: 严格的命令式交互。用户必须使用系统预设的、有限的词汇,并采用标准化的发音方式。系统无法理解自然语言的意图,只能做语音到文字的转换。

  • 核心挑战

准确率低: 词错误率(Word Error Rate, WER)居高不下。

适应性差: 高度依赖特定说话人(Speaker-Dependent),换个人或环境变化就无法正常工作。

场景局限: 仅能用作简单的语音输入工具,无法成为真正的 “助手”。

第二阶段:2000s-2011 移动设备普及 —— 助理雏形

核心特征: 借助云计算能力,语音识别开始走向大众,并首次具备了初步的 “意图理解” 能力。

技术突破与架构革新

  • GMM-HMM 识别系统

技术升级: 高斯混合模型(Gaussian Mixture Model, GMM)被用来更精细地对 HMM 中每个状态的声学特征分布进行建模。GMM-HMM 架构成为了当时大词汇量连续语音识别(LVCSR)的主流方案。

性能提升: 词错误率显著下降至 15-20% 左右,系统开始能够处理用户说出的完整句子,而非逐词输入。

  • 云端语音识别架构

架构创新: 随着互联网的普及,语音处理的核心计算任务从资源有限的本地设备端转移到了强大的云端服务器。

优势: 云端可以部署更复杂的识别模型,并利用海量数据进行训练和持续优化,这为语音识别成为一项大众化服务铺平了道路。

代表产品: Google Voice Search (2008) 是这一架构的早期典范。

产品形态演进

  • Google Voice Actions (2010)

这不仅仅是一个语音搜索工具。用户可以通过说出 “call John Smith” 或 “navigate to the Eiffel Tower” 等指令来直接操作手机。这是主流产品首次实现意图识别,即从语音中解析出用户的目的和关键参数(如联系人姓名、目的地),而不仅仅是转写文字。

  • Siri (2011)

Siri 的发布是语音助手发展史上的一个分水岭。它被集成到 iPhone 4S 中,首次将语音助手带入了主流消费市场。

革命性意义: Siri 成功地将多种技术整合在一起——ASR (语音识别) + NLU (自然语言理解) + DM (对话管理) +TTS (语音合成),并与操作系统及各种网络服务(如天气、地图、日历)深度集成,创造了前所未有的流畅体验。

交互升级: 用户可以进行更自然的问答,如 “What's the weather like?” 或 “Will I need an umbrella tomorrow?”,并得到直接有用的回答,而不只是一个搜索结果列表。

交互模式变化

  • 从命令式到单轮问答

交互不再局限于死板的命令。用户可以像与人提问一样与机器互动,尽管这种互动通常限于一问一答,缺乏上下文记忆。

  • 核心问题与局限

上下文缺失: 几乎没有对话记忆。如果你问完 “北京天气怎么样?”,接着问 “那上海呢?”,Siri 无法理解 “那” 指代的是 “天气”。

意图识别有限: 其理解能力主要基于人工编写的规则和模板,一旦遇到稍微复杂或模糊的问题,就会回答 “我不太明白”。

交互流程固化: 对话逻辑类似一个巨大的 IF-ELSE 决策树,缺乏灵活性和泛化能力。

第三阶段:2014-2018 智能音箱爆发 —— 场景化中控

核心特征: 语音交互走出手机,进入家庭环境,成为连接内容、服务和智能设备的 “中控”。

技术突破与体验升级

  • 远场语音识别

麦克风阵列技术: 智能音箱通常内置多个(如 6-8 个)麦克风,组成一个阵列。

波束成形 (Beamforming): 通过分析声音到达不同麦克风的微小时间差,算法可以像 “聚光灯” 一样将拾音焦点对准用户,同时抑制来自其他方向的噪音和回声。

实际效果: 即使用户在几米外的嘈杂客厅里正常说话,也能精准唤醒并识别指令。

  • 唤醒词检测 (Wake Word Detection)

技术原理: 一个极低功耗、轻量级的神经网络在设备端持续监听,只为了识别特定的唤醒词(如 “Alexa”、“OK Google”)。

用户体验: 只有在检测到唤醒词后,主系统才会被激活并将后续语音流传输到云端进行处理。这彻底将用户从 “先按键、后说话” 的模式中解放出来,实现了真正的 “动口不动手”。

  • 深度神经网络 (DNN) 革命

ASR 提升: 2012 年后,DNN 开始取代传统的 GMM-HMM 模型,成为声学建模的主流。这使得词错误率进一步降低到 5% 以下,识别鲁棒性大幅提升。

NLU 增强: 基于深度学习的 NLU 模型能更好地理解用户意图和槽位信息(Slot Filling),支持更复杂的句子结构

  • WaveNet 神经语音合成 (Neural TTS)

技术突破: 由 DeepMind 在 2016 年提出,WaveNet 直接从原始音频波形中学习并生成语音,是 TTS 领域的一大飞跃

效果提升: 合成的语音在韵律、停顿和语调上都极其自然,摆脱了传统拼接式或参数式合成的 “机器人味”,让交互变得更有温度。

典型产品与生态构建

  • Amazon Echo/Alexa (2014)

亚马逊凭借 Echo 几乎开创了智能音箱这一全新品类。

产品定位: 家庭环境下的智能中控。

生态策略: 开放 Alexa Skills Kit 平台,允许第三方开发者创建自己的语音应用(Skills)。到 2023 年,技能数量已超过 13 万,涵盖新闻、音乐、游戏、智能家居等方方面面,极大地丰富了 Alexa 的能力边界。

  • Google Home (2016)

凭借其在搜索引擎和知识图谱上的深厚积累,Google Home 在知识问答和上下文理解方面表现出色。

  • 中国市场:天猫精灵、小爱同学 (2017)

中国厂商迅速跟进,并凭借对本土化服务(如外卖、本地音乐库)的深度整合、更懂中文的识别优化以及激进的价格补贴策略,快速占领了市场。

交互模式进化

  • 多轮对话能力: 助手开始具备有限的上下文记忆,可以支持几轮围绕同一主题的对话。

用户:“我想听周杰伦的歌” 音箱:“好的,你想听哪一首?” 用户:“来一首《青花瓷》” 音箱:“为你播放《青花瓷》”

  • 商业模式转变:从工具到平台: 价值不再仅仅是设备本身,而是其背后连接的海量服务。语音购物、内容付费、广告变现成为新的商业模式,用户行为数据也成为其核心资产。

  • 核心问题:

对话能力脆弱: 多轮对话往往局限于特定场景,一旦跳出预设流程就容易 “翻车”。

“撞墙” 现象: 能力边界清晰,超出技能(Skill)范围就无法响应,用户需要去学习和记忆音箱 “会什么”。

个性化不足: 虽然能区分不同家庭成员的声音,但无法根据用户的长期习惯和偏好进行深度定制。

第四阶段:2023-Now 大模型融合 —— 通用智能体雏形

核心特征:大型语言模型(LLM)与语音技术深度融合,推动 Voice Agent 从 “能听懂” 向 “会思考、善沟通” 的通用智能体演进。

技术革命与能力跃升

  • 大型语言模型 (LLM) 融合

架构升级:基于 Transformer 架构的 LLM(如 GPT-4、Gemini、Claude)具备强大的世界知识、推理能力和语言生成能力,从根本上重塑了 NLU 和对话管理模块。

能力突破:

理解复杂意图: 能理解模糊、多义、甚至带有比喻的自然语言。长程记忆对话: 在长对话中保持上下文连贯,记住之前的细节。零样本/少样本学习: 无需预先定义技能,就能处理各种开放性任务。生成式回答: 能提供富有创造性、个性化、有深度的回答,而不只是执行命令或播报信息。

  • 全双工交互 (Full-Duplex) 突破

体验革命: 彻底改变了 “你说我听、我说你听” 的对讲机式半双工模式。用户可以像与真人交谈一样,随时打断 AI 的回答,AI 也能实时感知并做出反应。

技术挑战: 这需要极低延迟的端到端处理,以及强大的声学回声消除 (Acoustic Echo Cancellation, AEC) 技术,以便在 AI 自身播放音频的同时,精准地检测到用户的插入语音。

全双工对话的关键技术模块

要实现上述流畅的全双工对话,需要多个底层技术模块的精密协作,其中 VADTurn Detection 至关重要:

  • VAD (Voice Activity Detection / 语音活动检测)

功能: 这是对话系统的 “耳朵开关”。它在音频流中实时运行,其唯一任务是区分人类语音和背景噪声/静音。

作用: VAD 是语音处理的第一道关卡,可以有效过滤掉无关声音,减少不必要的计算,并在检测到语音时才触发后续更复杂的 ASR 引擎。在嘈杂环境中,一个精准的 VAD 至关重要。

  • Turn Detection (说话结束检测)

功能: 判断用户的一句话或一个意图是否已经表达完整。这在技术上也被称为 End-of-Turn (EOT) 或 Endpointing。

挑战与作用: 这是一个比听起来复杂得多的任务。人类对话中的停顿可能是思考,也可能是结束。Turn Detection 必须精准地判断这一点:过于灵敏会打断用户,过于迟钝则会造成尴尬的沉默。一个好的 Turn Detection 模型是决定助手 “反应有多快”、“多有礼貌” 的关键,直接影响交互的自然度。

产品形态创新

  • ChatGPT + Voice Mode: OpenAI 率先展示了 LLM 驱动的语音对话体验。其全双工模式支持自然插话、打断,并且能感知用户 “嗯”、“啊” 等语气词,让交流的流畅度达到了前所未有的高度。

  • Claude + Voice: Anthropic 也为其模型加入了语音能力,凭借其强大的长文本处理和分析能力,在处理复杂工作任务和深度对话场景中展现出潜力。

  • 新一代 Alexa (预览版): 亚马逊正在用自研的生成式 AI 模型重构 Alexa,目标是从一个 “技能调用器” 转变为一个真正能主动思考、提供建议的对话伙伴。

交互模式革命:从多轮对话到全双工预测式交互

对比一下,就能体会到交互的飞跃:

复杂任务处理: LLM 助手能够分解和执行多步骤的复杂指令。例如,对于 “帮我规划一个周末去上海的旅行,要包括一个博物馆和一个特色餐厅”,它能够主动询问预算、兴趣偏好,然后进行信息检索、行程规划、餐厅推荐,并最终生成一个完整的方案。

挑战与限制

  • 幻觉问题: LLM 依然可能生成不准确或完全虚构的信息。

  • 延迟与成本: 要实现低延迟的自然对话,同时控制大模型高昂的推理成本,是商业化面临的巨大挑战。

  • 隐私与安全: 助手越来越了解用户,如何保护海量的个人语音数据和偏好信息变得至关重要。

02Voice Agent 的下一个十年

Voice Agent 的发展,本质上是 人机交互不断自然化和智能化的过程。 从最早依赖命令式输入和关键词唤醒,到如今具备一定程度的语境理解与情绪识别能力,语音系统的演进反映出多个技术模块——ASR、TTS、NLU、多模态处理等——的协同跃迁。

随着大语言模型(LLM)的引入,Voice Agent 开始从 “语音控制工具” 转向更复杂的交互智能体,能够支持更长的对话链、更强的个性化理解,甚至可以在跨语言、跨任务场景中保持上下文连贯性。这类系统不再仅仅是执行命令的语音界面,更有潜力演化为理解意图、提供建议、长期陪伴的智能伙伴。

然而,理想与现实之间,仍存在大量结构性挑战:

  • 上下文建模尚不稳健: 在多轮语音对话中,断句、回指、话题漂移等问题仍常导致模型 “听懂了字面,却理解错了含义”

  • 算力与响应速度的权衡: 更强模型能力意味着更重的计算负担,在边缘设备部署中尤为突出;

  • 多模态融合仍偏割裂: 语音与视觉、动作、情境信号的集成缺乏统一标准,场景间迁移能力弱;

  • 产品体验链易断裂: 交互流程长,用户在任何一个环节遇到理解偏差或响应延迟,都可能放弃使用;

  • 小语种与方言泛化能力不足: 尽管已有针对多语言的语音模型(如 Whisper、讯飞方言模型等),但大多数方言依然处于长尾区,训练数据稀缺,泛化能力有限;

  • 数据隐私挑战长期存在: 高质量语音语料获取常与通话隐私产生直接冲突,尤其在涉及个体生理、场景、情绪信息时,隐私合规要求更高。

当前的技术演进方向与潜在突破点

为了应对上述挑战,Voice Agent 的底层技术正沿着几个明确方向演化:

  • 多模态融合系统化语音将与视觉(摄像头)、体感、环境感知等多模态信息进一步融合。这不仅要求输入维度的扩展,更考验表示对齐、跨模态时序建模与语义整合能力。系统级的融合能力将决定未来 Voice Agent 能否 “看着你说话,听懂你背后的意思”。

  • 边缘计算与端云协同在低延迟、数据本地化和功耗控制的多重需求下,Voice Agent 正逐步转向端侧部署 + 云端调度的混合架构。随着端侧 NPU 性能提升,常规识别与部分推理任务将可在设备本地完成,从而减少对云端依赖。

  • 情绪与语调建模增强识别与合成非语言特征(如语气、节奏、情绪)是提高交互 “自然感” 的关键。当前已初步验证了建模的可行性,但在真实场景中仍面临泛化能力弱、反馈稳定性不足等问题,尚需进一步迭代。

  • 小语种与方言的泛化能力真实世界中的语音交互远比训练数据更复杂,小语种、地方口音、跨语种混合表达广泛存在。现有语音模型在这些 “长尾语言” 上的泛化能力有限,且训练所需的高质量语料常受限于数据稀缺与隐私合规的双重约束。这是未来语音系统能否 “普适部署” 的关键门槛之一。

Voice Agent 的故事还在继续。它不仅是一场模型能力的竞赛,更是一场交互体验、场景设计、数据治理和伦理思考的 “长期战”。

参考文献

Aalto University. (n.d.). Speaker Diarization. Speech Processing Book. https://speechprocessingbook.aalto.fi/Recognition/Speaker_Diarization.html

Aalto University. (n.d.). Voice activity detection. Speech Processing Book. https://speechprocessingbook.aalto.fi/Recognition/Voice_activity_detection.html

AI Labs Taiwan. (n.d.). The Challenge of Speaker Diarization. AI Labs Taiwan Blog. https://ailabs.tw/human-interaction/the-challenge-of-speaker-diarization

Anguera, X., et al. (2006). Speaker Diarization: A Review of Recent Research. ResearchGate. https://www.researchgate.net/figure/Speaker-diarization-system-architecture_fig1_3049555

Appinventiv Team. (n.d.). Transformer vs RNN: A Detailed Comparison for NLP Tasks. Appinventiv Blog. https://appinventiv.com/blog/transformer-vs-rnn

AssemblyAI Team. (2024). Top Speaker Diarization Libraries and APIs in 2024. AssemblyAI Blog. https://www.assemblyai.com/blog/top-speaker-diarization-libraries-and-apis

Chang, J., et al. (2022). End-to-end Turn-taking Prediction for Conversational Systems. In Interspeech 2022. ISCA.

Chen, S., et al. (2020). Early-Stop Speaker Clustering for Speaker Diarization. In Odyssey 2020. ISCA.

Chen, Y., et al. (2020). Voice activity detection in the wild via weakly supervised sound event detection. arXiv. https://arxiv.org/pdf/2003.12222

Chen, Z., et al. (2019). Meeting Transcription Using Virtual Microphone Arrays. Microsoft Research.

Cornell, S., Balestri, T., & Sénéchal, T. (2021). Implicit Acoustic Echo Cancellation for Keyword Spotting and Device-Directed Speech Detection. Amazon Science.

CSLT. (2012). Speaker Diarization. http://index.cslt.org/mediawiki/images/7/70/121027-Speaker_Diarization-WJ.pdf

Cummins, N., et al. (2022). Prosodic Predictors of Temporal Structure in Conversational Turn-Taking. NSF Public Access Repository. https://par.nsf.gov/biblio/10451410

Dataloop AI. (n.d.). Vad Endpoint Model. https://dataloop.ai/library/model/boknows_vad-endpoint/

Delgado, J. (2024). End-to-End Spoken Language Understanding. Idiap.

Ekstedt, E., & Skantze, G. (2023). How Much Does Prosody Help Turn-taking?ResearchGate.

Ekstedt, E., & Skantze, G. (2025). Turn-taking in the Wild: A Data-Driven Approach to Spoken Dialogue Systems. arXiv. https://arxiv.org/html/2501.08946v1

更多 Voice Agent 学习笔记:

对话 Wispr Flow 创始人 Tanay:语音输入,如何创造极致的 Voice AI 产品体验

Notion 创始人 Ivan Zhao:传统软件开发是造桥,AI 开发更像酿酒,提供环境让 AI 自行发展

ElevenLabs 语音智能体提示词指南 —— 解锁 AI 语音交互的「灵魂秘籍」丨 Voice Agent 学习笔记

11Labs 增长负责人分享:企业级市场将从消费级或开发者切入丨 Voice Agent 学习笔记

实时多模态如何重塑未来交互?我们邀请 Gemini 解锁了 39 个实时互动新可能丨 Voice Agent 学习笔记

级联 vs 端到端、全双工、轮次检测、方言语种、商业模式…语音 AI 开发者都在关心什么?

视频丨 Google 最新 AI 眼镜原型曝光:轻量 XR+ 情境感知 AI 打造下一代计算平台

a16z 最新报告:AI 数字人应用层即将爆发,或将孕育数十亿美金市场

a16z 合伙人:语音交互将成为 AI 应用公司最强大的突破口之一,巨头们在 B2C 市场已落后太多丨 Voice Agent 学习笔记

ElevenLabs 33 亿美元估值的秘密:技术驱动 + 用户导向的「小熊软糖」团队

暂无回复。
需要 登录 后方可回复, 如果你还没有账号请点击这里 注册