Lightspeed 投资了 Character.ai(AI 角色对话)、Cartesia(语音 AI 模型)、Volley(语音 AI 游戏)等语音 AI 公司。不同于此前分享的 BVP 报告侧重企业应用场景分析,Lightspeed 此篇报告更关注语音 AI 底层技术模型的演进趋势。
核心要点:
语音技术的演变:语音技术从 1970 年代的「交互式语音应答」(IVR)系统发展到现代智能语音电话树,再到如今的 LLM 系统,用户体验不断提升。
市场机遇:目前 IVR 系统市场价值 60 亿美元,未来语音应用市场有望增长四倍,特别是在医疗和酒店等垂直行业。
语音 AI 的现状:语音 AI 依赖于语音转文本(STT)、文本到文本(TTT)和文本到语音(TTS)三种基本架构;两类主要模型:扩散模型(适用于异步编辑和有声书等)和自回归模型(适用于实时对话和翻译)。
下一代语音 AI 模型:潜在声学表示(LAR)、tokenized 语音模型、无文本语音模型、流式传输模型。
文章认为语音 AI 初创公司在确定市场定位之前,需要先克服三个关键挑战:
1. 无缝人机协同: 智能识别 AI 局限性,并在必要时无缝切换至人工客服,确保流畅的用户体验。
2. 性能与成本平衡: 实现低延迟、高性能的语音 AI 交互,同时控制计算和数据成本。自主搭建应用通常比全栈式解决方案更具成本效益。
3. 垂直领域优先: 专注于医疗或金融等垂直领域的应用,解决实际业务问题,比构建通用模型更易获得早期成功。
作者:Lisa Han
十多年前,电影《Her》向我们展示了一个名为 Samantha 的 AI 操作系统,她的声音让她的人类伴侣深深爱上了她。在 2013 年,这样的情节还只能算是科幻小说中的幻想。但今天,它更像是产品路线图。自从 ChatGPT 推出以来,我们在多个领域见证了技术的飞速发展,语音技术尤为突出,它可能成为未来发展的关键。不久前,Open AI 推出了 ChatGPT 的高级语音模式,这一功能能够实现接近人类自然对话的音频交流。因此,我们正站在语音革命的边缘,与电影《Her》中所描绘的那种体验越来越近。
大语言模型(LLM)和多模态聊天机器人正在彻底革新企业与客户之间的沟通方式。在 Lightspeed,我们与众多研究人员和创业者进行了数十次深入的交流,他们正致力于开发下一代的语音应用。以下是我们对当前语音市场的状况和未来发展趋势的一些看法。
商业语音应用的演变
过去 50 年间,商业语音应用领域经历了翻天覆地的变化。1970 年代,首个交互式语音响应(IVR)系统问世,那时用户只能通过键盘输入来响应语音提示进行操作。然而,在过去的二十年间,这种传统的按键导航逐渐被更先进的智能语音电话树取代,客户现在可以用自然语言下达指令,而不再局限于按键选择。
如今,我们正迈入一个全新的时代——基于大规模语言模型(LLM)的系统,它们让用户与软件的互动不再是单向的对话,而是双向的交流。这些系统能够像人类一样理解语言的微妙之处和对话的上下文。
语音 AI 的机遇
目前,仅交互式语音响应(IVR)系统的市场价值就高达 60 亿美元,这还不包括更广泛的语音应用领域,如音频书籍、播客、翻译、配音、游戏和陪伴应用等。我们相信,随着人工智能技术在延迟、音调和响应能力上的不断进步,语音应用市场的规模有望增长至四倍。
在短期内,最成功的语音技术公司将专注于医疗、酒店等垂直行业的应用,以及那些设计用于处理简单任务(比如日程安排)的应用。然而,这些新兴的语音应用最终将融入更广泛的 SaaS 平台,从而显著扩大可服务的市场范围。
像 ChatGPT 4o 这样的多模态聊天机器人,不仅能帮助组织与用户建立更紧密、更个性化的联系,还能收集语气、意图和情绪状态等信息。利用这些数据,企业可以改进服务并推动新产品的开发。
语音 AI 的现状
目前,AI 驱动的语音应用依赖于三种基本的参考架构来处理自然语言、解释并生成智能响应:
1、语音转文本(STT)输入: 捕捉口语并将其转为文本。
2、文本到文本(TTT)推理: 利用 LLM 对文本转录进行 tokenized 并形成书面响应。
3、文本到语音(TTS)生成: 将书面响应转为口语。
文本到文本推理可能涉及两类模型,每类模型都有其优缺点和理想的使用场景:
类别 1:扩散模型(Diffusion Models)
类别 2:自回归模型(Autoregressive Models),如 Transformer 和状态空间模型(State Space Model,简称 SSM)
Transformer 模型 通过记住一系列输入并将其转换为所需输出来工作。它们最适合需要细微对话能力的场景,如一对一对话或语言翻译。这些模型提供更高质量的输出,但需要更多的内存和系统资源。
状态空间模型(SSM) 则根据对话中的当前状态和最近的历史来做出响应。这使得它们比内存密集型的 Transformer 模型运行更快、成本更低。SSM 还具有更低的延迟和更自然的语音再现能力,并且能够处理比 Transformer
更长的上下文序列(尽管目前还不确定它们是否能够充分利用整个序列以高质量方式输出)。虽然 SSM 需要的内存比 Transformer
少,但真正的挑战在于如何利用其扩展的序列处理能力来实现高质量的输出。
在文本到文本、文本到语音和语音到语音技术方面,已经取得了显著的进展。像 Cartesia 和 Kyutai 这样的公司在状态空间模型和开源解决方案方面取得了重大突破。同时,Meta 的 Voicebox 和 OpenAI 的 ChatGPT 4o 等行业巨头也在不断推动文本到语音模型的创新。
下一代语音 AI
在音频 AI 的下一个浪潮中,有四种顶级候选模型,它们各自处于不同的发展阶段。
1、潜在声学表示(Latent Acoustic Representation ,LAR)
LAR 是 GPT-4o 模型的基础,它不仅将音频转换为文本词元,还能捕捉声学特征、语调和说话者意图等元数据,从而增强了声学信息的丰富度,并提供更高质量的输出结果。LAR 模型的训练更为便捷,能够更快地投入市场,但同时也存在一些限制。
由于 LAR 并非采用端到端训练方式,因此它仅适用于高度特定的应用场景。此外,LAR 需要等待录音结束后才能处理数据,这可能会引发延迟问题。我们认为,它是通往 tokenized 语音模型道路上一个不可或缺的过渡阶段。
1、Tokenized 语音模型(Tokenized Speech Model)
tokenized 语音模型 代表了语音 AI 技术的重大进步。这些模型已经被集成到 GPT 4.0 和 Llama 的下一版本中,它们使用文本和音频编码器来产生更准确的输出。但是,训练这些大型模型成本很高,并且在生物识别语音处理方面存在重大的版权问题。我们预计这种技术在未来两到三年内将准备就绪,进入市场。
3、无文本语音模型(Textless Speech Model)
无文本模型跳过了将语音转换为文本的步骤,直接将口语输入到基于音频 token 训练的大规模语言模型中。其目标是减少延迟并创造更自然的交互体验。然而,目前的科研结果显示,相比于 tokenized 语音模型或潜在声音表示(LAR)模型,无文本模型更加消耗资源,性能表现和准确率都相对较低。
4、流式模型(Streaming Model)
流式模型直接处理原始音频流,无需进行 tokenization。这使得开发者可以将应用配置为始终在线,无需对话轮换。虽然这可能加快语音处理速度,但始终在线的特性也意味着其运行成本可能会显著增加。
语音 AI 市场的未来及其挑战
在投资了包括 Cartesia 和 Character AI 等几家领先的语音 AI 公司后,我们发现语音 AI 初创公司在确立市场定位之前,需要解决三个关键挑战:
1、以大规模语言模型为核心,并巧妙融合人工干预: 对于任何语音 AI 交互,准确识别 AI 无法有效处理的场景至关重要。应用必须能够在用户体验受损之前,无缝且高效地将对话转交给人工客服。此外,公司需要深入了解技术架构的每一层,以便追踪语音应用错误或信息不准确的根本原因。
2、在提升性能的同时,降低延迟和成本: 新兴架构面临的一个主要挑战是如何提供近乎实时的性能。虽然根据客户需求定制通用模型至关重要,但这在大规模应用中可能会耗时且成本高昂。为了提高质量和智能水平,基于 Transformer 模型的应用需要进行大规模的音频数据标注。将延迟降低到 250 毫秒以下对于打造自然的对话体验至关重要,而这通常通过自主搭建应用而非依赖全栈式架构更容易实现。成本始终是一个关键因素:对于大规模部署的语音代理而言,即使每分钟成本的细微差异也会对最终收益产生显著影响。
3、制定精准的市场进入策略: 在现阶段,专注于特定垂直领域的应用比通用的多模态 AI 模型更具竞争优势。聚焦医疗、金融等大型垂直领域的企业级应用能够更快地获得市场份额,尽管随着新架构的成熟和价值的验证,这种情况可能会有所改变。早期成功的关键在于解决「最后一公里」问题,降低技术门槛,使其更易于被消费者和企业用户所接受。
我们认为,目前最有效的语音 AI 方案是将语音先转换为文本再进行标记化,同时还能整合其他音频信息,从而提供更丰富、更逼真的体验。然而,这个领域仍充满创新机遇,有大量的探索空间。我们需要更多研究来判断无文本模型和流式模型能否克服其固有局限性,并在市场中找到一席之地。
无论这些技术如何发展,企业音频领域都将迎来变革性的应用。人们将能够像与朋友交流一样自然地与企业互动。企业如何部署语音 AI 将极大地影响客户满意度和品牌忠诚度,其效果可能积极也可能消极,最终取决于所选工具和执行策略。
我们尚未达到电影《Her》中描绘的人机深度情感连接的阶段,但我们正在快速接近这样的未来。
编译:林瑞丽,傅丰元
社区技术顾问:付则宇、强化学徒
更多 Voice Agent 学习笔记:
2024 语音模型前沿研究整理,Voice Agent 开发者必读
从开发者工具转型 AI 呼叫中心,这家 Voice Agent 公司已服务 100+ 客户
WebRTC 创建者刚加入了 OpenAI,他是如何思考语音 AI 的未来?
人类级别语音 AI 路线图丨 Voice Agent 学习笔记
语音 AI 革命:未来,消费者更可能倾向于与 AI 沟通,而非人工客服
语音 AI 迎来爆发期,也仍然隐藏着被低估的机会丨 RTE2024 音频技术和 Voice AI 专场
下一代 AI 陪伴 | 平等关系、长久记忆与情境共享 | 播客《编码人声》
写在最后:
我们欢迎更多的小伙伴参与「RTE 开发者日报」内容的共创,感兴趣的朋友请通过开发者社区或公众号留言联系,记得报暗号「共创」。
对于任何反馈(包括但不限于内容上、形式上)我们不胜感激、并有小惊喜回馈,例如你希望从日报中看到哪些内容;自己推荐的信源、项目、话题、活动等;或者列举几个你喜欢看、平时常看的内容渠道;内容排版或呈现形式上有哪些可以改进的地方等。