类 ChatGPT 模型的输入框里能够粘贴语音文档了。
大型言语模型(LLM)正在改变每个行业的用户希望。但是,建立以人类语音为中心的生成式人工智能产品仍然很困难,因为音频文件对大型言语模型构成了应战。
将 LLM 应用于音频文件的一个关键应战是,LLM 受其上下文窗口的约束。在一个音频文件能够被送入 LLM 之前,它需求被转换成文本。音频文件越长,绕过 LLM 的上下文窗口约束的工程应战就越大。但工作场景中,咱们往往需求 LLM 帮咱们处理十分长的语音文件,比如从一段几个小时的会议录音中抽取核心内容、从一段访谈中找到某个问题的答案……
最近,语音辨认 AI 公司 AssemblyAI 推出了一个名为 LeMUR 的新模型。就像 ChatGPT 处理几十页的 PDF 文本一样,LeMUR 能够将长达 10 小时的录音进行转录、处理,然后帮用户总结语音中的核心内容,并答复用户输入的问题。
试用地址:www.assemblyai.com/playground/…
LeMUR 是 Leveraging Large Language Models to Understand Recognized Speech(使用大型言语模型来理解辨认的语音)的缩写,是将强壮的 LLM 应用于转录的语音的新框架。只需一行代码(经过 AssemblyAI 的 Python SDK),LeMUR 就能快速处理长达 10 小时的音频内容的转录,有效地将其转化为约 15 万个 token。相比之下,现成的、普通的 LLM 只能在其上下文窗口的约束范围内容纳最多 8K 或约 45 分钟的转录音频。
为了下降将 LLM 应用于转录音频文件的复杂性,LeMUR 的 pipeline 主要包含智能切割、一个快速矢量数据库和若干推理步骤(如思维链提示和自我评估),如下图所示:
图 1:LeMUR 的架构使用户能够经过一个 API 调用将长的和 / 或多个音频转录文件发送到 LLM 中。
未来,LeMUR 有望在客服等领域得到广泛应用。
LeMUR 解锁了一些惊人的新可能性,在几年前,我以为这些都是不可能的。它能够毫不费力地提取有价值的见解,如确定最佳行动,辨别销售、预定或呼叫目的等呼叫成果,感觉真的很奇特。—— 电话盯梢和剖析服务技能公司 CallRail 首席产品官 Ryan Johnson
LeMUR 解锁了什么可能性?
将 LLM 应用于多个音频文本
LeMUR 能够让用户一次性获得 LLM 对多个音频文件的处理反应,以及长达 10 小时的语音转录成果,转化后的文本 token 长度可达 150K 。
可靠、安全的输出
因为 LeMUR 包含安全措施和内容过滤器,它将为用户供给来自 LLM 的回应,这些回应不太可能发生有害或有成见的言语。
可弥补上下文
在推理时,它答应加入额定的上下文信息,LLM 能够使用这些额定信息在生成输出时供给个性化和更精确的成果。
模块化、快速集成
LeMUR 一直以可处理的 JSON 形式返回结构化数据。用户能够进一步定制 LeMUR 的输出格局,以确保 LLM 给出的响应是他们下一块事务逻辑所希望的格局(例如将答复转化为布尔值)。在这一流程中,用户不再需求编写特定的代码来处理 LLM 的输出成果。
试用成果
根据 AssemblyAI 供给的测验链接,机器之心对 LeMUR 进行了测验。
LeMUR 的界面支撑两种文件输入方法:上传音视频文件或粘贴网页链接均可。
咱们用 Hinton 近期的一份访谈资料作为输入,测验 LeMUR 的性能。
上传之后,系统提示咱们要等一段时间,因为它要先把语音转成文字。
转录之后的界面如下:
在页面右侧,咱们能够要求 LeMUR 总结采访内容或答复问题。LeMUR 根本能够轻松地完成任务:
假如要处理的语音是一段讲演或客服回复,你还能向 LeMUR 征求改进建议。
不过,LeMUR 似乎现在还不支撑中文。感兴趣的读者能够去尝试一下。