2

Meta翻译大模型可模仿语气语速!AI再也不“莫得感情”了|GitHub 9k标星

 8 months ago
source link: https://www.51cto.com/article/777242.html
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

Meta翻译大模型可模仿语气语速!AI再也不“莫得感情”了|GitHub 9k标星

作者:量子位 2023-12-21 14:53:00
AI这发展速度,再过几年咱们学一门新语言就像学写字一样简单。不由地让人想象70亿人说同一种语言是什么感觉。

Meta发布了全新AI翻译大模型,实时语音转换延迟不超过2秒

感受一把这个速度(西班牙语<=>英语):

不仅速度快,它的准确率还和离线模型一样高。

最重要的是,像什么停顿、语气、语速和情绪…… 它都可以复刻。

例如模仿耳语:

原声1,量子位,3秒

翻译1,量子位,3秒

例如模仿悲伤:

原声2,量子位,3秒

翻译2,量子位,3秒

有了它,再也不用吐槽AI翻译“莫的感情”了。

有网友则表示:

AI这发展速度,再过几年咱们学一门新语言就像学写字一样简单。

不由地让人想象70亿人说同一种语言是什么感觉。

图片

目前,此模型已在GitHub已揽获近9k标星,可谓爆受欢迎。

图片

除了开源下载,官方也提供了demo供大家尝试体验。

4种型号,非自回归架构

Meta此次发布的是一个翻译模型系列:Seamless Communication(无缝交流)。

图片

4个不同型号分别为:

  • SeamlessExpressive

可以保留跨语言语音复杂性的模型,包括停顿、语速、情绪等内容。

  • SeamlessStreaming

大规模多语言模型,提供大约2秒延迟的语音和文本翻译,与离线模型准确率几乎一样高。

支持近100种输入语言和36种输出语言的语音到语音翻译,支持近100种输入和输出语言的自动语音识别和语音到文本翻译。

  • SeamlessM4T v2

前两个模型的底座模型,多语言多任务,今年8月发布的第一个版本,实现跨语音和文本翻译的SOTA结果。

这一新版本采用的是带有非自回归文本到单元解码器的新架构,可提高文本和语音输出之间的一致性。

  • Seamless

将前三种模型的功能融为一体的模型。

开源的是前三个。

那么,这一系列模型具体怎么打造出来的?

据官方博客介绍,以上所有模型都由fairseq2提供支持。

后者是一个用于序列到序列任务的轻量建模工具包,支持机器翻译、语音识别等任务,可与PyTorch生态系统库组合。

此外,还包括具有非自回归文本到单元(text-to-unit)解码器的新架构UnitY2。

它的语音生成能力很强。

在SeamlessM4T v2 中,Meta使用multitask-UnitY2来启用文本输入。

在SeamlessStreaming和SeamlessExpressive中,UnitY2也作为模型架构构建基础。

图片

在此,Meta也特别解释了一下为什么要采用非自回归架构

这是因为,自回归模型虽然模拟语音很自然,但随着序列长度的增加,它们的扩展性很差。

而非自回归模型预测每个片段的持续时间,使得每个片段可以并行解码。

因此它对长序列具有鲁棒性,更适应流媒体场景。

那么,说到流媒体,Meta的模型是如何快速又准确地翻译实时语音的呢?

核心算法是EMMA,一个可以智能决定何时已经拥有足够的信息来生成下一个语音片段或目标文本的模型。

它还可以从离线模型中进行微调,让准确率更高。

原理的最后一部分,主要说说Meta的模型又是如何让翻译不机械,富有表现力的

在此,他们用PRETSSEL(一个语音到单元生成器)替换SeamlessM4T v2中的HiFi-GAN 声码器单元。

这个生成器以源语音为条件来生成波形,以此传输音调、情感表达和声音风格质量等信息。

此外,团队还开发了Prosody UnitY2,将它集成到SeamlessM4T v2中,让它指导模型生成具有适当节奏、语速和停顿的单元生成。

两项特别的工作

除了以上这些,Meta还介绍了两项额外的工作。

一是“毒性缓解”。

指的是翻译准确性的问题,在这种翻译任务中,意外的错误或幻觉可能会导致两个不同语言的人产生误会。

由于这一问题的主要原因通常在于训练数据。

所以Meta做的第一件事就是在训练前过滤一遍数据中出现的“有毒内容”。

但这只是被动的,并不能完全防问题发生。

因此,他们提出直接在翻译生成过程中自动检测生成的有毒单词,确有问题时自动重新调整生成过程并使用新单词来表达。

这个过程在推理时就能做,不需要对翻译模型进行任何微调。

最终,它显著减少了翻译“毒性”,并同时保持翻译质量。

二是音频水印。

为了防止可能的滥用风险,Meta翻译模型也为音频添加了水印。

方式是主动在音频中嵌入人耳无法觉察的信号,用专门的检测器模型可以检测出来;通过这个水印,我们就可以准确追踪音频的来源。

除此之外,这一水印还可以对抗各种打击,比如有人想通过添加噪音、回声或过滤某范围内的频率来修改音频、淡化水印以此来绕过检测,就是行不通的。

One More Thing

除了模型、论文,Meta还同步开源了此系列翻译模型的元数据、数据和数据对齐工具。

其中元数据包括58.5万小时的语音文本对,涵盖76种语言。

这是迄今为止总容量最大、语言覆盖范围最广的语音语料库。

责任编辑:张燕妮 来源: 量子位

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK