1

回顾丨2021 SpeechHome 语音技术研讨会

 2 years ago
source link: https://mp.weixin.qq.com/s?__biz=MzU4MTA0NDE5NQ%3D%3D&%3Bmid=2247492240&%3Bidx=3&%3Bsn=047e5f2fb499bec529a3b5b20ceed9d5
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

回顾丨2021 SpeechHome 语音技术研讨会

语音杂谈 2021-12-02 10:05

The following article is from 语音之家 Author 语音小管家

640?wx_fmt=jpeg

2021年11月28日,首届SpeechHome语音技术研讨会圆满落幕。本届SpeechHome语音技术研讨会由CCF语音对话与听觉专委会深圳市人工智能学会小米集团腾讯天籁实验室语音之家主办,由希尔贝壳西北工业大学音频语音与语言处理研究组昆山杜克大学语音与多模态智能信息处理实验室清华大学语音和语言技术中心内蒙古大学语音信号处理组深蓝学院协办。 



640?wx_fmt=png
27日上午9:20,AISHELL CEO卜辉宣布研讨会开始,并简要介绍本次研讨会的筹备情况以及报告内容。随后,CCF 语音对话与听觉专委会主任 、天津大学教授党建武老师对本次大会进行开幕致辞,讲到语音界能够如此迅速的发展,能够吸引许多年轻初学者,很重要的一个要素就是语音领域有很多丰富而且活跃的开源平台(包括技术和数据)。它的出现给我们提供了很好的交流平台,使得我们避免了许多重复性的劳动,并且降低了初学者进入本领域的门槛。在国际上,开源的语音工具包大约出现在上个世纪90年代。虽然,我国的开源平台和社区起步较晚、缺乏类似国外成熟的开源社区和平台,近年来也涌现出一批与智能语音相关的成熟的开源软件平台和社区。介绍了CCF语音对话与听觉专委会的发展以及呼吁更多的同仁能够加入到CCF语音对话与听觉专委会,为语音界的发展添砖加瓦。同时希望这次研讨会能够起到互相交流,互相促进的作用,激发更多的年轻学者和技术人员参与开源平台的开发和建设,把中国的开源力量推向世界!最后党老师预祝研讨会圆满成功!

接下来是27日上午的会议场景智能语音技术语音技术分享两个主题的内容回顾。

会议场景智能语音技术

(分享嘉宾:李明、黄申、陈卓、张仕良)

640?wx_fmt=png

李明分享的主题是《面向复杂场景的说话人日志》。报告首先介绍近年来逐渐成为研究热点的说话人日志这一任务的背景与可能的应用场景;其次,结合近期研究成果主要从模块化方法的角度来介绍说话人日志的技术原理和研究趋势;然后从系统实现层面介绍近期相关国际评测的参赛系统,最后扩展到在线及多模态这两个说话人日志的新兴场景。

640?wx_fmt=png

黄申分享的主题是《打造低延时、高精度的腾讯会议智能语音识别系统》。报告介绍了在会议实时通信系统中,流式ASR对延迟的要求非常高。重点介绍如何利用前端,编解码,特征等前端信号处理的设计,为流式ASR的延迟一步一步铺路。还结合腾讯会议实时字幕和转写系统,讲述如何利用当前sota的hybrid和端到端两套系统,在保证高精度识别率的前提下,进一步优化解码器的速度,延时和用户体验。

640?wx_fmt=png

陈卓分享的主题是《面向会议的对话语音识别》。报告介绍了不同于传统发的语音识别应用,在会议中,多人的对话往往包含语音混叠和快速说话人切换。这些现象破环了传统语音处理系统对于单说话人的假设,从而造成了大幅度的性能损失。随后介绍了语音混叠在会议系统中的影响及其特性。分享了过去几年在这个领域在线以及离线处理的一些工作与经验。

640?wx_fmt=png
张仕良分享的主题是《多通道多方会议转录(M2MeT)国际挑战赛介绍》。报告介绍了阿里巴巴达摩院语音实验室联合希尔贝壳等机构和多位国际上有影响力的行业专家在ICASSP2022国际会议上举办的多通道多方会议转录挑战赛(M2MeT)。以及M2MeT挑战赛的具体信息,包含计划开源的AliMeeting竞赛数据集,赛道设置,以及相关的基线系统等。同时分享了达摩院语音实验室关于会议场景说话人日志的研究进展。

技术分享

(分享嘉宾:任新蕾、田正坤)

640?wx_fmt=png

任新蕾分享的主题是《用于实时多通道语音增强的因果U-Net神经波束形成网络》。报告介绍了快手参加interspeech2021组织的远场多通道语音增强挑战赛ConferenceSpeech2021所提交的系统,该系统结合了多通道因果U-Net和传统的波束形成结构。该系统相比baseline极大地提升了降噪性能,并获得了挑战赛所设两个赛道的冠军。并围绕比赛设置,模型结构,训练数据,实验结论等方面做了详细介绍。

640?wx_fmt=png
田正坤分享的主题是《低延迟非自回归语音识别方法》。语音识别技术作为人机交互的入口具有重要的应用价值。需要语音识别系统的又快又准是我们不懈的追求。常见的端到端语音识别方法如transducer模型和基于注意力机制的编码解码模型(Attention-based Encoder-Decoder, AED)通常情况下都是通过自回归方法来建模模型输出标签之间的依赖关系,这种时序依赖关系使得模型获得了准确率上的提升,但同时也阻止了解码效率的提升。非自回归模型的出现打破了这种现状,其通过摆脱时序依赖,获得了巨大的推理速度提升。我们将非自回归模型针对语音识别任务进行了改进提升,着力于消除非自回归模型与自回归模型的性能差距,并相信基于非自回归的语音识别解码方法能够颠覆现有的非流式任务的自回归解码方法,带来一次技术革新。

640?wx_fmt=png
640?wx_fmt=png
27日下午13:50,小米集团副总裁崔宝秋对专场报告致辞,对参加本次技术研讨会的各位学术界、产业界的专家朋友表示感谢,特别是感谢希尔贝壳卜总的组织。虽然因疫情不能做线下活动,给大家带来了一些不便,但从另一方面体现了人工智能技术的优势和重要性,尤其是激发了语音技术的进步发展。我国的开源环境目前呈现出前所未有的好时机,开源已被写进国家十四五规划中。相信在未来,开源将是人类技术进步的最佳平台与模式。拥抱开源是小米多年来的工程文化,2019年,凭着小米强大的生态以及对技术人员的高度重视,更是凭着多年来小米纯粹极致的开源理念和打法,我们吸引了Daniel Povey博士的加入。Daniel的加入对中国语音届也是一个利好的事情。Daniel在小米的两年期间一心致力于下一代Kaldi的开发,并在Interspeech2021会议上发布了Icefall 1.0,代表了新一代的Kaldi正式成型。中国的AI技术生态越来越完善,相信对语音技术会提出很多要求。小米今年正式进入智能汽车领域,对小米内部的语音团队也是很大的激励。相信在未来智能化生态中,例如智能家居、智能车载等场景中,语音技术以及多模态交互技术会得到很好的发展。同时呼吁更多的语音届同仁能够参与到Kaldi项目中,一起打造一个更加繁荣的Kaldi开源生态。小米会持续对开源做出贡献,对Kaldi技术交流提供支持,最后预祝大会圆满成功。

接下来是27日下午的Kaldi 开源技术语音技术分享两个主题的内容,由清华大学副研究员王东担任主持。

640?wx_fmt=png

Kaldi 开源技术

(分享嘉宾:Daniel Povey、卜辉)

640?wx_fmt=png

Daniel Povey分享的主题是《Next-Gen Kaldi: Status and Near-term Plans》。The Next-gen Kaldi tools, k2, Lhotse and Icefall, are under rapid development.  I will talk about the progress we have made so far and also about our near-term plans, including our work to enable streaming/real-time decoding from C++, and recent experiments and modeling improvements.

640?wx_fmt=png

卜辉分享的主题是《AISHELL & AISHELL Foundation》。智能语音技术已经成为AI人机交互的主要应用技术,算法的逐步开源、算力更不再是高门槛的当下产业环境,数据始终保持着高价值难获取的现状。智能语音技术的实现源头来自规模化的数据集,数据集对技术的落地起到了催化的作用。数据集的可解释性、可使用度、可复现的信息显得尤为重要。本次报告首先介绍了语音技术领域的实验数据被使用现状,AISHELL的Kaldi开源项目及发布的可用数据集信息说明;基于AISHELL的数据集构建能力,赋能前沿语音技术赛事的任务介绍;最后对SpeechHome做为助力AI语音开发者的社区,搭建产学研技术交流平台和以人才为中心的知识分享生态介绍。

技术分享

(分享嘉宾:张俊博、陈航、周恒顺)

640?wx_fmt=png

张俊博分享的主题是《声音成分分析及其下游应用》。报告首先介绍了声音成分分析是机器学习领域的重要研究方向,其应用场景非常广泛,近年来得到了越来越多的学者的关注。随后,分享了团队在该领域做的一些工作。此外,将声音成分分析技术应用于声源分离(Audio Source Separation)和声音活动检测(Voice Activity Detection)等领域上,取代了传统方法。实验表明新方法在和传统方法的对比中具有显著优势。最后展示了Demo和已上线的应用。

640?wx_fmt=png

陈航分享的主题是《Correlating subword articulation with lip shapes for embedding aware audio-visual speech enhancement》。We propose a visual embedding approach to improve embedding aware speech enhancement (EASE) by synchronizing visual lip frames at the phone and place of articulation levels. We first extract visual embedding from lip frames using a pre-trained phone or articulation place recognizer for visual-only EASE (VEASE). Next, we extract audio-visual embedding from noisy speech and lip frames in an information intersection manner, utilizing a complementarity of audio and visual features for multi-modal EASE (MEASE). Experiments on the TCD-TIMIT corpus corrupted by simulated additive noises show that our proposed subword based VEASE approach is more effective than conventional embedding at the word level. Moreover, visual embedding at the articulation place level, leveraging upon a high correlation between place of articulation and lip shapes, demonstrates an even better performance than that at the phone level. Finally the experiments establish that the proposed MEASE framework, incorporating both audio and visual embeddings, yields significantly better speech quality and intelligibility than those obtained with the best visual-only and audio-only EASE systems.

640?wx_fmt=png

周恒顺分享的主题是《Information Fusion in Attention Networks Using Adaptive and Multi-Level Factorized Bilinear Pooling for Audio-Visual Emotion Recognition》。Multimodal emotion recognition is a challenging task in emotion computing as it is quite difficult to extract discriminative features to identify the subtle differences in human emotions with abstract concept and multiple expressions. Moreover, how to fully utilize both audio and visual information is still an open problem. This talk will mainly describe a novel multimodal fusion attention network for audio-visual emotion recognition based on adaptive and multi-level factorized bilinear pooling (FBP). Specifically, the deep features from the audio encoder and the video encoder are first selected through the embedding attention mechanism to obtain the emotion-related regions for FBP fusion. Then, the adaptive adjustment of audio and video weights is presented for a deep fusion. Furthermore, the multi-level information by using global-trunk data and intra-trunk data is adopted to design a new network architecture. Detailed comparisons and results will be given on different datasets.

640?wx_fmt=png
640?wx_fmt=png

28日上午9:30,西北工业大学教授谢磊对专场报告致辞,回顾了27日来自产业界及学术界嘉宾们的精彩报告,智能会议场景实际上是涉及语音技术非常综合的场景,包括了很多前端信号的处理、说话人日志、语音识别等技术,还有许多需要我们探索的地方。Daniel的报告也是非常的精彩,让我们深入了解到新一代kaldi的不同之处。非常感谢希尔贝壳的组织,卜辉总的开源贡献。在开源开放的社区里,WeNet也是在持续做一些开源的活动,github的star数也超过了1500个,也有100多家机构在使用。最后对28日上午专场报告的议程做了介绍并预祝大会成功。

接下来的是WeNet 开源技术、技术分享两个主题的内容,由内蒙古大学教授张学良担任主持。

640?wx_fmt=png

WeNet 开源技术

(分享嘉宾:张彬彬、范璐、印晶晶)

640?wx_fmt=png

张彬彬分享的主题是《开源语音和 wenet-e2e 开源社区》。报告介绍到开源在现代计算机和软件生态中发挥着越来越重要的作用。在语音行业,语音社区也变得越来越开放,涌现出越来越多的开源语音的工作。wenet-e2e社区和该社区下的开源项目致力于开源语音生态的建设,致力于解决语音行业落地中的基础、基本问题,致力于探索更适合行业落地和产品化的语音技术。随后,介绍了开源语音和 wenet-e2e 社区,分享现有的 wenet、WenetSpeech、wenet-text-processing、wenet-kws 等语音开源项目,以及 wenet-e2e 社区的进一步项目规划和建设。

640?wx_fmt=png

范璐分享的主题是《京东智能语音交互技术进展及应用》。基于前沿的智能语音人机交互技术,以及在零售、健康、物流、科技领域最高频率的智能交互场景,京东研发的大规模商用的情感智能交互系统言犀,不仅广泛应用于内部业务,同时在政务、金融、交通、文旅、医疗等垂直产业方向也得到了快速的发展,为商家、客户带来效率、体验与收入的增长,提供7*24小时服务,涵盖售前、售中和售后全场景。京东语音技术在SRE18,Dcase2019,FFSVC2020,M2VOC均取得了较好的成绩,并在interspeech icassp等会议发表论文十余篇,并把其中的技术方案应用到多种人机语音交互场景中。

640?wx_fmt=png

印晶晶分享的主题是《喜马拉雅语音识别技术和应用介绍》。报告从喜马拉雅的具体业务场景出发,介绍了语音识别相关技术在主播剪辑、内容审核、智能文稿等方面的应用,分享了喜马拉雅自研的HiASR算法演进,一些端到端语音识别的实验和探索,以及HiASR微服务框架的设计与实现。

技术分享

(分享嘉宾:赵靖、吴锡欣、吕术博、付艺辉)

640?wx_fmt=png

赵靖分享的主题是《AUTOMATIC SPEECH RECOGNITION FOR LOW-RESOURCE LANGUAGES: THE THUEE SYSTEMS FOR THE IARPA OPENASR20 EVALUATION》。The paper introduces our Automatic Speech Recognition (ASR) systems for the IARPA Open Automatic Speech Recognition Challenge (OpenASR20) as well as some post explorations with speech pre-training. We compete in the Constrained training condition for the 10 languages as team THUEE, under which the only speech data permissible for training of each language is a 10-hour corpus. We adopt the hybrid NN-HMM acoustic model and an N-gram Language Model (LM) to construct our basic ASR systems. The acoustic model is proposed as CNN-TDNNF-A, which combines Convolution Neural Network (CNN), Factored Time Delay Neural Network (TDNN-F) and self-attention mechanism. As for low-resource condition, we apply speed and volume perturbation, SpecAugment and reverberation for data enhancement as well as data clean-up to filter interference information. A series of pre-and-post-processing procedures for the evaluation set, such as Speech Activity Detection (SAD), system fusion and results filtering are carried out to obtain the final results. Furthermore, we exploit wav2vec 2.0 pre-trained model to obtain more effective speech representations for the hybrid system with a series of explorations, which brings about evident improvements.

640?wx_fmt=png

吴锡欣分享的主题是《Speech Emotion Recognition Using Sequential Capsule Networks》。Speech emotion recognition (SER) is a fundamental step towards fluent human-machine interaction. One challenging problem in SER is obtaining utterance-level feature representation for classification. Recent works on SER have made significant progress by using spectrogram features and introducing neural network methods, e.g., convolutional neural networks (CNNs). However, the fundamental problem of CNNs is that the spatial information in spectrograms is not captured, which are basically position and relationship information of low-level features like pitch and formant frequencies. We propose a model based on the capsule networks (CapsNets) that can take into account the spatial relationship of speech features in spectrograms, and provide an effective routing method for obtaining utterance-level features. We also introduce a recurrent connection to improve the CapsNet model’s ability to capture temporal information. Experimental results on the IEMOCAP corpus demonstrate the effectiveness of the CapsNets for SER.

640?wx_fmt=png
640?wx_fmt=png

吕术博、付艺辉分享的主题是《复杂声学场景下基于复数谱的语音增强和去混技术研究》。基于深度学习的语音前端处理取得了迅猛的发展,特别是近年来深度复数网络的应用,因其能同时对幅度和相位进行建模,从而进一步提升了语音增强及去混的效果。本次报告汇报了西工大音频语音与语言处理研究组在单通道及多通道场景下基于深度复数网络语音增强及去混方面的一些实践。

最后主办方对大会做总结和鸣谢。至此,第一届SpeechHome语音技术研讨会圆满结束,期待与大家再次相见。会议直播间热度高达20000+,累计人次6000+

嘉宾PPT下载语音杂谈公众号后台回复 “语音技术研讨会”,获取部分嘉宾PPT。备注:嘉宾PPT因受限不能全部分享,大家可以通过视频回放,回顾会议内容。

640?wx_fmt=gif
640?wx_fmt=png

永久福利 直投简历

(简历投递):[email protected]

语音杂谈内推助力,leader直收简历

企业招聘旺季,推荐机会不容错过

0?wx_fmt=png
语音之家
助力AI语音开发者的社区
12篇原创内容
Official Account
0?wx_fmt=png
VJoinU
关注AI语音技术的人才招聘
3篇原创内容
Official Account
640?wx_fmt=gif

觉得本篇文章不错?

① 点击右下角“在看”,让更多的人看到这篇文章;② 分享给你的朋友圈;③ 关注语音杂谈公众号。640?wx_fmt=gif640?wx_fmt=jpeg

扫码关注我们

语音人的技术客栈

专注于语音技术分享与干货推送

640?wx_fmt=png


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK