文章 2023-05-13 来自:开发者社区

IEEE SLT 2022论文解读|基于多帧跨通道注意力机制的多说话人语音识别

此外,该论文还提出了一种多层卷积模块以融合多通道输出和一种通道掩码策略以解决训练和推理之间的音频通道数量不匹配的问题。在ICASSP2022 M2MeT竞赛上发布的真实会议场景语料库AliMeeting上进行了相关实验,该多通道模型在Eval和Test集上比单通道模型CER分别相对降低了31.7%和37.0%。此外,在同等的模型参数和训练数据下,本文提出的模型获得的识别性能超越竞赛期间最佳结果,....

IEEE SLT 2022论文解读|基于多帧跨通道注意力机制的多说话人语音识别
文章 2023-05-13 来自:开发者社区

INTERSPEECH 2022论文解读|针对多方会议场景下说话人相关语音识别的对比研究

说话人相关语音识别 (Speaker-Attributed Automatic Speech Recognition,SA-ASR) 是多方会议转录的主要目的,旨在解决“谁说了什么”这个问题。与多说话人语音识别相比,SA-ASR 不仅需要转录重叠语音段内不同说话人的抄本,同时还需要对识别的抄本分配说话人的标签。多方会议场景包含了丰富的讲话风格和复杂的声学条件,需要考虑到重叠语音、数量未知的说话人....

INTERSPEECH 2022论文解读|针对多方会议场景下说话人相关语音识别的对比研究
文章 2023-05-13 来自:开发者社区

INTERSPEECH 2022论文解读|Paraformer: 高识别率、高计算效率的单轮非自回归端到端语音识别模型

INTERSPEECH 是由国际语音通讯协会(International Speech Communication Association, ISCA)创办的语音信号处理领域顶级旗舰国际会议。历届 INTERSPEECH 会议都备受全球各地语音语言领域人士的广泛关注。本文介绍一种具有高识别率与计算效率的单轮非自回归模型 Paraformer。该论文已被 INTERSPEECH 2022 接收。近....

INTERSPEECH 2022论文解读|Paraformer: 高识别率、高计算效率的单轮非自回归端到端语音识别模型
问答 2023-04-14 来自:开发者社区

语音论文阅读(基于Transformer的在线CTC/Attention 端到端语音识别架构)

【技术揭秘】可控时延语音识别文本后处理技术 论文:         Conformer: Convolution-augmented Transformer for Speech Recognition 摘要:      ...

文章 2022-07-30 来自:开发者社区

INTERSPEECH 2022论文解读|Paraformer: 高识别率、高计算效率的单轮非自回归端到端语音识别模型

针对 Transoformer 模型自回归生成文字的低计算效率的缺陷,学术界提出了非自回归模型来并行地输出目标文字(如图1所示)。根据生成目标文字时的迭代轮数,非自回归模型分为:多轮迭代式与单轮非自回归模型。迭代式非自回归模型,主要为 Mask-Predict 模式[2],训练时,将输入文字随机掩码,通过周边信息预测当前文字。解码时,采用多轮迭代的方式逐步生成目标文字;计算复杂度与迭代轮数有关(....

INTERSPEECH 2022论文解读|Paraformer: 高识别率、高计算效率的单轮非自回归端到端语音识别模型
文章 2022-02-17 来自:开发者社区

FPGA 2017最佳论文出炉:深鉴科技ESE语音识别引擎获奖(附解读)

韩松在FPGA'17会场讲解 ESE 硬件架构FPGA 领域顶级会议 FPGA 2017 于 2 月 24 日在加州 Monterey 结束。在本次大会上,深鉴科技论文《ESE: Efficient Speech Recognition Engine with Sparse LSTM on FPGA》获得了大会最佳论文奖(Best Paper Award)。图1:韩松提出的深度学习部署方案。跟传....

FPGA 2017最佳论文出炉:深鉴科技ESE语音识别引擎获奖(附解读)

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐