一种融合残差机制和注意力机制的深度语音去噪方法
DOI:
CSTR:
作者:
作者单位:

(陕西师范大学 计算机科学学院,陕西 西安 710119)

作者简介:

郭敏(1964-),女,博士后,教授,博士生导师,主要从事 数字信号处理、模式识别、数字图像处理方面的研究.

通讯作者:

中图分类号:

基金项目:

国家自然科学基金(61877038)资助项目 (陕西师范大学 计算机科学学院,陕西 西安 710119)


Speech denoising based on deep learning with residual structure and attention me chanism
Author:
Affiliation:

(School of Computer Science,Shaanxi Normal University,Xi′an 710119,China)

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    针对深度网络模型进行端到端语音去噪时存在对 语音底层信息表示能力不足以及网 络只采用卷积级联的方式造成参数冗余的问题,提出了一种融合残差机制和注意力机制的生 成对抗网络去噪模型(Attention Res-UNetGAN)。模型在波形域对语音进行去噪,其生成网 络为U-Net结构,包含下采样层、中间层和上采样层。中间层为改进的嵌套残差模块(Resid ual-Residual Block,RRB),是由两块基础残差块进行残差拼接而形成的。对称的下采样 层 和上采样层之间采用注意力跳连和直接跳连进行连接。在VCTK(Voice Bank corpus)数据集 进行去噪后并经PESQ等六种客观语音质量评价指标进行评价,Attention Res-UNetGAN相比 原生成对抗网络模型各指标值平均提升了9.13%。

    Abstract:

    The deep network model lack the ability to express the underlying feat ures when used to denoise speech end-to-end and only use convolution causing p ar ameter redundancy.Inspired by these,a generative adversarial network with the residual structure and attention mechanism is proposed (Attention Res-UNetGAN). The speech is denoised in the raw waveform domain.The generator network is U-N e t including downsampling layer,middle layer and upsampling layer.The middle la yer is an improved Residual-Residual Block (RRB),which is formed by the residu a l splicing of two basic residual blocks.Attention skip and direct skip are used between symmetrical downsampling layer and upsampling layer.Denoising on the V CTK (Voice Bank corpus) and evaluated by six objective speech quality evaluation indicators such as PESQ,Attention Res-UNetGAN has increased by an average of 9.13% compared with the generative adversarial network.

    参考文献
    相似文献
    引证文献
引用本文

李蕊,郭敏,马苗.一种融合残差机制和注意力机制的深度语音去噪方法[J].光电子激光,2021,32(5):485~490

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2020-12-01
  • 最后修改日期:
  • 录用日期:
  • 在线发布日期: 2021-05-28
  • 出版日期:
文章二维码