计算机软件及计算机应用论文_基于源语言句法增
文章摘要:当前性能最优的机器翻译模型之一Transformer基于标准的端到端结构,仅依赖于平行句对,默认模型能够自动学习语料中的知识。这种建模方式缺乏显式的引导,不能有效挖掘深层语言知识,特别是在语料规模和质量受限的低资源环境下,从而造成译文质量的下降。为了缓解上述问题,提出了基于源语言句法增强解码的神经机器翻译模型,显式地引入源语句句法信息指导解码。首先,模型利用源语句句法信息构造句法感知的遮挡机制;然后,引导编码自注意力生成一个额外的句法相关表征;最后,将句法相关表征作为原句表征的补充,通过注意力机制融入解码,共同指导目标语言的生成,实现对模型的先验句法增强。在多个IWSLT及WMT标准机器翻译评测任务测试集上的实验结果显示,与Transformer基线模型相比,基于源语言句法增强解码的神经机器翻译方法提高了0.84到3.41的BLEU值,达到了句法相关研究的最先进水平。表明句法信息与自注意力机制融合的有效性,利用源语言句法可指导神经机器翻译系统的解码过程,显著提高译文质量。
文章关键词: