CH2-NLG应用之【机器翻译non-auto-regressive版】

谁都会走 提交于 2020-01-31 14:54:31

2018年,Gu等人提出了一种新的机器翻译模型,这种模型不用再从左到右的顺序依次翻译了,使得翻译过程可以并行化。

模型本身依然是基于Transformer的,不同的是在测试时可以并行解码。模型结构如下图所示:

把并行计算结果时,不同位置之间的词独立带来的问题归结为训练样本中存在 multimodal target distribution的问题。找到一个很好的切入点,并通过引入隐含变量来降低mode的空间,帮助decoder进行decode。同时论文中采用knowledge distillation的方式,利用auto-regressive model来帮助模型进行训练,也是一个非常好的做法。最终使得,模型在non-auto-regressive的情况下,达到了auto-regressive模型的效果。

TODO具体的论文阅读

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!