机器翻译 与seq2seq 由于机器翻译任务中输入输出都是不定长序列,我们可以使用编码器—解码器(encoder-decoder)或者seq2seq模型 。 注意力机制 attention模仿人类注意力,能让模型更关注数据的局部。 来源:CSDN作者:我是飞行模式链接:https://blog.csdn.net/u012302260/article/details/104398275 标签 深度学习 自然语言处理 机器翻译 机器学习