论文速览|更好的预训练句子编码器(微软EMNLP 2020)
Title: Cross-Thought for Sentence Encoder Pre-training Paper: https://arxiv.org/abs/2010.03652 GitHub: https://github.com/shuohangwang/Cross-Thought 来源: EMNLP 2020 机构: Microsoft 这篇论文提出了 Cross-Thought,一个预训练句子编码器,为大规模NLP任务提供可复用的句子embeddings。 和直接使用整句的原始信息不同的是,该模型在大量短序列中训练基于Transformer的序列编码器,这使得模型可以自动选择最有用的信息来预测被遮盖的单词。 在问答和文本蕴含任务中,该预训练编码器表现得更出色,并在HotpotQA上通过提高中间信息检索性能而获得SOTA。 通过进一步的微调,可以在众多的NLP任务中 击败 几个有力的baselines。 <<< 左右滑动见更多 >>> <<< 左右滑动见更多 >>> <<< 左右滑动见更多 >>> 本文分享自微信公众号 - 图网络与机器学习(Graph-AI)。 如有侵权,请联系 support@oschina.cn 删除。 本文参与“ OSC源创计划 ”,欢迎正在阅读的你也加入,一起分享。 来源: oschina 链接: https://my.oschina