论文速览|更好的预训练句子编码器(微软EMNLP 2020)

点点圈 提交于 2021-01-31 23:23:08

Title: Cross-Thought for Sentence Encoder Pre-training
Paper: https://arxiv.org/abs/2010.03652
GitHub: https://github.com/shuohangwang/Cross-Thought

来源: EMNLP 2020
机构: Microsoft

这篇论文提出了 Cross-Thought,一个预训练句子编码器,为大规模NLP任务提供可复用的句子embeddings。和直接使用整句的原始信息不同的是,该模型在大量短序列中训练基于Transformer的序列编码器,这使得模型可以自动选择最有用的信息来预测被遮盖的单词。在问答和文本蕴含任务中,该预训练编码器表现得更出色,并在HotpotQA上通过提高中间信息检索性能而获得SOTA。通过进一步的微调,可以在众多的NLP任务中击败几个有力的baselines。

<<< 左右滑动见更多 >>>

<<< 左右滑动见更多 >>>

<<< 左右滑动见更多 >>>

本文分享自微信公众号 - 图网络与机器学习(Graph-AI)。
如有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!