预训练语言模型

对着背影说爱祢 提交于 2020-01-31 20:23:55

本文为本人在学习预训练语言模型时收集的相关资料

(一)从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史(张俊林dalao总结,强烈推荐)

(二)从Seq2Seq,Attention,Transformer到ELMo,BERT,GPT-2
          1、从Seq2Seq,Attention,Transformer到ELMo,BERT,GPT-2(一)
          2、从Seq2Seq,Attention,Transformer到ELMo,BERT,GPT-2(二)

(三)NLP课程:Encoder-Decoder框架、Attention、Transformer、ELMO、GPT、Bert学习总结   概括了ELMo、GPT、BERT等的优缺点

(四)从Transformer、BERT到GPT2和XLNet:高端玩家如何用论文互怼   以故事形式介绍了预训练语言模型

标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!