「自然语言处理(NLP)」良心推荐:一文了解注意力机制(Attention)
喜欢我们,点击上方 AINLPer ,关注一下,极品干货即刻送达! 本文主要参考博 客: https://blog.csdn.net/intflojx/article/details/85338778 引言 相信很多小伙伴在看论文的时候,会时不时的遇到注意力机制(Attention)这个关键词。其实 注意力模型最近几年在深度学习各个领域被广泛使用,无论是在图像处理、语音识别还是自然语言处理中,都很容易遇到注意力模型的身影。 它其实是深度学习技术中最值得关注与深入了解的核心技术之一。 了解注意力机制的工作原理对于关注深度学习技术发展的技术人员来说有很大的必要。 本文概要 1 什么是注意力机制(Attention) 2 Encoder-Decoder框架 3 Attention注意力机制 4 Attention小结 正文开始 1 什么是注意力机制(Attention) 深度学习中的注意力机制借鉴了人类的注意力思维方式。 我们首先人类的视觉注意力机制介绍开始。 举个例子: 比如当你看到一篇论文的时候,你的眼睛会快速的扫描论文第一页,接着首先将注意力集中到论文的标题(如果论文的第一页有图片,你也会去关注第一页中的图片是什么),然后你就会关注论文的摘要是什么,对于摘要区域,你会渐渐投入到更多地注意力,然后读懂摘要,进而了解文章的大概内容。