Tip:
①细胞状态:
②遗忘门:
和,输出一个在 0 到 1 之间的数值给每个在细胞状态 中的数字。1 表示“完全保留”,0 表示“完全舍弃”。
②输入:
。另一部分使用了tanh激活函数输出为。
③细胞状态更新:
和遗忘门相乘,丢弃一些需要丢弃的信息。然后把和相乘,选出新的信息。最后把这2个结果相加就是新的细胞状态。
④输出:
。另一部分使用了tanh激活函数激活刚才求得的细胞状态。最后将它们相乘,就是隐藏层的输出了。
①RNN为什么不用Relu解决长期依赖问题:
知乎上的一个答案,感觉可以做一个解释。
②LSTM为什么可以解决长期依赖问题:
文章来源: LSTM原理